• 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责抖音电商数据治理工作,包括不限于成本、质量、效率,提升数据易用性、安全性及稳定性; 2、深入理解数据业务,发现并总结数据研发、数据成本、数据质量、数据安全等方面数据问题,提炼数据治理方法论,推动数据治理方法实施; 3、孵化并持续迭代优化数据治理产品,以系统化、智能化能力高效支撑数据业务快速发展。 职位要求: 1、熟练使用SQL、Python、Java等工具进行大型数据分析及建模; 2、熟练使用Hadoop、Hive、Spark、Flink等组件进行大数据场景数据开发; 3、有较强的逻辑分析、沟通及工作推进能力,具备优秀的技术与业务结合能力; 4、对数据治理有一定的实践经验,有良好业务意识,对数据业务场景敏感,能够横向协同、跨团队整合资源,形成完整的方案解决业务/产品的问题; 5、有良好数据治理产品经验者、有实时数据研发经验者优先。
  • 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
  • 25k-50k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责反爬取和风控基础平台的架构、设计与实现; 2、负责风控数据平台和模型系统架构的建设; 3、跟踪反爬、反作弊技术的最新进展并应用于实践。 职位要求: 1、具备优秀的逻辑思维能力,对解决挑战性问题充满热情,善于解决问题和分析问题; 2、精通至少一门编程语言,熟练运用各种常用算法和数据结构,有独立的实现能力 ; 3、熟悉在线系统开发,流式计算,规则引擎及模型系统者优先; 4、有互联网反爬取,反作弊,账户安全等系统相关经验者优先。
  • 音频|视频媒体,短视频 / 上市公司 / 500-2000人
    岗位职责: 1.负责酷狗营收业务系统的设计和开发,包括会员等虚拟商品售卖; 2.参与数据统计分析,定期对业务进行深入探讨,为运营决策、产品方向、用户体验提供数据支持; 3.参与技术难点攻关,保障系统可用性,支撑高并发流量。 岗位要求: 1.本科及以上学历,具有3年以上相关工作开发经验; 2.至少熟悉一门开发语言(Go,Lua,Java,C/C++),了解对应语言技术栈常用开源框架,熟悉常用的数据结构和算法; 3.熟悉Linux系统,熟练使用MySQL、Redis,Nginx开源组件,对源码有深入研究者优先; 4.熟悉业务架构设计理论,熟悉行业常见的架构方案,理解微服务架构的设计思想,包括不限于服务化、异步、高可用、可扩展等; 5.具有创新意识,思维活跃,逻辑思维强,对自身技术提升有强烈的学习欲望; 6.有团队合作开发经验,善于与人沟通,良好的团队合作精神和高度的责任感。
  • 20k-35k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
  • IT技术服务|咨询,新媒体,文化传媒 / 不需要融资 / 150-500人
    ■岗位职责 负责智慧政务、智慧城市业务国内、省内党政机关、企事业单位的市场开拓、活动策划和项目运维; 负责大河智库(大数据与人工智能)业务国内、省内党政机关、企事业单位的市场开拓、营销策划和项目运维。 ■岗位条件 (1)学历:普通高招大学本科及以上学历。 (2)年龄:原则上本科生不超过28周岁,硕士研究生不超过30岁,特别优秀者可适当放宽。 (3)专业:新闻与传播学、文学、法学、商学、经济学、统计学、管理学、马克思主义哲学、历史文化学、文化产业与旅游管理学、广播电视编导、摄影摄像、导演剪辑、市场营销学、经济金融、工业设计、电子商务、公共事业管理等相关专业。 (4)基础能力: 熟悉我国国体、政体,谙熟党政机关、企事业单位(包括金融保险证券投资、大型国企、上市公司等)的运行机制,了解智慧政务、智慧城市、智慧产业、大数字与人工智能在本行业的应用和运行规律,掌握政务、媒体行业信息化项目的发展趋势、业务流程和操作规范; 具备2-3年项目管理经验,精通项目管理的知识体系,如项目启动、规划、执行、监控和收尾等各个阶段的工作流程和方法,熟悉项目管理工具和技术; 具备优秀的协调沟通能力、团队管理能力、实践管理能力和问题解决能力; 具备风险管理知识,能够识别、评估和应对项目中的风险; 了解质量管理知识,确保项目交付成果符合质量标准。 (5)放宽及优先条件 具有符合本岗位特殊才能的,学历和年龄可适当放宽; 具有相关从业经历、从业经验且业绩卓著的,或者有客户资源、媒体工作经验的,学历和年龄可适当放宽,并优先考虑; 其他符合放宽或优先条件的。
  • 电商平台 / C轮 / 2000人以上
    工作职责: 1、负责公司网站搜索&平台相关工作; 2、参与现有网站搜索相关系统架构; 3、负责搜索相关服务的持续优化与改进。 任职要求: 1、3年以上JAVA开发经验,有1年及以上的推荐、搜索等相关的工作经验优先; 2、有高并发场景经验; 3、熟练使用Elasticsearch/Solor/Lucene、Redis等,并有实际开发工作经验; 4、熟练使用Spring Boot,并有实际开发工作经验; 5、熟悉电商平台搜索相关技术; 6、有良好的数据结构和算法功底; 7、熟悉应用服务器, 熟悉Tomcat、Netty、Apache的配置及其优化; 8、熟悉SOA、Messaging、Socket、线程、并发等开发知识,有后台框架开发经验; 9、工作态度积极,踏实肯干,沟通良好,有团队协作精神; 10、有技术追求,愿意自我驱动主动研究学习。
  • 18k-24k 经验3-5年 / 本科
    工具类产品 / 上市公司 / 2000人以上
    团队背景 隶属于6767搜推工程策略组6767,是公司搜索与推荐业务的核心技术支撑团队。团队技术氛围开放,鼓励创新实践,团队成员具备丰富的分布式系统与海量数据处理经验。 岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: 61基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; 61设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; 61通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 61负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; 61基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; 61针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 61**本科及以上学历,计算机相关专业,大数据开发相关经验; 616767熟练掌握并使用6767(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; 61熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; 61具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 61具有良好的沟通能力和组织协调能 6767加分项:6767 61有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; 61理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; 61对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
  • 18k-24k 经验不限 / 本科
    工具类产品 / 上市公司 / 2000人以上
    岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: •基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; •设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; •通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 •负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; •基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; •针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 •**本科及以上学历,计算机相关专业,大数据开发相关经验; •​​熟练掌握并使用​​(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; •熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; •具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 •具有良好的沟通能力和组织协调能 ​​加分项:​​ •有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; •理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; •对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
  • 17k-27k 经验1-3年 / 本科
    科技金融 / 不需要融资 / 500-2000人
    "岗位职责: 1. 负责保险金融及相关系统建设; 2. 设计和实现高质量的代码,确保系统的性能、可靠性和可扩展性; 3. 与团队成员合作,与业务人员沟通需求并提供技术支持; 4. 编写清晰的技术文档,记录系统架构、设计和实现细节; 5. 持续关注和学习新技术,能在合适场景,利用大数据、AI的技术,提升开发与运营效率。 岗位要求: 1.*****本科或以上学历,计算机或相关专业,1~3年的工作经验,优秀应届生可放宽工作年限要求; 2.熟练掌握Java语言,有较强的编程能力和算法设计能力; 3.熟悉常见设计模式,熟悉Spring,SpringMVC,Springboot, SpringCloud ,MyBatis等流行开源框架,熟悉微服务与云原生架构; 4.熟悉常用的数据结构和算法,掌握TCP/IP网络编程,熟悉数据库原理和常用性能优化技术,以及Redis,Kafka等常用中间件的原理、使用场景以及限制; 5.有很好的系统设计经验,对UML、设计模式等有深入理解,能写完整、详细的技术文档(时序图、状态图、ER图、类图等); 6.具备良好的团队合作精神和沟通能力,具备快速学习和解决问题的能力,能够独立或协同,高质量按期完成项目。"
  • 20k-35k 经验3-5年 / 本科
    科技金融 / C轮 / 150-500人
    职位概述 该职位负责优化证券后台运营流程,确保股票和固定收益(Equity & FICC)产品的高效运营与合规性,管理跨部门项目,并推动流程自动化和改进。 岗位职责 1、优化现有业务流程,推动自动化和效率提升,确保符合行业最佳实践和监管要求(如SFC)。 2、负责每日交易的清算、结算及账务核对,确保数据准确性。 处理公司行动(如派息、分红、配股)及支持新股发行(IPO)相关后台操作。 3、管理后台系统项目,推动新系统上线或优化现有系统。 4、识别并管理操作风险,支持内外部审计及合规要求。 5、与技术团队及前中后台密切协作,确保流程无缝衔接。 岗位要求 1、本科及以上学历,至少3年证券后台或运营相关经验,有项目管理经验者优先。 2、熟悉股票和固定收益产品后台操作,了解香港及主要市场交易和结算规则。 3、具备流程优化和自动化经验,能够推动手动任务的数字化转型。 4、出色的沟通协调能力,能在高压环境下高效处理多任务。 5、风控意识强,熟悉监管要求,英语流利。 混合办公形式,深圳remote,定期去香港办公室onsite1-2天,请根据自身情况申请职位。
  • 22k-32k·16薪 经验1-3年 / 本科
    科技金融 / 不需要融资 / 500-2000人
    "职位描述: 1、负责保险业务风险管理,包含但不限于保险产品赔付率分析、逆选择及欺诈风险特征和模式梳理 2、基于大数据与机器学习、数据挖掘等方法构建风险识别模型,支撑保险业务全流程生命周期的风险管理与风险洞察; 3、建设公司内外的数据合作流程和规范,探索、建设及接入保险相关的风险画像及风险模型; 4、深入理解业务,探索业务经营和业务创新的需求洞察,并进行技术预研; 职位要求: 1.本科及以上学历;计算机、数学、统计精算等相关专业背景,至少熟悉一门编程语言(python,SAS,R等); 2.有2年以上金融风控数据分析与建模经验、对金融业务的风险有比较深刻的理解,熟悉大数据建模方法和风控策略体系构建方法; 3.熟悉常用的特征工程、机器学习和数据挖掘相关算法,熟悉spark,hadoop等大数据平台优先; 4.有保险定价、核保、核赔、医疗健康业务的从业经验者优先;有对外大数据合作及联合建模经验者优先; 5.沟通协调能力强,性格开朗客观,积极主动,有较强的业务理解能力、抗压能力及主动性; 6.有一定的产品经理意识、与技术方向的独立思考及规划能力。"
  • 20k-40k·13薪 经验3-5年 / 本科
    旅游|出行 / D轮及以上 / 500-2000人
    岗位职责: 1.独立负责IM、订单售后、智能客服等产品线的相关模块设计,推进方案落地,逐步搭建高智能化高自动化的产品体系; 2.与客户体验团队紧密配合,体察客户服务环节优化点,通过改进流程和产品持续提升运营效率; 3.数据驱动,定义并监控业务指标,进行专项数据分析挖掘,输出持续运营计划并推进; 任职要求: 1.本科及以上学历,3年及以上产品经验,其中不少于2年客服、订单、商品、履约等中后台产品经验; 2.思维逻辑性强,能把复杂业务问题抽象为产品设计,有快学习速和理解业务及产品逻辑的能力; 3.目标导向,积极主动,有强执行力,能通过沟通推进方案落地; 4.需具备英文读写能力,听说能力良好为佳。
  • 16k-28k·17薪 经验10年以上 / 本科
    汽车丨出行 / 未融资 / 2000人以上
    1、负责车联网大数据平台技术选型、数据仓库及数据产品架构规划和设计,制定大数据整体技术栈、业务应用架构和系统技术架构; 2、负责数据驱动研发平台的数据仓库架构设计,包括分层设计、模型规范、元数据管理、ETL调度、数据集成、OLAP等子系统的设计; 3、负责数据仓库建设,模型设计,包括业务模型、物理模型、概念模型、逻辑模型等; 4、通过技术和架构升级,提升数据质量、交付效率、计算性能和系统稳定性 5、负责制定数据采集、数仓建设、数据治理、数据共享技术标准规范,制定和维护数据相关标准规范; 6、探索数据架构领域前沿技术及最佳实践,推动落地并产生业务价值 1.工作经验:8年以上数据开发工作经验,其中3年以上大数据架构设计经验,主导过大型企业数据仓库、数据平台或数据产品的构建经验优先,有车行业经验的优先 2.其他: ①、对大数据生态有深入认识,精通Hadoop、hive、hbase、Kafka、spark、flink、时序数据库生态体系及相关技术框架,具备源码级问题解决和集群优化改造能力者优先 ②、熟悉业界常见的数据平台、产品和工具:阿里云/百度云/华为云,有丰富的分布式计算、大数据处理、数据平台和数据仓库建设经验 ③、具备全面架构思维与组织沟通能力,具备在高压环境下推进工作的能力,善于诊断技术问题,洞察技术风险并驱动问题解决 ④、有车联网大数据系统开发经验者优先,有海量数据性能优化开发经验者优先
  • 电商平台 / C轮 / 2000人以上
    (此岗位需要在南京或者深圳办公) 岗位职责: 1.大数据新技术规划、调研、选型及推广落地。 2.负责大数据组件内核开发优化,推进组件容器化,进行组件二次开发与适配等工作。 3.日常负责大数据框架组件的性能优化,稳定性保障,异常监控及线上问题对接解决。 4.参与平台功能研发,提供业务系统化的解决方案。 任职标准: 1.至少6年以上相关经验,有扎实的计算机编程基础,精通java/scala,熟悉jvm的原理和调优。 2.精通spark/hive/flink组件原理和内核优化,有超大规模数据计算的架构设计和优化经验。 3.掌握大数据行业趋势,熟悉Kubernetes/Docker,有组件容器化相关经验。 4.具备较强的问题解决能力,能独立分析和攻坚复杂的技术难题。 5.有公有云使用经验者优先。 6.有良好的服务意识、沟通能力和团队协作精神。