-
职位职责: 1、综合收入和支出,预测用户生命价值,打造渠道投放和内容采买评估体系; 2、基于用户表现,建立用户衰减模型,打造DAU预测和多产品互导平台; 3、整合业务、财务、人力数据,提供一站式查询平台。 职位要求: 1、强悍的编码、系统设计和troubleshooting能力; 2、熟悉至少一个分布式框架,如Hadoop、Hive、Spark、Storm、Kafka、Flink等; 3、有扎实的数据结构和算法功底,熟悉统计学习、机器学习、深度学习中一项或多项; 4、有数据挖掘、指导业务策略的经验(如渠道投放、内容采买和产品互导等)优先。
-
职位职责: ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:我们为抖音电商、直播、教育、健康、内容付费等场景服务,依托字节跳动的科技能力和产品,为用户提供更好的支付、消费金融、保险等金融服务体验。科技创新,普惠大众。 1、理解业务数据需求,负责数据探查、开发与分析、设计和构建对应业务的数据集市; 2、负责ETL流程的开发和优化工作,解决业务数据分析、数据报表、数据异常相关的技术问题; 3、负责主题数据质量问题的分析、跟进、解决。 职位要求: 1、2026届本科及以上学历在读,计算机/数学/统计学等相关专业优先; 2、熟悉Hadoop、Hive、Spark等常用大数据组件,有大数据处理经验者优先考虑; 3、灵活运用SQL实现海量数据ETL加工处理 ,有较好的SQL性能调优经验; 4、有良好的逻辑思维与沟通能力,具有高度的责任感,工作认真、踏实; 5、有良好的沟通表达能力和跨团队协作能力优先。
-
职位职责: ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:字节数据BP团队以数据高效赋能业务为使命,在字节内部深入各业务线,以数据建设为基础,业务目标为导向,提供专业,稳定,高效的数据服务和架构方案。 1、参与字节跳动参与短视频、电商、直播等业务实时数据仓库建设工作; 2、面向PB级超大规模数据问题,每天处理千亿增量的用户行为数据; 3、为大数据的全生命周期提供服务,覆盖数据产生,传输,建模,统计分析,实验评估,可视化的全流程; 4、构建设计良好的数据流、数据仓库、调度系统、查询引擎,数据服务、分析系统、流程规范,数据工具/产品,降低数据的使用门槛,保证系统稳定高效运行,以实现数据的最大价值。 职位要求: 1、2026届本科及以上学历在读,具备大数据开发相关技能,计算机等相关专业优先; 2、熟悉Java/Scala语言,包括JVM、类加载、并发等;有较好的SQL基础; 3、了解Spring等后端相关框架,了解Flink、Spark、Kafka、Clickhouse等相关大数据引擎之一; 4、善于沟通,对数据敏感,责任心强、积极主动; 5、每周可以实习4天以上,连续实习3个月以上。
-
职位职责: ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:负责公司数个产品的推荐引擎、平台开发和大数据等工作。我们的工作涉及海量数据处理和对产品数据复杂深入的分析。在这里,你可以深入钻研大数据产品的改进和优化,探索前沿的技术;可以通过对产品的深度理解和思考,将数据应用到业务中去;也可以通过对产品和内容生态的深度分析,影响产品未来的发展方向。 1、参与字节跳动抖音/直播/电商/剪映等业务离线和实时数据仓库建设工作; 2、面向PB级超大规模数据问题,每天处理千亿增量的用户行为数据; 3、为大数据的全生命周期提供服务,覆盖数据产生,传输,建模,统计分析,实验评估,可视化的全流程; 4、构建设计良好的数据流、数据仓库、调度系统、查询引擎,数据服务、分析系统、流程规范,数据工具/产品,降低数据的使用门槛,保证系统稳定高效运行,以实现数据的最大价值。 职位要求: 1、2026届本科及以上学历在读,计算机等相关专业优先; 2、具备大数据开发相关技能; 3、熟悉数据仓库实施方法论、了解数据仓库体系; 4、会使用SQL,掌握Java、Python、R、Scala、C/C++中任意一门编程语言; 5、善于沟通,对数据敏感,责任心强、积极主动; 6、每周可以实习4天以上,连续实习3个月以上。
-
职位职责: ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:负责公司数个产品的推荐引擎、平台开发和大数据等工作。我们的工作涉及海量数据处理和对产品数据复杂深入的分析。在这里,你可以深入钻研大数据产品的改进和优化,探索前沿的技术;可以通过对产品的深度理解和思考,将数据应用到业务中去;也可以通过对产品和内容生态的深度分析,影响产品未来的发展方向。 1、参与字节跳动抖音、直播、番茄小说等业务离线和实时数据仓库建设工作; 2、面向PB级超大规模数据问题,每天处理千亿增量的用户行为数据; 3、为大数据的全生命周期提供服务,覆盖数据产生,传输,建模,统计分析,实验评估,可视化的全流程; 4、构建设计良好的数据流、数据仓库、调度系统、查询引擎,数据服务、分析系统、流程规范,数据工具/产品,降低数据的使用门槛,保证系统稳定高效运行,以实现数据的最大价值。 职位要求: 1、2026届本科及以上学历在读,计算机、软件工程等相关专业优先; 2、熟悉数据仓库实施方法论、了解数据仓库体系; 3、会使用SQL,掌握Java、Python、R、Scala、C/C++中任意一门编程语言; 4、有大数据集、分布式计算工具(Map/Reduce,Hadoop,Hive等)工作经验优先; 5、思路清晰,善于思考,有很强的数据分析能力,能独立分析问题并推动解决问题; 6、每周可以实习5天以上,连续实习3个月以上。
-
职位职责: 1、保障全公司包括抖音、国际化短视频、广告等业务的数据稳定性,提升数据平台服务产品质量,保障业务的持续可用; 2、基于运维经验、工具、平台对线上事故快速响应提升处理效率,同时优化运维体系,推动提升服务可靠性、可扩展性,保障系统SLA,同时推进运维自动化提效; 3、通过持续的全方位运营,包括运维规范及最佳实践、监控及可用性指标、历史事故等,为数据高可用架构设计和选型提供指导,同时能够系统性排查架构风险隐患,推进改进项落地; 4、参与大数据运维平台的研发、自动化建设与持续迭代,引导产品的运维模式向数字化,智能化方向发展演进。 职位要求: 1、计算机相关专业,本科及以上学历; 2、3年及以上SRE运维经验,熟悉运维体系建设与稳定性保障; 3、熟悉Linux、网络等系统运维技能,具备运维问题分析、应急解决以及性能调优等能力; 4、熟悉至少一门编程语言,包括但不限于:Shell、Python、Java、Scala、PHP、Go等; 5、具备良好的沟通表达、团队协作以及自驱能力,促进跨团队的合作; 6、有大数据稳定性问题排查经验,具备清晰排查思路,具备快速定位问题能力加分。
-
职位职责: 1、负责国际化电商业务的大数据项目整体架构规划; 2、负责指导工程师进行技术验证与实现,核心技术问题的攻关,解决项目开发过程中的技术难题; 3、负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 2、有超PB级别大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。
-
职位职责: 1、负责字节商业化数据仓库&集市的建设与维护,包括但不限于数据建模、数据开发、数据质量等 2、负责字节商业化业务数据BP,包括需求对接,抽象需求沉淀数据建模,结合产品矩阵灵活的把控技术方案,高质量交付需求 3、参与商业化数据治理工作,提升数据稳定性、易用性及数据质量 4、参与商业化大数据平台规划、为商业数据平台整体提供内容建设侧的应建议指导 职位要求: 1、本科以上学历,2年以上互联网业务数据仓库模型设计、开发经验; 2、熟练使用Hadoop及Hive、spark,熟悉HQL调优。具备一定的Java、Python等语言开发能力 3、具有Clickhouse、Druid、presto等OLAP引擎使用经验者优先 4、具有丰富的指标体系设计,指标管理经验优先 5、沟通能力强,业务sense好,良好的团队协作,以解决业务问题为导向,认同技术解决业务问题的价值理念,对处理海量大数据有较强的兴趣度和持续的热情
-
职位描述 1、加入高德地图的商业智能BI团队,深入理解高德核心业务,为决策层评估业务价值、进行业务决策等提供数据支撑; 2、数据研发:参与高德地图打车、搜索等核心业务的数据仓库、数据产品建设,参与数据治理并沉淀业务数据资产; 3、数据挖掘:基于高德地图的海量日志,通过算法模型挖掘有价值的业务信息,指导高德地图的产品迭代。 职位要求 1、计算机、数学、统计或者相关专业本科以上学历; 2、熟悉Java/Python,精通SQL,具有5年以上数据研发经验; 3、熟悉HADOOP大数据平台架构:HDFS/HBase/Hive/MapReduce,熟练掌握MapReduce程序开发,了解实时计算,有使用过Flink、Spark Streaming等开源实时流引擎的优先; 4、对数据仓库系统架构具有良好的认知,理解数据分层、数据倾斜、错峰调度等理念,并具有相关实战经验。
-
职位职责: 团队介绍:字节跳动推荐架构团队,负责字节跳动超10亿用户产品推荐系统架构的设计和开发,保障系统稳定和高可用;负责在线服务、离线数据流性能优化,解决系统瓶颈,降低成本开销;抽象系统通用组件和服务,建设推荐中台、数据中台,支撑新产品快速孵化以及为ToB赋能;实现灵活可扩展的高性能存储系统和计算模型,打通离在线数据流,构建统一的数据中台,支持推荐/搜索/广告。 1、为大规模推荐系统设计和实现合理的离线/实时数据架构,打造业界领先的离在线存储、批式流式计算框架等分布式系统,为海量数据和大规模业务系统提供可靠的平台化基础设施; 2、深入推荐系统,探索数据架构如何为业务赋能,提升线上效果; 3、尝试打破现有边界,探索核心框架的演进、新技术的应用、推荐大模型的落地; 4、生产系统的TROUBLE-SHOOTING和成本优化,设计和实现必要的机制和工具保障生产系统整体运行的稳定性与效率。 职位要求: 1、扎实的编程能力,熟练一种或几种编程语言,例如Java/C++/Scala/Python; 2、熟悉大规模流批数据分布式计算与分布式存储的理论与架构设计; 3、有推荐、搜索、广告领域相关工作经验; 4、乐于挑战没有明显答案的问题,对新技术有强烈的学习热情,有较强技术视野。 【加分项】 1、对多个大数据数据处理领域的开源框架有较深入的理解,包括但不限于Flink/Spark/Hadoop/Hive/Kafka/Pulsar/Hbase/RocksDB/Hudi/Iceberge/Clickhouse; 2、有PB级以上数据流批处理经验; 3、熟悉搜广推离线链路,深入理解样本、特征、索引等在系统中的作用; 4、对机器学习架构或搜广推领域模型有一定了解。
-
工作内容: 1、根据业务需求进行数据业务开发,分析后台已有数据,理解数据维度和含义,并根据计算公式进行数据应用开发及分析。 2、参与数据治理工作,根据目前已有数据,解析数据依赖,编排数据拓扑结构,数据元数据结构优化;提升数据易用性及数据质量,统一数据口径,制定数据标准化规则。 3、对数据平台和执行引擎遇到问题时有一定的解决能力,负责 ETL 流程的优化及解决 ETL 相关技术问题,对数据稳定性和性能有一定的优化能力。 4、支撑采购供应链业务域的搜索、用户画像、推荐系统等业务的数据需求,确保输出时效性与准确性。 任职要求: 1、本科及以上学历,计算机相关专业,3年以上工作经验; 2、精通Python语言,能够使用python写数据分析算法; 3、精通FineBI、FineReport的开发、维护技术(有帆软高级工程师认证的优先)能够独立完成BI项目的开发; 4、精通数仓及BI系统业务建设流程; 5、熟练掌握SQL,能够熟练编写复杂的查询语句、存储过程、函数等,对常见关系型数据库(如Oracle、MySQL等)的性能优化有一定经验; 6、有良好的沟通和业务流程描述能力,书面表达能力,高度自驱。
-
职位职责: 1、负责字节跳动网络成本和质量数据产出,进行海量后台数据计算,对数据准确性和实时性负责; 2、负责构建字节跳动网络产品成本和质量的模型,负责模型的建立、开发、更新、维护; 3、负责字节跳动网络产品成本和质量内部管理动作的自动化、平台化,不断提升业务的效率。 职位要求: 1、本科及以上学历,网络、计算机等相关专业优先; 2、有一定的网络方面的技术背景; 3、具备良好的后台开发能力,良好的抽象思维和逻辑思维能力; 4、熟悉常用的数据分析方法,较强的数据敏感性,细心细致; 5、具有较强的项目管理与跨团队沟通能力。
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
职位职责: 1、负责内容质量业务相关数据产品的技术架构设计和实现; 2、负责内容质量业务相关数据产品的功能迭代和性能优化,提高效率,优化流程; 3、背靠数据中台完善的数据体系,依托于集团平台整体技术架构完成对内容质量业务数据智能化产品的构建。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力,有中长期的产品/技术视野; 2、熟悉Java/Go技术栈,了解微服务框架、容器、服务治理等相关技术; 3、有大数据开发、LLM开发经验者优先、了解查询引擎(如Clickhouse、Redis、Doris、ES等),对实时和离线数据仓库有一定的认知能力; 4、具备优秀的技术与业务结合能力。
-
工作职责: 1、从事人工智能领域研究工作,包括不限于行业应用的跟踪分析与研判工作; 2、开展公司人工智能技术的应用研究、融合规划及材料撰写工作; 3、负责智能项目管理工作,进行智能产品规划与设计工作; 4、完成其他相关重点工作。 任职资格: 1、硕士研究生或以上学历; 2、具有较强文字功底及逻辑思维能力;具有优秀的表达、沟通与协调能力; 3、有1年以上咨询研究工作经验,有咨询公司、第三方评测机构工作经验者优先; 4、喜欢跟踪和研究分析人工智能与保险领域最新动态,对人工智能、金融保险行业有一定了解。


