-
职位职责: 1、保障全公司包括抖音、国际化短视频、广告等业务的数据稳定性,提升数据平台服务产品质量,保障业务的持续可用; 2、基于运维经验、工具、平台对线上事故快速响应提升处理效率,同时优化运维体系,推动提升服务可靠性、可扩展性,保障系统SLA,同时推进运维自动化提效; 3、通过持续的全方位运营,包括运维规范及最佳实践、监控及可用性指标、历史事故等,为数据高可用架构设计和选型提供指导,同时能够系统性排查架构风险隐患,推进改进项落地; 4、参与大数据运维平台的研发、自动化建设与持续迭代,引导产品的运维模式向数字化,智能化方向发展演进。 职位要求: 1、计算机相关专业,本科及以上学历; 2、3年及以上SRE运维经验,熟悉运维体系建设与稳定性保障; 3、熟悉Linux、网络等系统运维技能,具备运维问题分析、应急解决以及性能调优等能力; 4、熟悉至少一门编程语言,包括但不限于:Shell、Python、Java、Scala、PHP、Go等; 5、具备良好的沟通表达、团队协作以及自驱能力,促进跨团队的合作; 6、有大数据稳定性问题排查经验,具备清晰排查思路,具备快速定位问题能力加分。
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
职位职责: 1、深入业务场景,和产品、运营配合,优化产品设计和营销方案; 2、研究数据挖掘或统计学习领域的前沿技术,构建和优化用户画像; 3、针对具体业务目标建模优化,包括但不限于广告投放、人群分层、信用评分、成本优化等; 4、深度探索财经用户增长的数据、策略、算法,提升用户增长、转化的效率; 5、负责面向抖音支付、抖音消费金融、抖音保险、抖音钱包等业务,通过营销定价及广告投放,进行用户拉新促活。 职位要求: 1、本科及以上学历,计算机、数学、机器学习和数据挖掘等相关专业,有广告投放优化、智能营销、个性化推荐、搜索排序相关业务经验者优先; 2、LLM模型:对大模型在推荐、广告、增长方向的落地有经验,对Transformer、GPT、Attention等技术有了解; 3、熟悉常见的机器学习框架,如XGBoost/TensorFlow/PyTorch模型的训练和部署,对模型量化,剪枝,蒸馏,GPU调优及分布式训练有经验者优先; 4、熟悉常见的大数据计算框架,如Spark/MR/HiveSQL,对数仓分层理论有一定认识,优秀的逻辑思维能力和数据分析能力,有良好的算法、产品意识; 5、有金融行业背景、用户增长相关项目经历者优先,有顶会论文,技术发明专利,及ACM/ICPC参赛经历者优先; 6、熟悉以下任一方向的算法技术: 1)用户增长:了解Uplift建模评估,因果推断,整数规划/线性规划等运筹算法; 2)广告投放:了解CTCVR建模评估,Pacing在线调参控制,强化学习定价算法; 3)搜索推荐:了解DeepFM,MMoE,ESSM等深度学习建模评估,了解召回/粗排/精排等流程。
-
职位职责: 1、负责字节跳动相关产品线(抖音、头条等)风控方向的数据产品开发; 2、负责数据质量,数据安全,元数据的监控,整合; 3、面向超大规模数据问题,每天处理千亿增量的用户数据; 4、设计和实现高并发关键数据服务,用数据衡量产品并驱动产品演进。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力; 2、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 3、熟悉Kafka/Flink/HBase/Doris 等实时计算引擎的开发和使用优先; 4、有大规模实时数据平台落地经验者优先。
-
岗位职责 1、负责客路下一代大数据湖平台的规划、建设与持续优化,打造高效稳定的数据处理与分析能力; 2、负责数据基础架构的设计与研发,提供高性能的离线与实时计算能力,支撑公司在海量数据分析、机器学习等场景下的业务需求,实现数据平台价值的持续交付; 3、牵头大数据平台研发团队的建设与管理,制定并落地大数据平台相关技术标准与规范; 4、打造数据服务与预警机制,赋能业务与运营团队的数据化运营; 5、建设埋点,AB实验,用户圈选,CDP等数据应用,提供离线和实时的数据服务; 6、推动数据治理与数据资产管理平台的建设与完善,提升数据质量与资产价值。 任职要求 1、本科及以上学历,计算机、数学、统计等相关专业优先;具备5-8年数据平台开发经验,有一定团队管理经验者优先; 2、扎实的大数据平台架构设计能力,深入理解大数据生态及关键组件,熟悉以下技术: 3、Doris、Spark、Hadoop 等核心组件; 4、Flink、Iceberg等实时与湖仓一体技术; 5、有AWS / GCP / 阿里云平台经验者优先; 6、对埋点、广告投放、用户圈选系统等有深刻理解与实战经验; 7、具备较强的业务理解力,能够结合业务场景构建数据产品与解决方案,具备数据化运营经验优先; 8、具备优秀的跨团队沟通与协作能力,善于总结与规范化,推动多部门协作与项目落地,责任心强,具备良好的团队合作意识。
-
岗位职责 1. 负责公司数据管理平台的后台功能设计与开发,保障系统的高可用性与稳定性; 2. 参与公司智能分析平台的研发,聚焦于海量数据场景下的查询性能优化与高并发处理; 3. 积极参与开发工作流优化迭代,提升开发效率; 4. 积极参与组内知识库建设,促进知识共享及经验沉淀; 职位要求 1. 本科及以上学历,计算机相关专业优先,具备 3 年以上后台开发工作经验; 2. 编码能力扎实,精通 Java/Python/Go 其中一门开发语言,能够熟练编写高质量代码,且熟悉 SQL 数据访问与优化; 3. 熟悉主流开源应用框架,如 Spring、Spring Boot、MyBatis、Redis、RPC 等,并能灵活应用于实际项目中; 4. 有深入阅读并理解1-2个开源框架源码的经验,具备 JVM、SQL 等底层性能调优能力,或具备 DDD 建模经验者优先; 5. 对计算机技术有热诚,对解决具有挑战性的问题充满激情 加分项目 1. 有 BI 或类似数据系统使用或开发经验 2. 有 AWS、ALIYUN 等云厂商使用经验 3. 了解 Kubernetes、Docker 等云原生技术
-
岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
-
职位职责: 日常实习:面向全体在校生,为符合岗位要求的同学提供为期3个月及以上的项目实践机会。 团队介绍:数据平台是字节跳动数据中台部门,横向支持公司多业务线(包括抖音、电商、直播和生活服务等)提供一站式大数据解决方案,涵盖数据的生产、清洗、传输、建模、分析等全流程链路,提供数据开发、实验评估、画像标签、增强分析等多元场景解决能力。同时,数据平台部门也在致力于把字节跳动积累沉淀的数据中台解决方案做商业化输出,让更多行业能够应用我们的产品能力构建自己的数据中台。在火山引擎上,我们提供了营销增长套件,数据中台等相关产品解决方案,为泛互联网、金融、汽车、新零售等行业提供了行业解决方案。 1、协助项目管理的流程运营工作,包括项目计划制定、资源协调、变更管理、风险识别等; 2、通过流程数据分析及用户调研,识别流程及业务问题,推动流程优化与迭代; 3、协助重要专项的管理、跟进、和流程优化; 4、支持其他项目管理相关工作,如知识库管理、培训运营等。 职位要求: 1、本科及以上学历在读,计算机、软件工程等相关专业优先; 2、具备基本的数据分析能力,能够通过数据或流程发现问题,并推动解决; 3、具备良好的团队协作能力,跨团队沟通协同能力和学习能力; 4、主动性强,有责任感,抗压能力强; 5、有项目管理、运营相关经验者优先。
-
职位职责: ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:字节数据BP团队以数据高效赋能业务为使命,在字节内部深入各业务线,以数据建设为基础,业务目标为导向,提供专业,稳定,高效的数据服务和架构方案。 1、参与字节跳动抖音、直播、番茄小说等业务离线和实时数据仓库建设工作; 2、面向PB级超大规模数据问题,每天处理千亿增量的用户行为数据; 3、为大数据的全生命周期提供服务,覆盖数据产生,传输,建模,统计分析,实验评估,可视化的全流程; 4、构建设计良好的数据流、数据仓库、调度系统、查询引擎,数据服务、分析系统、流程规范,数据工具/产品,降低数据的使用门槛,保证系统稳定高效运行,以实现数据的最大价值。 职位要求: 1、2026届本科及以上学历在读,计算机、软件工程等相关专业优先; 2、熟悉数据仓库实施方法论、了解数据仓库体系; 3、会使用SQL,掌握Java、Python、R、Scala、C/C++中任意一门编程语言; 4、有大数据集、分布式计算工具(Map/Reduce,Hadoop,Hive等)工作经验优先; 5、思路清晰,善于思考,有很强的数据分析能力,能独立分析问题并推动解决问题; 6、每周可以实习5天以上,连续实习3个月以上。
-
职位职责: ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:字节数据BP团队以数据高效赋能业务为使命,在字节内部深入各业务线,以数据建设为基础,业务目标为导向,提供专业,稳定,高效的数据服务和架构方案。 1、参与字节跳动抖音、直播、番茄小说等业务离线和实时数据仓库建设工作; 2、面向PB级超大规模数据问题,每天处理千亿增量的用户行为数据; 3、为大数据的全生命周期提供服务,覆盖数据产生,传输,建模,统计分析,实验评估,可视化的全流程; 4、构建设计良好的数据流、数据仓库、调度系统、查询引擎,数据服务、分析系统、流程规范,数据工具/产品,降低数据的使用门槛,保证系统稳定高效运行,以实现数据的最大价值。 职位要求: 1、2026届本科及以上学历在读,计算机、软件工程等相关专业优先; 2、熟悉数据仓库实施方法论、了解数据仓库体系; 3、会使用SQL,掌握Java、Python、R、Scala、C/C++中任意一门编程语言; 4、有大数据集、分布式计算工具(Map/Reduce,Hadoop,Hive等)工作经验优先; 5、思路清晰,善于思考,有很强的数据分析能力,能独立分析问题并推动解决问题; 6、每周可以实习5天以上,连续实习3个月以上。
-
职位职责: ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:字节数据BP团队以数据高效赋能业务为使命,在字节内部深入各业务线,以数据建设为基础,业务目标为导向,提供专业,稳定,高效的数据服务和架构方案。 1、参与字节跳动抖音电商、生活服务等业务离线和实时数据仓库建设工作; 2、面向PB级超大规模数据问题,每天处理千亿增量的用户行为数据; 3、为大数据的全生命周期提供服务,覆盖数据产生,传输,建模,统计分析,实验评估,可视化的全流程; 4、构建设计良好的数据流、数据仓库、调度系统、查询引擎,数据服务、分析系统、流程规范,数据工具/产品,降低数据的使用门槛,保证系统稳定高效运行,以实现数据的最大价值。 职位要求: 1、2026届本科及以上学历在读,计算机等相关专业优先; 2、熟悉数据仓库实施方法论、了解数据仓库体系;具备大数据开发相关技能; 3、会使用SQL,掌握Java、Python、R、Scala、C/C++中任意一门编程语言; 4、善于沟通,对数据敏感,责任心强、积极主动; 5、每周可以实习4天以上,连续实习3个月以上。
-
职位职责: ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:字节数据BP团队以数据高效赋能业务为使命,在字节内部深入各业务线,以数据建设为基础,业务目标为导向,提供专业,稳定,高效的数据服务和架构方案。 1、参与字节跳动参与短视频、电商、直播等业务实时数据仓库建设工作; 2、面向PB级超大规模数据问题,每天处理千亿增量的用户行为数据; 3、为大数据的全生命周期提供服务,覆盖数据产生,传输,建模,统计分析,实验评估,可视化的全流程; 4、构建设计良好的数据流、数据仓库、调度系统、查询引擎,数据服务、分析系统、流程规范,数据工具/产品,降低数据的使用门槛,保证系统稳定高效运行,以实现数据的最大价值。 职位要求: 1、2026届本科及以上学历在读,具备大数据开发相关技能,计算机等相关专业优先; 2、熟悉Java/Scala语言,包括JVM、类加载、并发等;有较好的SQL基础; 3、了解Spring等后端相关框架,了解Flink、Spark、Kafka、Clickhouse等相关大数据引擎之一; 4、善于沟通,对数据敏感,责任心强、积极主动; 5、每周可以实习4天以上,连续实习3个月以上。
-
职位职责: 1、设计与开发智能测试与诊断工具:构建下一代测试平台,利用静态代码分析、动态插桩、故障注入等技术,对大数据核心组件进行深度质量探测; 2、推进AI在质量保障领域的落地:探索AI/ML技术在大数据平台质量保障与稳定性的应用场景,如代码风险挖掘、智能异常检测、故障根因定位等; 3、参与大数据平台稳定性架构建设:从测试和可观测性视角,参与平台架构评审,设计和开发高可用、可测试的框架与规范; 4、建立平台级的质量洞察能力:通过代码覆盖率、性能基准测试、混沌工程等手段,构建平台质量度量体系,为研发团队提供可视化的质量数据和改进方向。 职位要求: 1、计算机相关专业本科及以上学历,3年以上测试开发或后端开发经验,具备扎实的计算机基础和编码能力; 2、精通至少一门主流编程语言(如:Java/Python/Go),具备软件设计能力,能独立完成工具或框架的开发与迭代; 3、对软件测试理论和质量保障体系有一定理解,熟悉自动化测试、性能测试、混沌工程等; 4、具备良好的项目推动能力、沟通能力和团队合作精神,能够独立解决问题并承担压力; 5、有AI或机器学习相关项目经验优先;有代码分析经验或了解工具或库优先(例如:AST分析、代码插桩);有大数据平台开发测试运维经验优先;或具备优秀英语能力者优先。
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
负责建设金融级的蚂蚁数据建模研发平台,面向全蚂蚁技数同学提供一站式的实时/离线数据建模、数据研发、数据运维、质量风险管控、资产元数据服务等能力 1.拥有扎实的计算机和Java语言基础,熟悉主流的Java框架,了解JVM的基本实现原理。 2.对大数据生态熟悉,了解Haoop、HIVE、Spark、Flink、KUDU、HDFS、ClickHouse等主流大数据计算/存储引擎 3.有大数据研发过程中的数据集成、数据研发、调度系统、质量监控等环节的工程平台相关研发经验 4.有SQL解析、SQL执行优化经验


