-
职位职责: 团队介绍:集团信息系统部(Corporate Information System)负责字节跳动信息系统建设。通过构建领先的信息系统,助力公司业务和组织的长期高效经营与发展。与此同时,在安全、隐私、合规层面持续治理,为公司的稳健发展保驾护航。字节跳动的员工分布在全球超过120个城市,业务模式复杂,用户规模大。到现在,集团信息系统部已经覆盖人事、财务、法务、采购、审批、职场等多个领域,隐私安全工作同步开展,AIGC创新孵化也在逐步落地实现。 1、负责公司统一数据引擎大数据方向的架构设计和技术研发工作; 2、负责设计安全高效的大数据架构,推动数仓、BI团队搭建高效的数据流程与服务栈; 3、深入了解字节跳动各业务线的数据业务,发现并总结数据研发、数据质量、数据安全等方面数据问题,合理抽象方案,推动相关业务实施落地。 职位要求: 1、计算机基础知识扎实,具备良好的工程和算法能力; 2、有大数据体系工作经验,对数仓或BI体系的建设流程和分工有清晰的认识; 3、熟悉大数据相关工具/框架经验者优先,如Hadoop、Hive、Spark、Kafka、Flink、Clickhouse等; 4、有分布式、高性能系统研发经验者优先;对系统稳定性建设有实践经验者优先;熟悉多种存储系统者优先; 5、对技术有热情,具备良好的问题分析和解决能力,喜欢思考问题深层次的原因,并善于归纳和总结。
-
岗位职责: 1、大数据应用或产品的需求调研、开发、迭代、测试等; 2、制定数据建模、数据处理等技术规范并落地实施; 3、数据模型设计,在充分理解业务的基础上不断完善和优化已有数据产品的功能,提供各类运营BI报表及决策分析; 4、不断学习和探索新的数据处理方法和工具,保持技术的领先优势。 任职要求: 1、熟悉Oracle/Redis等主流数据数据库; 2、熟悉JAVA/SCALA/C++/python至少一种,有扎实的开发功底; 3、熟悉可视化分析,各种BI算法和产品等; 4、了解大数据解决方案包括Hadoop、Spark、Storm、机器学习、深度学习等大数据解决方案; 5、了解容器、虚拟化、微服务框架等相关技术。 6、具有数据分析/数据产品研发/机器学习等工作经验者优先。
-
团队背景 隶属于6767搜推工程策略组6767,是公司搜索与推荐业务的核心技术支撑团队。团队技术氛围开放,鼓励创新实践,团队成员具备丰富的分布式系统与海量数据处理经验。 岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: 61基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; 61设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; 61通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 61负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; 61基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; 61针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 61**本科及以上学历,计算机相关专业,大数据开发相关经验; 616767熟练掌握并使用6767(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; 61熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; 61具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 61具有良好的沟通能力和组织协调能 6767加分项:6767 61有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; 61理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; 61对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
-
职位职责: 1、广告各类在线业务的离线数据加工与在线数据服务开发与维护; 2、数据服务接口及产品需求研发迭代,代码review、bug修复及日常服务运维; 3、针对海量数据处理和查询需求,设计适应业务变化的合理的多维数据分析系统架构,满足多样性的需求; 4、海量日志清洗加工,并抽象出可以多业务复用的数据模型; 5、指导初级数据开发工程师进行日常开发。 职位要求: 1、熟悉Hadoop架构和工作原理,精通MapReduce编程;精通Hive,有HQL优化经验; 2、有web服务开发经验,具备独立完成模块开发能力,具备大规模分布式服务设计能力和经验; 3、理解基本的设计模式,能将业务需求快速理解成技术需求; 4、熟练使用Mysql,熟练使用ElasticSearch、Druid者优先;熟悉其原理者优先; 5、善于沟通,工作积极主动,责任心强,具备良好的团队协作能力; 6、具备良好的问题分析与解决能力,有较强学习能力和逻辑思维能力。
-
职位职责: 1、综合收入和支出,预测用户生命价值,打造渠道投放和内容采买评估体系; 2、基于用户表现,建立用户衰减模型,打造DAU预测和多产品互导平台; 3、整合业务、财务、人力数据,提供一站式查询平台。 职位要求: 1、强悍的编码、系统设计和troubleshooting能力; 2、熟悉至少一个分布式框架,如Hadoop、Hive、Spark、Storm、Kafka、Flink等; 3、有扎实的数据结构和算法功底,熟悉统计学习、机器学习、深度学习中一项或多项; 4、有数据挖掘、指导业务策略的经验(如渠道投放、内容采买和产品互导等)优先。
-
职位职责: 1、参与面向企业服务的大数据存储服务产品的设计和开发,打造世界先进的标准化产品; 2、持续优化系统稳定性、性能、成本、可扩展性、可维护性、可观测性等; 3、参与构建稳定高效的Devops运维系统,构建高性能的数据管理和数据洞察体系; 4、深入理解业务场景的存储需求,针对性的为不同业务场景提供最合适的存储方案。 职位要求: 1、熟悉Go/Python/Java中至少一种,有全栈开发经验,熟悉各种中间件的使用,对工程质量有很高的自我要求; 2、熟悉分布式存储系统的实现原理,理解典型的分布式存储架构,包括GFS、HDFS、Ceph等,具有相关工作经验有加分; 3、具备较强的问题分析能力和团队合作能力,有较强的自我驱动能力和产品意识,能够端到端驱动方案落地。 具备以下条件者优先: 1、熟悉C/C++; 2、熟悉文件存储、块存储、对象存储中的一种或多种者优先; 3、参与过PB级别数据量分布式存储系统研发,有过大规模数据集群运维、故障排查及调优等实战经验。
-
职位职责: 1、负责商业化实时数据流(百万级QPS)及实时数仓系统的开发与迭代; 2、负责商业化内部数据应用产品的开发与迭代,如BI、埋点平台、实验平台等; 3、负责巨量引擎各平台数据产品的数据链路及查询服务开发与迭代,为客户提供有价值高质量的数据能力。 职位要求: 1、具备良好的沟通能力和自我学习能力,具备较强的责任心和主人翁意识,积极推动问题解决和项目进展; 2、具备扎实的Java语言基础,具有良好的编码和文档习惯,对代码美感的追求孜孜不倦; 3、熟悉并行计算或者分布式计算原理,熟悉高并发、高稳定性、可线性扩展、海量数据的系统特点和技术方案; 4、对性能调优,算法效率和分布式计算的资源管理策略有较深的理解; 5、熟悉ZooKeeper/Kafka/Paimon/Hudi等平台者优先。
-
职位职责: 1、为大规模推荐系统设计和实现合理的数据系统; 2、生产系统的Trouble-shooting,设计和实现必要的机制和工具保障生产系统整体运行的稳定性; 3、打造业界领先的流式计算框架等分布式系统,为海量数据和大规模业务系统提供可靠的基础设施。 职位要求: 1、对大数据系统有深入的了解,在生产环境有TB级别Flink实时计算系统开发经验,深入掌握Flink DataStream、FlinkSQL、Flink Checkpoint、Flink State等模块,有Flink源码阅读经验优先; 2、熟悉常见消息队列原理和应用调优,有Kafka、Plusar、RocketMQ等项目源码阅读经验优先; 3、熟悉Java、C++、Scala、Python等编程语言,有出色的编码和Trouble-shooting能力; 4、乐于挑战没有明显答案的问题,对新技术有强烈的学习热情,有PB级别数据处理经验加分; 5、有数据湖开发经验,熟悉Hudi、Iceberg、DeltaLake等至少一项数据湖技术,有源码阅读经验优先; 6、熟悉其他大数据系统经验者优先,YARN、K8S、Spark、SparkSQL、Kudu等;有存储系统经验加分,HBase、Casscandra、RocksDB等。
-
职位职责: 日常实习:面向全体在校生,为符合岗位要求的同学提供为期3个月及以上的项目实践机会。 团队介绍:我们为抖音电商、直播、教育、健康、内容付费等场景服务,依托字节跳动的科技能力和产品,为用户提供更好的支付、消费金融、保险等金融服务体验。科技创新,普惠大众。 1. 理解业务数据需求,负责数据探查、开发与分析、设计和构建对应业务的数据集市; 2. 负责ETL流程的开发和优化工作,解决业务数据分析、数据报表、数据异常相关的技术问题; 3. 负责主题数据质量问题的分析、跟进、解决。 职位要求: 1. 熟悉hadoop、hive、spark等常用大数据组件,有大数据处理经验者优先考虑; 2. 灵活运用SQL实现海量数据ETL加工处理 ,有较好的SQL性能调优经验; 3. 有良好的逻辑思维与沟通能力,具有高度的责任感,工作认真、踏实; 4. 有良好的沟通表达能力和跨团队协作能力优先; 5. 每周实习4天以上,实习周期不短于3个月。
-
职位职责: 1、负责字节商业化数据仓库&集市的建设与维护,包括但不限于数据建模、数据开发、数据质量等 2、负责字节商业化业务数据BP,包括需求对接,抽象需求沉淀数据建模,结合产品矩阵灵活的把控技术方案,高质量交付需求 3、参与商业化数据治理工作,提升数据稳定性、易用性及数据质量 4、参与商业化大数据平台规划、为商业数据平台整体提供内容建设侧的应建议指导 职位要求: 1、本科以上学历,2年以上互联网业务数据仓库模型设计、开发经验; 2、熟练使用Hadoop及Hive、spark,熟悉HQL调优。具备一定的Java、Python等语言开发能力 3、具有Clickhouse、Druid、presto等OLAP引擎使用经验者优先 4、具有丰富的指标体系设计,指标管理经验优先 5、沟通能力强,业务sense好,良好的团队协作,以解决业务问题为导向,认同技术解决业务问题的价值理念,对处理海量大数据有较强的兴趣度和持续的热情
-
职位职责: 1、负责主机网络vSwitch转发面架构设计,包括网络虚拟化、DPU软硬件结合、云上高性能RDMA网络等技术; 2、负责业界主机网络vSwitch方向前沿技术趋势洞察分析,完成云网络创新技术研究和学术合作,制定技术发展路线,并协同产品推进新技术落地。 职位要求: 1、有VPC高性能网络(如RDMA、NCCL、MPI等)开发经验,了解主流的LLM训练推理框架以及GPU大规模RDMA组网方案,对LLM业务的网络需求有深入理解和实践经验; 2、熟悉TCP/IP等常用网络协议,了解GRE/VxLAN/BGP/OpenFlow等协议;了解Linux内核常见的网络相关组件,Linux Bridge/Open vSwitch/IPTABLES/TC等; 3、有技术专研精神,有良好的团队合作能力,善于沟通,执行和落地能力强; 4、具备OVS、DPDK、DPU网络卸载等项目经验,对云网络VPC、LB、NAT、NFV、边缘网络等有深入理解。
-
职位职责: 1、负责主机网络vSwitch转发面架构设计,包括网络虚拟化、DPU软硬件结合、云上高性能RDMA网络等技术; 2、负责业界主机网络vSwitch方向前沿技术趋势洞察分析,完成云网络创新技术研究和学术合作,制定技术发展路线,并协同产品推进新技术落地。 职位要求: 1、有VPC高性能网络(如RDMA、NCCL、MPI等)开发经验,了解主流的LLM训练推理框架以及GPU大规模RDMA组网方案,对LLM业务的网络需求有深入理解和实践经验; 2、熟悉TCP/IP等常用网络协议,了解GRE/VxLAN/BGP/OpenFlow等协议;了解Linux内核常见的网络相关组件,Linux bridge/Open vSwitch/IPTABLES/TC等; 3、有技术专研精神,有良好的团队合作能力,善于沟通,执行和落地能力强; 4、具备OVS、DPDK、DPU网络卸载等项目经验,对云网络VPC、LB、NAT、NFV、边缘网络等有深入理解。
-
岗位职责: 1.负责大数据相关项目的架构设计; 2.负责数据仓库的建设、模型设计及研发工作; 3.负责大数据离线及实时程序的设计.研发及调优工作; 4.负责完成数据治理工作落地要求; 5.负责大数据相关新技术的研究及本地化应用。" 任职要求: 1.具有5年以上大数据平台和相关产品设计研发经验; 2.精通Hadoop、HDFS分布式存储系统原理; 3.精通Hive,精通HQL、SQL,并具有一定的调优能力; 4.熟悉Kafka/Kylin/Elasticsearch/Flume等主流工具; 5.精通数据仓库的体系架构理论,具有数据仓库模型设计和数据治理实战经验; 6.了解数据治理相关领域,能够牵头数据标准制定。"
-
**职位名称:数据开发专家** **岗位职责:** 1. 负责公司数据平台的架构设计、开发与优化,提升数据平台的稳定性、性能和扩展性。 2. 参与数据仓库、数据湖、数据集成等数据架构的设计与实施,满足公司业务发展需求。 3. 负责数据开发流程的优化,提高数据开发效率,降低开发成本。 4. 与业务团队紧密合作,深入了解业务需求,为业务提供高效、准确的数据支持。 5. 负责数据质量监控与改进,确保数据准确性、完整性和一致性。 **任职要求:** 1. 本科及以上学历,计算机相关专业,5-10年及以上数据开发相关工作经验。 2. 具备优秀的数据架构能力,熟悉主流数据仓库、数据湖、数据集成技术,如Hadoop、Spark、Flink、Kafka等。 3. 熟悉至少一种数据库技术,如MySQL、Oracle、PostgreSQL、MongoDB等,具备良好的SQL编写能力。 4. 具备良好的编程基础,熟悉Java、Python、Scala等编程语言。 5. 具备出色的沟通能力,能够与业务团队、技术团队高效协作,确保项目顺利进行。 6. 具备以下大厂经验者优先: - 腾讯、阿里巴巴、百度、京东等知名互联网公司; - 国内外知名金融机构; - 世界500强企业。 7. 具备以下技能者优先: - 熟悉数据治理、数据安全、数据合规等相关知识; - 具备大数据项目实施经验,熟悉数据仓库建模方法; **工作地点:**北京 **薪资待遇:**40K-80K 我们期待您的加入,共同推动公司数据平台的发展,为业务创造更多价值!
-
岗位描述: 1、主导速卖通国际化电商业务的监管数据体系建设,通过数据建模和数据挖掘能力,为业务迅速发展保驾护航; 2、通过抽象速卖通国际技术平台的业务域,建立灵活、易用、高效、标准的国际数据中间层,为数据服务和产品提供稳定、准确的数据; 3、能从业务视角,深刻理解数据,洞察机会与风险。 岗位要求: 1、本科以上学历,3年以上数据相关工作经验;具有良好的英语听说读写能力,可进行基本的英语对话,有海外经验尤佳; 2、较为丰富的数据仓库及数据平台的架构经验,精通数据仓库建模及ETL设计开发;有较为系统的海量数据性能处理经验; 3、具备一定的JAVA或Python语言的开发能力,具备机器学习算法能力尤佳; 4、具有一定项目管理能力,随机应变能力强; 5、了解或者参与过相关国际监管数据开发的优先; 6、欢迎聪明、乐观、皮实、自省的您!


