-
职位职责: 1、负责字节跳动网络成本和质量数据产出,进行海量后台数据计算,对数据准确性和实时性负责; 2、负责构建字节跳动网络产品成本和质量的模型,负责模型的建立、开发、更新、维护; 3、负责字节跳动网络产品成本和质量内部管理动作的自动化、平台化,不断提升业务的效率。 职位要求: 1、本科及以上学历,网络、计算机等相关专业优先; 2、有一定的网络方面的技术背景; 3、具备良好的后台开发能力,良好的抽象思维和逻辑思维能力; 4、熟悉常用的数据分析方法,较强的数据敏感性,细心细致; 5、具有较强的项目管理与跨团队沟通能力。
-
工作内容: 1、根据业务需求进行数据业务开发,分析后台已有数据,理解数据维度和含义,并根据计算公式进行数据应用开发及分析。 2、参与数据治理工作,根据目前已有数据,解析数据依赖,编排数据拓扑结构,数据元数据结构优化;提升数据易用性及数据质量,统一数据口径,制定数据标准化规则。 3、对数据平台和执行引擎遇到问题时有一定的解决能力,负责 ETL 流程的优化及解决 ETL 相关技术问题,对数据稳定性和性能有一定的优化能力。 4、支撑采购供应链业务域的搜索、用户画像、推荐系统等业务的数据需求,确保输出时效性与准确性。 任职要求: 1、本科及以上学历,计算机相关专业,3年以上工作经验; 2、精通Python语言,能够使用python写数据分析算法; 3、精通FineBI、FineReport的开发、维护技术(有帆软高级工程师认证的优先)能够独立完成BI项目的开发; 4、精通数仓及BI系统业务建设流程; 5、熟练掌握SQL,能够熟练编写复杂的查询语句、存储过程、函数等,对常见关系型数据库(如Oracle、MySQL等)的性能优化有一定经验; 6、有良好的沟通和业务流程描述能力,书面表达能力,高度自驱。
-
1.5年年及以上开发经验,计算机、数学等相关专业; 2.具有数学基础,熟悉python编程,有神经网络项目开发经验,能够进行1inux环境下的开发; 3.掌握机器学习的基本算法与概念,有深度学习模型开发经验; 4 精通深度学习模型框架如TensorFlow、pytorch等。
-
管理过团队的来 【岗位职责】 1、主导公司数据平台的搭建,核心负责企业级数据仓库的建设,包括数据分层、数据清洗、数据库和表结构的设计和数据分析,以及数据开发的落地实施; 2、建立数据质量管理体系,开发分析型系统的数据报表,完成从数据建模到数据计算的开发工作; 3、数据资产化的落地,构建数据服务的API设计和开发,支持业务系统的数据对接和调用; 4、研发管理与项目交付:统筹数据项目的研发工作,确保项目按时交付、高质量上线; 5、对AI及算法有兴趣,做过AI模型搭建、调试的尝试,以及落地应用; 【经验要求】 1. 计算机、数学相关专业本科以上学历(硕士优先),在大平台数据开发经验优先; 2. 有过完整的数据体系搭建的经验,包括数据治理、指标体系搭建、数据挖掘和模型管理等,对数据质量、数据资产、元数据管理等有实战经验; 3. 对机器学习、自然语言处理等AI核心技术有一定了解,对AI模型在垂直行业的应用有关注,有尝试的经验; 4. 有一定团队管理经验的优先,在跨团队协作、资源调配和技术问题协同解决方面有实际成果;
-
职位职责: 1、负责内容质量业务相关数据产品的技术架构设计和实现; 2、负责内容质量业务相关数据产品的功能迭代和性能优化,提高效率,优化流程; 3、背靠数据中台完善的数据体系,依托于集团平台整体技术架构完成对内容质量业务数据智能化产品的构建。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力,有中长期的产品/技术视野; 2、熟悉Java/Go技术栈,了解微服务框架、容器、服务治理等相关技术; 3、有大数据开发、LLM开发经验者优先、了解查询引擎(如Clickhouse、Redis、Doris、ES等),对实时和离线数据仓库有一定的认知能力; 4、具备优秀的技术与业务结合能力。
-
职位描述 1、加入高德地图的商业智能BI团队,深入理解高德核心业务,为决策层评估业务价值、进行业务决策等提供数据支撑; 2、数据研发:参与高德地图打车、搜索等核心业务的数据仓库、数据产品建设,参与数据治理并沉淀业务数据资产; 3、数据挖掘:基于高德地图的海量日志,通过算法模型挖掘有价值的业务信息,指导高德地图的产品迭代。 职位要求 1、计算机、数学、统计或者相关专业本科以上学历; 2、熟悉Java/Python,精通SQL,具有5年以上数据研发经验; 3、熟悉HADOOP大数据平台架构:HDFS/HBase/Hive/MapReduce,熟练掌握MapReduce程序开发,了解实时计算,有使用过Flink、Spark Streaming等开源实时流引擎的优先; 4、对数据仓库系统架构具有良好的认知,理解数据分层、数据倾斜、错峰调度等理念,并具有相关实战经验。
-
职位描述 负责国际化B/C/D三端核心数据仓库及相关数据系统服务的研发工作,致力于数据驱动业务提升决策效率与质量。 核心职责 数据仓库开发与优化 设计并实施高性能、可扩展的海外业务数仓架构,支持多时区、多语言数据集成。 与数据分析师、业务团队协作,理解需求并输出数据服务(如指标体系、数据API)。 实时数据开发 构建实时数据工程开发服务平台,沉淀平台能力,支持Flink SQL无法满足的实时指标计算场景 基于Flink/Kafka/Spark Streaming等构建实时数据处理管道,支持业务实时监控与告警。 解决实时场景下的数据延迟、乱序、Exactly-Once等挑战。 数据服务工具构建 构建数据服务平台,提供通用的接口服务与指标管理,连接数仓数据与数据应用(线上系统、分析系统、用户等)。 推动数据治理(质量监控、血缘追踪、权限管理)在海外业务的落地。 项目管理与跨团队协作 主导数据项目全生命周期管理(需求评审、排期、风险控制、交付),协调跨时区团队。 制定数据开发规范,主导技术方案评审,培养初级工程师。 任职要求 核心要求 8年以上数据开发经验,满足以下任一背景者: 路径A:有数据平台/中台开发经验(如数据湖、计算引擎优化),有转型数仓方向意愿; 路径B:有后端开发经验(Java/Scala/Python)+ 数仓开发经验(3年以上)。 精通实时数据处理技术栈(如Flink/Kafka/Redis),有高吞吐、低延迟场景实战经验。 熟练掌握数仓分层理论、建模方法,熟悉Hive/Spark/Impala等大数据组件。 有项目管理经验(至少主导过2个中型以上数据项目),熟悉敏捷开发流程。 加分项 熟悉云数仓(Snowflake/BigQuery/Redshift)或湖仓一体架构(Delta Lake/Iceberg)。 了解数据安全合规要求(如GDPR)。 有BI工具(Tableau/Superset)或数据服务化经验。 英语能力优秀(可处理英文文档、跨团队沟通),有海外业务经验者优先 我们提供 参与全球化数据体系建设的机会,业务覆盖香港、中东、美洲等地区。 技术导向的团队,支持技术转型与前沿方案落地。 有竞争力的薪资与国际化工作环境。
-
岗位职责: 1. 负责 TDengine 数据库内核在 Windows 平台上的开发和问题解决 2. 日常工作内容主要包括:解决 Linux/Windows 平台上的产品功能问题、性能问题以及产品稳定性问题。 任职要求: 1. 深厚的 C 语言开发背景; 2. 熟悉 Linux/Windows 平台底层技术:文件系统,网络等; 3. 开发过大型产品或者分布式系统,如果有数据库或者存储管理类产品的开发经验更好; 4. 如果 2 不具备,要求开发过 Windows 上的底层软件(比如驱动); 5. 高水平的架构设计能力和编程能力; 6. 有流计算经验优先考虑。
-
1.负责整体数据仓库的体系建设,完成业务指标的全流程分层体系(ODS, DWD,DWM ,DM 建设); 2.负责负责日常数据ETL作业的开发和维护工作; 任职条件 1. 2-5年数据开发经验,有金融行业相关数据规划或生产经历; 2.熟练掌握Python/Java中的一种,熟悉常见的ETL开发工具和流程 3.数仓设计和开发者加分
-
564118-资深大数据开发工程师(北京)
[中关村] 2023-01-1215k-30k 经验3-5年 / 本科软件服务|咨询,专业服务|咨询 / 不需要融资 / 500-2000人工作职责: 1、负责大数据平台的技术规划和架构工作,主导系统的架构设计和核心模块开发,确保平台质量和关键性能指标达成; 2、负责研发技术发展方向,新技术领域的探索,将新技术引入大数据平台; 3、负责公司平台数据仓库的建模和设计工作,数据抽取,数据清洗,数据建模工作,ETL设计与开发,数据质量保障,元数据管理; 4、负责大数据平台研发团队的工作分配、指导和管理,确保团队工作有序达成; 5、负责技术架构文档的书写和完善,保证文档的及时更新。 任职资格 : 1、本科及以上学历,具有5年以上数据仓库模型设计和ETL开发经验; 2、熟悉Spark相关技术,3年以上Spark开发经验,有大数据架构师工作经验优先; 3、熟悉java或者Scala语言,具有hbase、es、kafka使用经验; 4、有优良的解决问题能力,有过海量数据系统开发经验者优先。 -
1、参与研究院大数据指标、变量体系建设等相关工作:根据项目的内容需求,开发和搭建完整数据加工链路,包括:接入、解析、清洗、融合、变量衍生、存储、数据服务等。 2、研究和落地基于业务场景的数据加工流程和指标变量体系,并形成业务解决方案。
-
【内推】组内内推招聘! 【BASE】可选:北京、上海、深圳 【岗位职责】 1、负责组内数据仓库及数据平台等数据开发、测试、运维、治理等工作,支持业务各项数据需求; 2、不断优化出数逻辑与数仓模型,抽象总结并沉淀通用方案与平台工具能力,持续提升业务用数准确性、及时性; 3、基于对金融领域业务的准确理解,负责开发各类数据应用系统,交付标准化、可定制的数据接口或数据服务。 【岗位要求】 1、学历:研究生以上学历,且要求本科211或以上;具有5年以上工作经验,优秀者可放宽至3年; 2、工程:具备扎实的数据开发能力和理论知识,包括实时/离线数据处理、数据建模、ETL开发与设计、数据治理等; 3、经验:有金融行业,尤其是监管、合规、风控相关背景及经验的候选人优先; 4、语言:英语听说读写能力需满足与境外同事开展工作的基本需求; 5、综合:品行端正,与时俱进;遵守金融行业及公司各项合规要求;未曾向公司发送过简历。
-
工作内容: 1、参与零售集团数据体系建设、数据仓库设计、数据模型及指标体系的构建和开发;2、承担数据建模规范、数据治理、数据链路优化等工作,保障数据链路时效及数据质量; 3、推动湖仓一体的架构升级,优化计算链路,加速数据在业务场景上的快速流转; 职位要求: 1、计算机或数学相关专业,三年及以上数据建模及开发经验;2、有扎实的编程语言基础,熟练掌握Java、Scala、sql 中的一门或者多门语言;3、熟悉hadoop/hive/spark等计算框架,熟练掌握数仓模型分层、数据建模相关理论,有数据治理经验;4、有实时数据开发或者湖仓一体架构应用落地经验者优先;5、数据和业务敏感度高,有良好的沟通能力和自驱学习能力;
-
岗位职责: 1. 负责数据平台的开发与维护工作,根据业务需求,进行数据仓库的设计与构建,确保数据准确性与数据质量; 2. 深入理解业务,通过高效的数据处理手段,为决策提供数据支持,推动业务发展; 3. 负责数据集成、数据清洗、数据建模等数据处理工作,优化数据处理流程,提升数据处理效率; 4. 与团队紧密协作,通过技术手段解决复杂的数据问题,共同推动项目进度,达成业务目标; 5. 跟踪并研究数据领域的前沿技术,不断探索新技术在业务中的应用,促进业务创新与发展。 任职资格: 1. 教育背景 学历要求:本科及以上学历,计算机科学、信息技术、统计学等相关专业; 2. 工作经验 工作经验:具备5-10年数据开发相关领域工作经验,有大型数据仓库建设及优化经验者优先; 3. 能力要求: 技术能力:熟练掌握数据仓库设计、ETL流程开发、数据建模等技能;熟悉大数据处理框架如Hadoop、Spark等;具备数据库如MySQL、Oracle等的使用经验; 业务理解:具备良好的业务理解能力,能够根据业务需求设计合理的数据解决方案,支撑业务决策; 数据分析:具备较强的数据分析能力,能够通过数据挖掘发现潜在的业务价值; 4. 基本素质 沟通能力:具备良好的沟通能力,能够与团队及业务部门有效沟通,确保需求准确理解和高效实施; 问题解决:具备独立分析和解决问题的能力,能够针对复杂业务场景提出创新性解决方案; 责任心:具有强烈的责任心,对工作认真负责,能够承担一定的工作压力; 团队合作:具备团队合作精神,能够与团队成员协同工作,共同推进项目成功; 学习能力:具备较强的学习能力,关注行业动态,能够适应快速变化的业务和技术环境; 抗压能力:具备良好的抗压能力,能在紧张的工作节奏下保持工作质量。 符合京东价值观:客户为先、创新、拼搏、担当、感恩、诚信。
-
岗位职责: 1、负责公司对内及对外数据产品的设计、开发与维护,确保数据产品的高效、稳定运行。 2、与产品经理、数据分析师、业务部门等紧密合作,理解业务需求,提供数据驱动的决策支持。 3、参与数据产品的需求分析、架构设计、技术选型及核心模块的开发。 4、持续优化数据产品的性能,提升数据处理效率和数据质量。 岗位要求: 1、计算机科学、软件工程、数据科学、数学或相关专业本科及以上学历,3年以上大数据开发经验,有大型数据产品开发经验者优先。 2、熟练掌握至少一种编程语言,如Java、Scala、Python等。 3、精通大数据相关技术栈,如Hadoop、Spark、Flink、Hive、Kafka等,熟悉ClickHouse、Doris等Olap工具,有HiveSQL/SparkSQL/MapReduce调优经验,对数据处理、数据建模、数据治理等有深刻认识。 4、具备良好的沟通能力和团队协作精神以及较强的学习能力和问题解决能力。 符合京东价值观:客户为先、创新、拼搏、担当、感恩、诚信。


