-
20k-35k·13薪 经验5-10年 / 本科旅游|出行 / D轮及以上 / 500-2000人岗位职责: 1、参与搜索推荐数据体系及数据质量建设,包括但不限于数据采集及处理、数仓建设、数据治理等工作; 2、开发和维护用户和商品画像系统,生产高质量的用户和商品特征; 3、理解运营和产品的数据需求,通过数据分析和相关报表的设计开发,支持业务问题的提升和改善。 任职要求: 1、计算机科学、软件工程或相关专业本科及以上学历; 2、3-8年大数据开发经验,熟悉数据仓库的设计和实现,有数据治理经验; 3、精通SQL、FlinkSQL、HiveSQL等数据处理技术,熟悉python,有数据治理相关经验者优先; 4、熟练掌握各种大数据技术组件,包括hdfs、hbase、kafka等; 5、有较强的数据分析思维,有良好的沟通能力和团队合作精神; 6、熟悉搜索推荐业务,有相关数据建设经验的优先。
-
职位描述 负责国际化B/C/D三端核心数据仓库及相关数据系统服务的研发工作,致力于数据驱动业务提升决策效率与质量。 核心职责 数据仓库开发与优化 设计并实施高性能、可扩展的海外业务数仓架构,支持多时区、多语言数据集成。 与数据分析师、业务团队协作,理解需求并输出数据服务(如指标体系、数据API)。 实时数据开发 构建实时数据工程开发服务平台,沉淀平台能力,支持Flink SQL无法满足的实时指标计算场景 基于Flink/Kafka/Spark Streaming等构建实时数据处理管道,支持业务实时监控与告警。 解决实时场景下的数据延迟、乱序、Exactly-Once等挑战。 数据服务工具构建 构建数据服务平台,提供通用的接口服务与指标管理,连接数仓数据与数据应用(线上系统、分析系统、用户等)。 推动数据治理(质量监控、血缘追踪、权限管理)在海外业务的落地。 项目管理与跨团队协作 主导数据项目全生命周期管理(需求评审、排期、风险控制、交付),协调跨时区团队。 制定数据开发规范,主导技术方案评审,培养初级工程师。 任职要求 核心要求 8年以上数据开发经验,满足以下任一背景者: 路径A:有数据平台/中台开发经验(如数据湖、计算引擎优化),有转型数仓方向意愿; 路径B:有后端开发经验(Java/Scala/Python)+ 数仓开发经验(3年以上)。 精通实时数据处理技术栈(如Flink/Kafka/Redis),有高吞吐、低延迟场景实战经验。 熟练掌握数仓分层理论、建模方法,熟悉Hive/Spark/Impala等大数据组件。 有项目管理经验(至少主导过2个中型以上数据项目),熟悉敏捷开发流程。 加分项 熟悉云数仓(Snowflake/BigQuery/Redshift)或湖仓一体架构(Delta Lake/Iceberg)。 了解数据安全合规要求(如GDPR)。 有BI工具(Tableau/Superset)或数据服务化经验。 英语能力优秀(可处理英文文档、跨团队沟通),有海外业务经验者优先 我们提供 参与全球化数据体系建设的机会,业务覆盖香港、中东、美洲等地区。 技术导向的团队,支持技术转型与前沿方案落地。 有竞争力的薪资与国际化工作环境。
-
职位描述 1、加入高德地图的商业智能BI团队,深入理解高德核心业务,为决策层评估业务价值、进行业务决策等提供数据支撑; 2、数据研发:参与高德地图打车、搜索等核心业务的数据仓库、数据产品建设,参与数据治理并沉淀业务数据资产; 3、数据挖掘:基于高德地图的海量日志,通过算法模型挖掘有价值的业务信息,指导高德地图的产品迭代。 职位要求 1、计算机、数学、统计或者相关专业本科以上学历; 2、熟悉Java/Python,精通SQL,具有5年以上数据研发经验; 3、熟悉HADOOP大数据平台架构:HDFS/HBase/Hive/MapReduce,熟练掌握MapReduce程序开发,了解实时计算,有使用过Flink、Spark Streaming等开源实时流引擎的优先; 4、对数据仓库系统架构具有良好的认知,理解数据分层、数据倾斜、错峰调度等理念,并具有相关实战经验。
-
岗位职责: 1.需求分析:负责与数据运营团队紧密合作,理解业务需求,制定技术方案,确保开发的项目能够满足数据运营的需求。 2.系统开发:负责数据运营系统的设计、开发、测试及优化工作,确保系统的高效、稳定运行。 3.数据处理:负责数据采集、清洗、转换、存储等环节的开发工作,为数据运营提供准确、实时的数据支持。 4.性能优化:对现有系统进行性能分析和优化,提高系统处理大数据的能力,降低系统延迟。 5.技术支持:为数据运营团队提供技术支持,协助解决数据运营过程中遇到的技术问题。 任职要求: 1.学历要求:本科及以上学历,计算机科学与技术、软件工程等相关专业。 2.工作经验:至少2年以上Java开发经验,有数据运营相关项目经验者优先。 3. 技能要求: - 熟悉Java编程语言,掌握面向对象编程思想,具备良好的编码习惯。 - 熟悉Spring、Spring Boot、MyBatis等主流开发框架。 - 熟悉Oracle、MySQL等关系型数据库,具备一定的数据库设计和优化能力。 - 熟悉Redis、MongoDB等NoSQL数据库,了解其使用场景。 - 熟悉Linux操作系统,熟悉常用的命令和脚本编写。 - 熟悉大数据处理技术,如Hadoop、Spark等。 - 熟悉分布式系统设计和开发,了解分布式计算、存储、消息队列等技术。 - 熟悉前端技术,如HTML、CSS、JavaScript等,具备前后端分离的开发经验。 4. 沟通能力:具备良好的沟通能力,能够与团队成员、业务部门有效沟通,确保项目顺利进行。 5. 团队协作:具备良好的团队协作精神,能够积极配合团队成员完成项目任务
-
工作地点:深圳 岗位职责: 1、负责京东站外广告离线和实时数据的规划和建设,包括:数据接入、数据处理、olap分析等,结合数据和技术与应用等多方特性,构建高可用和易扩展的数仓体系,高效满足业务用数诉求。 2、负责建立数仓与数据质量标准和规范,针对海量的数据,确定数据治理方案,并与内外部团队协作,推动落地实施,不断提升数据质量,确保数据及时、准确与稳定性。 3、深入业务,理解并抽象出业务需求,不断优化数仓模型,抽象总结并沉淀通用方案与平台工具能力,提升研发数据质量与用户用数效率。 任职要求: 1、具有1年以上大数据研发经验,包括实时/离线数据处理、数据建模、ETL开发与设计、数据治理等,有数据分析和指标体系构建工作经验优先; 2、编程能力扎实,熟悉至少一门常用的后台开发语言,如Python、Java和Scala等; 3、掌握大数据相关技术,比如iceberg、Spark、Flink、Hadoop和Hive等的原理了解,要求有实战经验; 4、熟悉一门ClickHouse或doris等OLAP分析引擎,了解系统原理,要求有实战经验; 5、熟练掌握SQL语言,能使用SQL进行复杂的数据分析和调优工作; 6、对数据敏感,工作细致负责,具备良好的问题分析与解决能力; 7、具备较强的自我驱动力,有良好的团队合作精神和沟通能力;
-
岗位职责及目标 负责营销场景的推荐模型数据工程开发,包括实时数据召回索引、离线数据召回索引、特征工程,保障算法模型建设、优化迭代,以及支持推荐项目召回检索。 任职要求 1.**本科以上学历,5年以上互联网大厂经验; 2.有丰富的搜推广数据开发经验,有电商行业数据开发经验,有推荐召回检索特征开发经验; 3. Hadoop/Spark/Flink等大数据生态技术,熟悉Hive/Kafka/HBase等组件原理;熟练使用Python/Java/Scala至少一门语言,具备扎实的算法与数据结构基础; 4.有能解决复杂业务数据问题经验,面对业务各种新问题,能系统性开发并支持业务决策; 5.具备良好的逻辑思维能力、自我驱动的执行力、团队沟通协作能力。
-
岗位职责: 1.负责京东保险业务板块数据研发工作,理解保险业务,负责实时和离线数据集成业务的计算架构设计与开发; 2.负责数据服务整体架构的设计与开发; 3.与数据科学家、数据分析师和其他相关团队紧密合作,提供数据支持和技术解决方案; 4.监控和优化数据处理性能,确保数据系统的高可用性和可扩展性; 5.参与数据治理和数据质量管理,确保数据的一致性和准确性; 6.基于高质量的实验设计与分析,为决策层/业务线/产品线识别与定义问题,洞见规律并提出优化方案,落地形态不限于数据产品,研究分析,数据模型与策略,保证项目的执行与效果; 岗位要求: 1.计算机科学、软件工程、数据科学或相关专业本科及以上学历,3年以上行业经验,熟悉数据研发相关工作; 2.精通至少一种数据处理编程语言(如Python、Java、Scala等),并有实际项目经验; 3.熟悉常用的数据处理框架和工具(如Apache Spark、Apache Flink、Hadoop等); 4. 熟悉关系型数据库(如MySQL、PostgreSQL)和NoSQL数据库(如MongoDB、Cassandra、HBase等),具备数据库设计和优化能力; 5.了解分布式系统和微服务架构,熟悉相关技术(如Docker、Kubernetes、消息队列等); 6.具备良好的问题解决能力和调试技巧,能够快速定位和解决数据处理和存储系统的问题; 7. 具备算法相关的数据服务经验者优先,包括但不仅限于画像服务等;
-
职责描述: 1、负责公司离线数仓和实时数仓体系的设计和搭建; 2、结合维度建模理论,梳理业务流程,构建公司数据资产和主题数据应用; 3、负责数据治理相关工作,构建稳定、可靠的数据处理链路,提升数据质量; 4、深入理解业务,负责数据分析、数据大屏和数据报表等需求的对接和开发; 任职要求: 1、本科及以上学历,计算机或数据领域相关专业,5年以上数据开发相关经验; 2、具备丰富的数据仓库体系架构、建模方法、数据治理等知识,有复杂场景或海量数据的数仓应用实践; 3、精通Sql并有丰富的Hive性能优化经验,具有良好的Shell或python编程能力; 4、掌握大数据相关技术栈,包括Sqoop、Flume、Kafka、Hadoop、Hive、Spark、Flink等; 5、有实时数仓相关经验者和多维分析/OLAP经验者(如doris/clickhouse/druid/kylin等); 6、有百度云EasyDAP或阿里云DataWorks使用经验优先; 7、有较强的逻辑思维能力,主动积极有责任感,具备较强的沟通协作能力,自我驱动能力。
-
工作职责: 1、负责数字监督数据体系的规划设计和建设,通过数据产品和数据服务等方式,实现数据驱动业务增长 2、负责数字监督业务的离线数仓、实时数仓、数据服务化的设计、开发、性能优化,为OLAP和AI提供可靠、统一的离线+实时数据服务 3、负责数字监督数据分析平台建设与优化,面向产品、项目、BI等提供体验良好的的交互式/可视化分析工作台 4、负责离线/实时的ETL工作,为各业务提供定制化的数据支持,并优化计算任务性能 5、与团队协同数据智能的工作,推动数据在业务智能化中的落地。 任职资格: 1、计算机与大数据相关专业,本科及以上学历,5-8年大数据开发相关工作经验 2、精通Java/Python/Scala等至少一门语言,熟悉Spark/Presto/Hadoop/Hive/HBase/Kafka /Flume/Flink等大数据研发工具 3、精通数据建模及ETL设计开发,对数据仓库、数据平台、数据分析等有深刻理解,具备丰富的海量数据加工处理和优化经验 4、熟悉数据仓库领域知识和技能者优先,包括但不局限于:元数据管理、数据开发测试工具与方法、数据质量、主数据管理 5、有ClickHouse/Druid/Kylin/Superset等OLAP和数据可视化相关经验者优先 6、对数据挖掘和机器学习有所了解,包括常用的机器学习算法和数据建模过程的优先。
-
重要说明 1、本岗位需要长期客户方驻场开发(石家庄,至少1年)、稳定性强,此为必备条件,非诚勿扰。 2、外地驻场公司提供住宿、提供交通补贴。 任职要求 1、本科5年以及上的大数据开发经验,学历在学信网可查; 2、具有全面的数据中台技术能力,精通华为云大数据工具,精通Hadoop、Hive及其生态; 3、具有较强的文字功底和口头表达能力,工作认真细致,责任感强,沟通协作良好,具备电力行业信息化服务经验,能够开展电力营销相关解决方案编制及业务设计; 4、具备软件设计开发经验优先;有营销业务系统、企业中台相关项目经验者优先。 岗位职责 1、负责团队整体的技术支持,解决疑难问题; 2、基于华为云大数据相关工具和技术开展数据中台开发; 3、负责数据仓库和大数据处理ETL流程开发以及模型设计; 4、基于华为云平台技术开展电网营销专业海量数据的处理、分析、统计、挖掘工作; 5、基于华为云平台技术开展电网营销专业实时数据需求分析、处理、加工工作; 6、总结和编写相关的开发文档;并能够根据规划需求制定相关技术与产品的解决方案。
-
任职要求 1、本科5年以及上的大数据开发经验,学历在学信网可查; 2、具有全面的数据中台技术能力,精通阿里云大数据工具,精通Hadoop、Hive及其生态; 3、具有较强的文字功底和口头表达能力,工作认真细致,责任感强,沟通协作良好,具备电力行业信息化服务经验,能够开展电力营销相关解决方案编制及业务设计; 4、具备软件设计开发经验优先;有营销业务系统、企业中台相关项目经验者优先。 岗位职责 1、负责团队整体的技术支持,解决疑难问题; 2、基于阿里云大数据相关工具和技术开展数据中台开发; 3、负责数据仓库和大数据处理ETL流程开发以及模型设计; 4、基于阿里云平台技术开展电网营销专业海量数据的处理、分析、统计、挖掘工作; 5、基于阿里云平台技术开展电网营销专业实时数据需求分析、处理、加工工作; 6、总结和编写相关的开发文档;并能够根据规划需求制定相关技术与产品的解决方案。
-
岗位职责: 1、负责爬虫服务架构的设计、研发、爬虫效率的优化,完成数据采集/爬取、解析处理、入库及备份等数据日常工作,使用自动化脚本、工具对上市公司行业数据提取、处理、分析,搭建完善的数据库体系;收集行业最新动态,建立行业基本数据库; 2、开发数据生产、管理的流程和框架、监控数据的实时性和准确性; 3、开发模型、分析数据并清洗数据,评估类似数据的有效性,为前后端系统提供数据支撑; 任职要求: 1、熟悉爬虫脚本的编写和相关框架的使用,熟悉数据类统计模型和方法,熟悉数据清洗概念和方法;有过相关的数据挖掘经历,能够熟练使用Python语言,了解基本的机器学习算法; 2、具备银行、证券等金融企业数据治理工作经验或企业级数据仓库、数据中台建设经验者优先考虑; 3、了解一定的金融概念和金融结算方法,了解数据展示方法。 福利待遇: 底薪+补助+项目提成,待遇优厚 双休,法定节假日正常休息 入职30日内签订劳动合同缴纳社会保险 不定期团建、节日福利 集团公司,晋升空间大,发展平台大
-
岗位职责 1、参与业务需求的分析和设计工作; 2、负责软件功能的设计、编码、单元测试工作; 3、为测试团队进行软件测试提供设计、编码解释支持工作; 4、编写软件开发过程中的相关技术文档。 5、主导项目代码质量检查工作 任职要求 1.本科及以上学历、沟通表达能力良好、学习能力较好 2.数据开发方向工作经验5年及以上,有小组组长经验为佳 3.了解hadoop生态圈相关组件hive/Spark/HDFS/Hbase/Yarn等,熟悉常见大数据平台,如星环TDH、华为FI、HDP等 4.熟悉非关系型数据库者优先考虑,如ES、图数据库等 5.熟悉常用的ETL工具,如Datastage、Kettle 6.Hql、spark SQL基础良好,能够熟练的进行开发,要求使用经验2年以上 7.熟悉linux常用操作命令 8.shell或python脚本编写能力良好 9.了解银行业务者优先考虑
-
工作职责: 1、负责组织人员进行数据库的代码开发工作。 2、负责数据库的优化和维护工作。 3、负责编写数据库的技术文档和工作规范,参与数据库设计或者审核数据设计,配合产品经理或者开发人员,纠正常见的数据库错误。 4、分析和解决数据库应用系统出现的问题 5、指导开发工程师进行数据库的程序编写工作,并负责SQL编码规范、逻辑、性能的审核。 6、为数据库的开发应用提供技术咨询。 任职资格: 教育背景:本科或以上学历,计算机等相关专业; 语言要求:英语熟练者可优先考虑。 经验要求:3年以上软件及应用系统开发经验,有相关团队管理经验者优先。
-
岗位职责 1.核心数据处理与开发: 负责基于 Hadoop、Spark、Flink 等大数据处理框架,设计、开发和维护高性能、高可靠的海量数据批处理和流处理管道。 参与构建和优化企业级实时数据仓库和离线数仓,确保数据处理的时效性和准确性。 2.数据平台建设与优化: 参与数据湖架构的设计、实现与治理,管理海量结构化、半结构化和非结构化数据。 负责 Doris 等 OLAP 引擎或类似 MPP 数据库的建模、开发、性能调优及日常运维支持。 维护和管理 MySQL 或其他关系型数据库在大数据生态中的集成与应用。 3.数据仓库架构设计: 深入理解业务需求,设计并实现符合业务目标的数据仓库分层架构(如 ODS, DWD, DWS, ADS/APP层)。 针对 TB/PB 级数据规模,持续优化数据处理任务的性能、资源利用率和稳定性。 解决大数据场景下的技术瓶颈和挑战。 任职资格 1.***本科及以上学历, 5 年以上大数据开发相关工作经验,具备复杂大数据系统的实际设计和开发经验。 2.精通: Apache Spark (Core, SQL, Streaming) 和 Apache Flink 的核心原理、API 及调优技巧,有大规模生产环境应用经验。 3.深入理解: 数据湖概念、架构(如 Iceberg/Hudi/Delta Lake)及其核心价值。 4.熟练掌握: 至少一种主流编程语言:Java 或 Scala(必须项),具备扎实的编码能力和工程化素养。 数据库与存储: 5.熟悉 Doris 或类似高性能 OLAP 引擎(如 ClickHouse, StarRocks)的使用和优化。 6.熟悉 MySQL 等关系型数据库的原理、SQL 优化及常见应用场景,熟悉 HDFS、Hive、HBase 等 Hadoop 生态组件。 7.数据治理与架构: 深刻理解并具备实践经验: 数据治理的核心领域(元数据、数据质量、数据安全、数据标准等)。 8.熟练掌握: 数据仓库经典分层架构设计理念(如 Kimball/Inmon 维度建模),并有实际项目落地经验。


