• 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、背靠完善的数据体系,让大数据能力通过产品放大高效赋能业务; 2、负责数据产品、数据服务相关的技术架构设计和实现; 3、负责数据产品的功能迭代和性能优化,提高效率,优化流程。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力,有中长期的产品/技术视野; 2、熟悉java技术栈,了解微服务框架、容器、服务治理等相关技术; 3、有大数据开发经验者优先,如查询引擎、MPP引擎、对实时和离线数据仓库有一定的认知能力; 4、具备优秀的技术与业务结合能力。
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、数据仓库与开发: 从端云链路出发,设计并实现高效的端云数据抽取、特征清洗链路,联动端云搭建高效的自动化分析、内容理解能力,参与抖音直播体验方向数仓、建模等工作,提升数据的易用性和质量; 2、模型部署与服务: 推动算法在业务场景中的落地,负责机器学习&深度学习模型的端云一体化部署工作,将现有信息、能力整合到可扩展的模型服务中; 3、数据挖掘与分析: 负责抖音直播客户端体验数据的挖掘与分析,通过数据洞察、定性与定量分析及模型建设,建设端云一体化数据理解能力,优化用户观看和开播体验; 4、业务协同与策略支持:深入理解直播业务,从体验视角出发,联动客户端体验、DA团队,提供基于数据和算法的端云协同解决方案; 5、技术研究与方法论沉淀:总结并优化适用于直播体验业务数据分析&研究方法论,关注行业前沿技术。 职位要求: 1、本科及以上学历,数学、统计学、计算机相关专业优先; 2、熟练掌握Python、Scala、Java或Go等编程语言,具备扎实的编码能力和良好的编程规范意识; 3、精通SQL,掌握机器学习、深度学习相关算法,熟悉Scikit-learn、TensorFlow、PyTorch等框架(任一);熟悉Hive、Spark、Flink、Kafka等大数据处理框架; 4、熟悉机器/深度学习的工程架构,包括部署、运维、在线训练架构(客户端或Server); 5、数据意识:对业务、数据敏感,具备优秀的分析问题和解决问题的能力,能够快速理解和抽象业务需求。
  • 15k-25k·15薪 经验3-5年 / 本科
    其他,金融 / 不需要融资 / 2000人以上
    岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等;    技能要求: 1.计算机相关专业本科及以上学历 ;  2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构;  4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
  • 40k-45k 经验3-5年 / 本科
    居住服务 / 不需要融资 / 2000人以上
    【岗位职责】 1、主导公司数据平台的搭建,核心负责企业级数据仓库的建设,包括数据分层、数据清洗、数据库和表结构的设计和数据分析,以及数据开发的落地实施; 2、建立数据质量管理体系,开发分析型系统的数据报表,完成从数据建模到数据计算的开发工作; 3、数据资产化的落地,构建数据服务的API设计和开发,支持业务系统的数据对接和调用; 4、研发管理与项目交付:统筹数据项目的研发工作,确保项目按时交付、高质量上线; 5、对AI及算法有兴趣,做过AI模型搭建、调试的尝试,以及落地应用; 【经验要求】 1. 计算机、数学相关专业***本科以上学历(硕士优先),在大平台数据开发经验优先; 2. 有过完整的数据体系搭建的经验,包括数据治理、指标体系搭建、数据挖掘和模型管理等,对数据质量、数据资产、元数据管理等有实战经验; 3. 对机器学习、自然语言处理等AI核心技术有一定了解,对AI模型在垂直行业的应用有关注,有尝试的经验; 4. 有一定团队管理经验的优先,在跨团队协作、资源调配和技术问题协同解决方面有实际成果;
  • 15k-25k 经验1-3年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    工作职责: 1.数据同步与ETL开发: 负责设计、开发、测试和维护数据同步、抽取、转换和加载(ETL)流程,确保数据高效、准确、稳定地从源系统流向目标系统。 2.数据同步通道部署与运维: 负责使用OGG、DSG等数据同步工具进行通道的部署、配置、监控、调优和故障处理,保障数据同步通道的稳定运行。 3.日常数据开发与运维: 使用Python、Java等编程语言进行日常数据开发任务(如脚本编写、自动化任务开发)和数据运维工作(如数据质量检查、任务监控、问题排查)。 4.数据库开发与操作: 熟练编写和优化SQL脚本,基于Greenplum、Oracle、MySQL、PostgreSQL等主流数据库进行数据查询、分析、转换和存储过程开发等。 5.数据运维程序开发:根据业务需求,开发数据清洗、转换、入库等相关的运维程序和工具,提升数据处理效率和自动化水平。 6.数据质量保障:参与数据清洗规则的制定与实施,确保入库数据的准确性、完整性和一致性。 任职资格: 1.工作经验: - 3年以上数据开发相关工作经验。 - 具备以下经验优先: 1)有使用 OGG (Oracle GoldenGate) 或 DSG 等数据同步工具的实际部署、配置或运维经验。 2)了解ETL工具(如 Informatica, DataStage, Kettle 等)或调度工具(如 Airflow, DolphinScheduler 等)。 2.技术能力: - 熟练掌握 Python 和 Shell 脚本编程,能够独立完成开发任务。 - 精通 SQL 语言,具备复杂查询、性能调优、存储过程编写等能力。 - 熟练使用至少两种主流数据库(Greenplum, Oracle, MySQL, PostgreSQL)进行开发、管理和优化,理解其核心架构与特性。 - 了解至少一种国产或新兴数据库(如 OceanBase, TiDB, 人大金仓(KingbaseES))的基本原理和使用方式。 - 熟悉 Linux 操作系统(如 CentOS, RedHat, Ubuntu 等),掌握常用命令、系统管理、环境配置和脚本执行。 - 加分项 (非必需,但优先考虑): 1)具备一定的 Java 开发能力。 2)熟悉数据仓库建模理论(如维度建模)。 3)有大数据生态组件(如 Hive, Spark, HDFS 等)的使用经验。 4)了解容器化技术(Docker, Kubernetes)。 3.其他要求: - 具备良好的学习能力、分析问题和解决问题的能力。 - 工作认真负责,有较强的责任心和团队协作精神,能承受一定的工作压力。 - 具备良好的沟通能力,能够清晰表达技术方案和问题。
  • 20k-40k 经验3-5年 / 本科
    科技金融 / C轮 / 150-500人
    岗位职责 1、ETL & 数据管道开发 设计、开发、优化 ETL 流程,实现数据从 MySQL 及其他数据源同步至 ByteHouse 负责数据 采集、清洗、转换、加载(ETL),提升数据质量和一致性 维护和优化ETL作业,确保数据处理的稳定性和高效性 设计和实现数据管道监控,优化任务调度和错误处理 2、数据湖仓管理 & 性能优化 负责ByteHouse(类似 ClickHouse) 的存储管理、表设计及查询优化 设计数据分层架构,构建高效的数据仓库模型 进行数据治理,包括数据血缘、数据质量管理、Schema 演进 研究和优化数据 冷热分层存储,提高查询性能 3.、数据集成 & 数据治理 负责实时/离线 数据集成(Kafka、Canal、Flink),提升数据时效性 保障数据一致性,处理数据去重、异常检测、主键冲突等问题 设计数据权限管理,保证数据访问合规与安全性 岗位要求 必备技能: 1、熟练使用SQL,有 MySQL、ByteHouse / ClickHouse 经验 2、熟悉ETL开发,有 Airflow / AWS Glue / Flink / Spark 相关经验 3、熟悉数据湖/数据仓库架构设计 4、熟悉Kafka/Canal,了解数据流转机制 5、具备Kubernetes(K8s)及AWS相关经验 加分项: 1、了解 数据治理(数据质量、血缘分析、元数据管理) 2、有分布式存储优化 经验,如 S3 / HDFS + ByteHouse 3、具备 Python / Java / Go 研发能力,能开发ETL自动化工具 4、有ClickHouse/ByteHouse 高并发查询优化经验
  • 15k-30k·16薪 经验1-3年 / 本科
    移动互联网,金融 / 上市公司 / 500-2000人
    岗位职责: 1、负责金融数据仓库及平台的开发。 2、深度挖掘互联网金融相关数据,参与自研数据体系的构建。 3、精通 Python,根据业务需求设计实现方案,独立完成项目编码及自测。 职位要求: 1、学信网可查计算机科学与技术、软件工程等相关专业**本科及以上学历。 2、熟悉后端项目的上线规范,有 Python 项目部署的经验。 3、熟练使用 Git 版本控制工具。 4、熟练使用 Mysql、Sqlserver 等数据库。 5、熟悉 Linux 系统,能在 Linux 环境下的进行开发。 6、责任感强、思路清晰,具备良好的沟通能力和团队协作精神者优先。
  • 15k-30k 经验5-10年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    工作职责: 1、遵循公司制度与技术规范完成岗位工作; 2、独立完成常规项目系统级架构设计、评审,以及核心代码的开发、自测、文档等工作; 3、负责项目研发进度、控制研发质量和安全,牵头系统级常态化代码review工作; 4、分析、查找关联复杂问题的根本原因,制定解决方案; 5、识别软件开发风险,并做好风险应对预案; 6、外部协同,与关联岗位做好沟通,协同保证软件整体交付; 7、主动发现问题,优化软件架构或业务流程; 8、指导初、中级岗位人员完成开发任务; 9、完成上级交办其他开发相关工作。 任职资格: 1、***大学本科及以上,计算机相关专业; 2、至少5年以上的Java开发经验,其中2年以上的项目管理经验,具备2年及以上金融行业经验; 3、熟练掌握SQL开发、优化,掌握MPP数据库原理及开发技术; 4、熟悉java开发,熟悉J2EE技术体系,熟悉Spring、MyBatis、Springmvc、SpringBoot、SpringCloud等框架,以及微服务周边中间件; 5、能够熟练使用、配置、部署Weblogic、Tomcat等主流应用服务器; 6、了解Web2.0标准,具备一定的前端UI框架使用经验; 7、了解分布式、缓存、消息队列、负载均衡等机制和实现,具备大规模高并发访问或海量数据处理的开发经验优先,有I17新会计准则项目经验者优先。
  • 20k-40k·14薪 经验3-5年 / 本科
    物联网,数据服务|咨询 / B轮 / 50-150人
    岗位职责: 1. 负责 TDengine 数据库内核在 Windows 平台上的开发和问题解决 2. 日常工作内容主要包括:解决 Linux/Windows 平台上的产品功能问题、性能问题以及产品稳定性问题。 任职要求: 1. 深厚的 C 语言开发背景; 2. 熟悉 Linux/Windows 平台底层技术:文件系统,网络等; 3. 开发过大型产品或者分布式系统,如果有数据库或者存储管理类产品的开发经验更好; 4. 如果 2 不具备,要求开发过 Windows 上的底层软件(比如驱动); 5. 高水平的架构设计能力和编程能力; 6. 有流计算经验优先考虑。
  • 软件服务|咨询,专业服务|咨询 / 不需要融资 / 500-2000人
    工作职责:  1、负责大数据平台的技术规划和架构工作,主导系统的架构设计和核心模块开发,确保平台质量和关键性能指标达成;  2、负责研发技术发展方向,新技术领域的探索,将新技术引入大数据平台;  3、负责公司平台数据仓库的建模和设计工作,数据抽取,数据清洗,数据建模工作,ETL设计与开发,数据质量保障,元数据管理;  4、负责大数据平台研发团队的工作分配、指导和管理,确保团队工作有序达成;  5、负责技术架构文档的书写和完善,保证文档的及时更新。    任职资格 :  1、本科及以上学历,具有5年以上数据仓库模型设计和ETL开发经验;  2、熟悉Spark相关技术,3年以上Spark开发经验,有大数据架构师工作经验优先;  3、熟悉java或者Scala语言,具有hbase、es、kafka使用经验;  4、有优良的解决问题能力,有过海量数据系统开发经验者优先。
  • 15k-30k·14薪 经验在校/应届 / 本科
    数据服务|咨询,人工智能服务 / 不需要融资 / 150-500人
    1、参与研究院大数据指标、变量体系建设等相关工作:根据项目的内容需求,开发和搭建完整数据加工链路,包括:接入、解析、清洗、融合、变量衍生、存储、数据服务等。 2、研究和落地基于业务场景的数据加工流程和指标变量体系,并形成业务解决方案。
  • 18k-26k 经验3-5年 / 本科
    信息安全、数据服务 / 未融资 / 50-150人
    技能要求: Hive,Hadoop,Spark,kafka,Python,数据架构 技能要求: 数据分析,Web安全,数据处理,Hive 岗位职责: 1.负责基于Hadoop/Spark/Hbase/Kafka等平台的批量处理和实时计算开发; 2.负责公司大数据平台数据模型的设计及开发,包括数据需求的沟通、离线/实时模型设计与开发、质量管理监控等工作; 3.负责大数据数据中台开发。负责大数据端与web端的对接; 4.负责对接各事业部及其他团队相关技术规划及管理工作。 任职资格: 1.本科及以上学历,计算机及相关理工科专业; 2.5年及以上相关工作经验,具有扎实的数据结构与算法的理论知识; 3.熟练使用shell、perl、 python、Java、C、C++等至少2门脚本语言; 4.了解Hadoop、Hbase、 Kafka、 Hive、 Spark、 ES、 Storm等组件的工作原理; 5.近3年从事 大数据研发、大数据处理技术架构、数据中心性能评估设计研究等相关岗位; 6.有较强的自学能力、钻研精神和动手能力,具有良好的逻辑思维能力、沟通能力和团队协作能力,做事认真、踏实、负责; 7.有团队管理及人员培养经验优先。
  • 15k-30k 经验不限 / 本科
    移动互联网 / 未融资 / 50-150人
    我司在招聘大数据工程师的同时也在招聘Java工程师 技能要求: Linux,网络安全,数据库开发 岗位职责: 1. 构建基于网络信息安全的大数据平台,支持数据采集、处理、分析、监控和可视化全过程。 2. 解决数据规模增长带来的技术、异地存储检索和复杂的业务问题。 3. 参与项目的需求分析和设计工作,并完成相关技术文档的编写。 4. 协助项目负责人解决项目中的技术难题; 任职要求: 1. 本科及以上学历,计算机相关专业,5年以上开发经验,2年及以上大数据从业经验。 2. 熟悉分布式编程,精通JAVA语言程序设计,具有良好的架构规划能力。 3. 熟悉Hadoop/Hive/Spark/Storm/Flink/Kafka/等技术,具备实际项目设计及开发经验。 4. 精通SQL,熟悉Mysql/Oracle处理机制及应用场景;熟悉NOSQL,如Redis、Hbase、MongoDB等 5. 有Druid、Clickhouse 或Kylin使用及性能优化经验者优先。 6. linux操作系统操作熟练,有能力进行复杂脚本(shell/PYTHON等)编程。 7. 工作态度端正,对技术充满热情具有钻研精神,有良好的问题分析和追踪能力,团队合作意识较好。 具有以下条件者优先考虑: 1)有Kubernetes/docker/Etcd 等容器技术使用者。 2)有网络信息安全从业经验者。
  • 30k-60k·16薪 经验不限 / 本科
    电商 / D轮及以上 / 2000人以上
    岗位职责: 1. 负责广告物料流水系统的架构设计与性能优化,支持上亿级别物料的实时处理与下发,确保数据的实时性和可靠性 2. 负责大型分布式广告检索引擎的架构设计和优化,支持毫秒级别实时索引系统的研发,研究和设计针对不同场景的最优索引架构 3. 负责广告在线系统的性能调优、架构设计与优化,支撑数百亿请求压力的高可靠系统的研发,通过合理运用算力和系统容量以提高系统性能和进行广告收益最大化探索 4. 负责广告在线系统的业务能力建设,包括广告产品的业务需求落地、广告效果优化、在线系统的迭代效率提升等 5. 持续关注广告科技领域的最新进展和技术趋势,参与技术研究和创新,不断优化系统架构,提升广告在线系统的效果和性能 岗位要求:  1. ***大学硕士及以上学历,计算机相关专业 2.  熟练Java/scala高级语言,掌握SQL/Shell/Python脚本语言,熟悉常用的数据结构和算法,熟悉网络编程、多线程编程,有良好的编程习惯 3. 有分布式系统开发、大数据处理开发经验者优先;有Spark/Flink/Kafka分布式框架的实践并掌握原理,对源代码有一定研究者优先; 熟悉ElasticSearch、Lucene等开源项目,熟悉搜索引擎原理和代码实现者优先 4. 具备优秀的逻辑思维能力,对解决挑战性问题充满热情,善于解决问题和分析问题 5. 有强烈的上进心和求知欲,善于学习新事物 6. 良好的团队合作精神,较强的沟通能力和学习能力 7. 有广告在线系统经验者优先 地址:北京市亦庄京东总部 部门简介:               广告系统技术部作为京东平台运营与营销中心的核心团队,承接京东站内外流量商业化的系统建设工作,负责广告系统的整体架构设计和技术选型、高性能异构计算的设计和优化以及离线海量数据的存储与高时效计算。涵盖广告数据/物料流、 广告在线模型服务、广告在线播放、广告实时检索、广告数据系统等核心模块,涉及百亿吞吐高并发处理、海量数据的分布式存储、高效索引检索、在线高性能计算、离线大规模机器学习训练等技术,是京东技术栈最全面的团队之一。       我们拥有互联网广告业内一流的技术团队,有着丰富的行业经验和技术培养体系,作为我们技术团队的一员,你将有机会参与到各种创新性和有挑战性的项目中。你可以与各个领域的专业人员和同事合作,共同探索前沿的技术,有机会利用你的技术能力和个人兴趣来解决业务问题,创建出更丰富和更个性化的技术解决方案。       如果你具备创新意识和技术能力,渴望实现自己的人生价值和职业目标,我们诚挚地邀请你加入我们的技术团队,共同致力于技术创新和社会进步的使命!
  • 35k-65k·18薪 经验5-10年 / 本科
    电商平台 / 上市公司 / 2000人以上
    京东集团2025年数据开发工程师高薪招聘 【岗位职责】  千亿级数据处理系统开发 设计实时/批量处理架构,支撑京东市场营销、用户增长等业务在站外广告投放场景下的千亿级数据处理,支撑业务报表和算法模型的特征样本生产  百亿级报表引擎研发 构建高效数据仓库与实时分析平台,实现百亿级数据秒级查询与可视化  大模型智能体应用 开发AI驱动的问题发现/诊断工具,探索大模型在智能分析场景的落地 【任职资格】  硬性要求 · 计算机相关专业本科及以上学历 · 精通Java/Scala,具备良好的数据结构和算法基础 · 3年以上大数据开发经验,掌握Hadoop/Spark/Flink/Kafka/Redis/Hudi/Iceberg/ClickHouse/Doris等技术栈 · 具有较好的沟通能力、学习能力和团队合作精神,乐于挑战自我,有进取心和求知欲。  加分项 · 有搜推广数据系统、大模型应用开发经验者优先 【工作地点】 北京通州区京东总部 京东集团:以技术驱动零售变革,期待你的加入!