-
20k-35k·13薪 经验5-10年 / 本科旅游|出行 / D轮及以上 / 500-2000人岗位职责: 1、参与搜索推荐数据体系及数据质量建设,包括但不限于数据采集及处理、数仓建设、数据治理等工作; 2、开发和维护用户和商品画像系统,生产高质量的用户和商品特征; 3、理解运营和产品的数据需求,通过数据分析和相关报表的设计开发,支持业务问题的提升和改善。 任职要求: 1、计算机科学、软件工程或相关专业本科及以上学历; 2、3-8年大数据开发经验,熟悉数据仓库的设计和实现,有数据治理经验; 3、精通SQL、FlinkSQL、HiveSQL等数据处理技术,熟悉python,有数据治理相关经验者优先; 4、熟练掌握各种大数据技术组件,包括hdfs、hbase、kafka等; 5、有较强的数据分析思维,有良好的沟通能力和团队合作精神; 6、熟悉搜索推荐业务,有相关数据建设经验的优先。
-
职位职责: 1、为大规模推荐系统设计和实现合理的数据系统; 2、生产系统的Trouble-shooting,设计和实现必要的机制和工具保障生产系统整体运行的稳定性; 3、打造业界领先的流式计算框架等分布式系统,为海量数据和大规模业务系统提供可靠的基础设施。 职位要求: 1、对大数据系统有深入的了解,在生产环境有TB级别Flink实时计算系统开发经验,深入掌握Flink DataStream、FlinkSQL、Flink Checkpoint、Flink State等模块,有Flink源码阅读经验优先; 2、熟悉常见消息队列原理和应用调优,有Kafka、Plusar、RocketMQ等项目源码阅读经验优先; 3、熟悉Java、C++、Scala、Python等编程语言,有出色的编码和Trouble-shooting能力; 4、乐于挑战没有明显答案的问题,对新技术有强烈的学习热情,有PB级别数据处理经验加分; 5、有数据湖开发经验,熟悉Hudi、Iceberg、DeltaLake等至少一项数据湖技术,有源码阅读经验优先; 6、熟悉其他大数据系统经验者优先,YARN、K8S、Spark、SparkSQL、Kudu等;有存储系统经验加分,HBase、Casscandra、RocksDB等。
-
职位描述 1、加入高德地图的商业智能BI团队,深入理解高德核心业务,为决策层评估业务价值、进行业务决策等提供数据支撑; 2、数据研发:参与高德地图打车、搜索等核心业务的数据仓库、数据产品建设,参与数据治理并沉淀业务数据资产; 3、数据挖掘:基于高德地图的海量日志,通过算法模型挖掘有价值的业务信息,指导高德地图的产品迭代。 职位要求 1、计算机、数学、统计或者相关专业本科以上学历; 2、熟悉Java/Python,精通SQL,具有5年以上数据研发经验; 3、熟悉HADOOP大数据平台架构:HDFS/HBase/Hive/MapReduce,熟练掌握MapReduce程序开发,了解实时计算,有使用过Flink、Spark Streaming等开源实时流引擎的优先; 4、对数据仓库系统架构具有良好的认知,理解数据分层、数据倾斜、错峰调度等理念,并具有相关实战经验。
-
职位描述 负责国际化B/C/D三端核心数据仓库及相关数据系统服务的研发工作,致力于数据驱动业务提升决策效率与质量。 核心职责 数据仓库开发与优化 设计并实施高性能、可扩展的海外业务数仓架构,支持多时区、多语言数据集成。 与数据分析师、业务团队协作,理解需求并输出数据服务(如指标体系、数据API)。 实时数据开发 构建实时数据工程开发服务平台,沉淀平台能力,支持Flink SQL无法满足的实时指标计算场景 基于Flink/Kafka/Spark Streaming等构建实时数据处理管道,支持业务实时监控与告警。 解决实时场景下的数据延迟、乱序、Exactly-Once等挑战。 数据服务工具构建 构建数据服务平台,提供通用的接口服务与指标管理,连接数仓数据与数据应用(线上系统、分析系统、用户等)。 推动数据治理(质量监控、血缘追踪、权限管理)在海外业务的落地。 项目管理与跨团队协作 主导数据项目全生命周期管理(需求评审、排期、风险控制、交付),协调跨时区团队。 制定数据开发规范,主导技术方案评审,培养初级工程师。 任职要求 核心要求 8年以上数据开发经验,满足以下任一背景者: 路径A:有数据平台/中台开发经验(如数据湖、计算引擎优化),有转型数仓方向意愿; 路径B:有后端开发经验(Java/Scala/Python)+ 数仓开发经验(3年以上)。 精通实时数据处理技术栈(如Flink/Kafka/Redis),有高吞吐、低延迟场景实战经验。 熟练掌握数仓分层理论、建模方法,熟悉Hive/Spark/Impala等大数据组件。 有项目管理经验(至少主导过2个中型以上数据项目),熟悉敏捷开发流程。 加分项 熟悉云数仓(Snowflake/BigQuery/Redshift)或湖仓一体架构(Delta Lake/Iceberg)。 了解数据安全合规要求(如GDPR)。 有BI工具(Tableau/Superset)或数据服务化经验。 英语能力优秀(可处理英文文档、跨团队沟通),有海外业务经验者优先 我们提供 参与全球化数据体系建设的机会,业务覆盖香港、中东、美洲等地区。 技术导向的团队,支持技术转型与前沿方案落地。 有竞争力的薪资与国际化工作环境。
-
职位职责: 1、云数据库RDS MySQL中间件相关研发; 2、云数据库RDS MySQL同城多机房,异地多活相关的研发; 3、云数据库RDS MySQL容器云相关研发; 4、定位和解决生产环境出现的各种问题,提出系统化的解决方案和规划。 职位要求: 1、本科及以上学历,精通C/C++/Python/Golang/Java/Rust语言中的一种; 2、有数据库、高并发系统、分布式系统等工作经验,并深入理解该领域技术; 3、熟悉分库分表、事务机制、MVCC、查询优化、主从复制、备份恢复、存储引擎、高可用等机制和源码者优先; 4、熟悉Vitess,ShardingSphere等数据库中间件系统者优先; 5、熟悉MySQL,PolarDB,TiDB,OceanBase,CockroachDB,Spanner等数据库系统者优先。
-
工作职责 1、负责数据库架构设计,数据库系统性能优化; 2、负责数据库生产运维重大问题跟进、对外应用服务、部门内部项目、重要任务及重大变更的实施(升级、迁移、合并、改造等); 3、日常生产运维重要问题跟进及解决,定期分析跟进报表类报警,重要数据库健康检查及主动优化; 4、重大变更技术方案的制定及跟进,自动化运维工具开发; 5、保障数据库稳定运营,提升部门产能,达到主动服务和专业服务的目标,提升用户满意度和部门外部影响力。 任职要求 1、本科及以上学历,计算机、软件工程等相关专业;5年及以上数据库构架、开发、维护管理相关工作经验; 2、熟悉Oceanbase等分布式数据库,具备一年以上的Oceanbase项目的实施或运维经验,熟悉Oracle/PostgreSQL/MySQL中的至少一种,精通SQL优化及具备数据库整体性能优化的能力,具备OBCP认证; 3、保险、银行、证券相关及大型互联网行业工作经验者优先,熟悉操作系统、实施过信创改造项目者优先; 4、原则性强,责任心强,工作积极主动,具备良好的沟通协调能力、问题解决能力、口头和文字表达能力。
-
岗位职责: 1.需求分析:负责与数据运营团队紧密合作,理解业务需求,制定技术方案,确保开发的项目能够满足数据运营的需求。 2.系统开发:负责数据运营系统的设计、开发、测试及优化工作,确保系统的高效、稳定运行。 3.数据处理:负责数据采集、清洗、转换、存储等环节的开发工作,为数据运营提供准确、实时的数据支持。 4.性能优化:对现有系统进行性能分析和优化,提高系统处理大数据的能力,降低系统延迟。 5.技术支持:为数据运营团队提供技术支持,协助解决数据运营过程中遇到的技术问题。 任职要求: 1.学历要求:本科及以上学历,计算机科学与技术、软件工程等相关专业。 2.工作经验:至少2年以上Java开发经验,有数据运营相关项目经验者优先。 3. 技能要求: - 熟悉Java编程语言,掌握面向对象编程思想,具备良好的编码习惯。 - 熟悉Spring、Spring Boot、MyBatis等主流开发框架。 - 熟悉Oracle、MySQL等关系型数据库,具备一定的数据库设计和优化能力。 - 熟悉Redis、MongoDB等NoSQL数据库,了解其使用场景。 - 熟悉Linux操作系统,熟悉常用的命令和脚本编写。 - 熟悉大数据处理技术,如Hadoop、Spark等。 - 熟悉分布式系统设计和开发,了解分布式计算、存储、消息队列等技术。 - 熟悉前端技术,如HTML、CSS、JavaScript等,具备前后端分离的开发经验。 4. 沟通能力:具备良好的沟通能力,能够与团队成员、业务部门有效沟通,确保项目顺利进行。 5. 团队协作:具备良好的团队协作精神,能够积极配合团队成员完成项目任务
-
if (your_passions.includes('BigData')) { switch(your_stacks) { case 'Java': case 'Scala': case 'Python': console.log('Join AfterShip'); break; } } 岗位职责 1、负责公司级通用语义层 Semantic Layer 的整体架构设计、技术选型与核心模型构建,从源头解决数据孤岛和口径不一的问题,确保指标和业务口径在全公司的统一性与权威性; 2、与数据仓库团队、BI 团队建立并推行公司的数据建模与指标管理规范与流程,推动数据治理策略的执行,推广语义层的价值和使用方法,提升全公司的数据消费效率与体验; 3、持续监控和优化语义层的查询性能、数据时效性和系统稳定性,保障服务质量。同时,跟踪业界前沿(如 Headless BI、Data Fabric),结合业务发展,持续推动数据架构的演进与创新。 岗位要求 1、**本科及以上学历,3 年及以上数据平台或数据架构相关经验,拥有参与或者主导构建企业级数据建模体系或指标平台的成功经验; 2、 精通数据仓库建模理论(如 Kimball 的维度建模、Inmon 的范式建模)和范式理论,具备将复杂业务场景抽象和范式化为可复用数据模型的能力,拥有丰富的 SQL 调优经验; 3、熟悉主流的大数据技术栈(如 Spark、 Flink、 Iceberg),对至少一种主流 OLAP 引擎(如 ClickHouse、StarRocks、Apache Doris)有深入的实践经验; 4、熟悉 Apache Calcite、Antlr4 等 SQL 解析与优化框架,对 dbt、Cube、LookML、 AtScale 等至少一种语义层/指标平台框架或工具有深入理解或实际应用经验; 5、具备出色的业务理解和沟通协调能力,能够与数据参考、数据分析师和产品经理等不同角色进行高效协作,准确地将业务需求转化为可落地的技术方案。 加分项 1、熟悉至少一种主流云平台(AWS、GCP)的数据产品生态(如 Redshift、 BigQuery等),有云上数据架构设计经验者优先; 2、对 Headless BI、 Data Fabric 等现代数据架构理念有深入研究和独到见解者优先。 为什么加入我们 1、朝阳行业:国际电商 SaaS 服务赛道,国际一线投资机构加持; 2、稳健发展:团队稳健扩张,业务规模及营收每年持续稳健增长; 3、多元文化:团队来自全球 20 多个不同城市,国际化视角、扁平化管理; 4、极客氛围:拥抱开源技术,实践敏捷开发,崇尚通过工具和自动化来解决问题; 5、特色福利:AI 学习基金、 一对一帮带、内部商城、提供 MacBook 及可升降办公桌。
-
【岗位职责】: 1、参与需求沟通分析及方案的讨论设计,评估潜在风险,提供解决方案 2、具备较强的业务理解能力和逻辑分析能力,能够快速理解业务需求,并将其转化为可行的数据解决方案 3、协助团队和分析师,构建和优化数据模型,提供高性能和可扩展的数据查询和处理能力 4、确保数据的质量、准确性和安全性,并制定数据管理和保护策略 5、设计、开发和维护数据架构,包括数据仓库、数据管道和ETL流程,以支持数据的收集、存储、处理和分析 6、与跨部门团队合作,解决复杂的数据挑战,进行数据定位和修复 7、参与code review以及design review,确保代码从设计到实现的质量 【岗位要求】: 1、具备丰富的数据工程经验,掌握数据处理、数据仓库、ETL流程等相关技术 2、熟练掌握编程语言,如 Python、Java 或 Scala,并能熟练使用 SQL 查询语言 3、对 Kafka/ELK/Airflow/CDC工具(Debezium)等当前主流的开源组件有实战经验 4、熟悉云计算平台(如 AWS、Azure 或 Google Cloud )和相关的数据技术栈 5、具备良好的分析能力和自主学习能力,能够快速掌握新的数据工程技术和工具 6、具备良好的问题解决能力和团队合作精神,能够与不同领域的团队成员进行有效的沟通和协作 【加分项】: 1、技术涉猎广,有 Docker/k8s 等产品的使用或运维经验 注:该岗位是数据岗,不是“大”数据岗,需要您有数据仓库相关的工作经验!
-
岗位职责描述: a) 负责搭建维护量化数据平台,保证数据稳定性,准确性和可扩展性,支持高并发量访问。 b) 数据增值工作:开发可视化工具实现数据分析功能;新数据源搜集和自有新数据开发。 c) 数据API的开发和维护;金融行情数据落地生产,数据质量检查。 岗位要求: 1、计算机、金融工程、统计学或相关专业本科及以上学历; 2、熟练使用Python编程,有在Linux平台开发经验; 3、有数据处理相关经验,熟悉Numpy、Pandas等数据处理模块; 4、有金融数据分析和数据挖掘相关经验 ; 5、熟悉常用数据库技术,如MSSQL 和 MYSQL等 。
-
岗位职责: 1、负责数据中心日常业务的管理及相关业务接口工作,包括数据标准制定.数据统一采集.数据清洗存储.数据应用等工作的推进; 2、负责数据中心数仓设计、开发、维护和各类数据业务模型建立及算法的实现; 3、基于大数据中心完成各类统计和开发任务,包括指标体系和元数据平台的建设; 4、负责数据中心各平台应用维护工作,保障数据中心各平台稳定运行,并制定并实施安全策略,保障数据安全; 5、参与数据产品需求评估,负责集团各业态指标的建设; 6、监控已上线的数据产品,并不断优化其性能; 7、负责数据中心数据管理和小组团队能力建设,带领团队数据中心各类技术开发; 8、完成部门领导交办的其他工作任务; 任职要求: 1、本科或以上学历,计算机相关专业,三年以上代码编写工作经验; 2、具有扎实的大数据和数据仓库的理论功底,负责过大数据平台或数据仓库设计开发建设; 3、精通大数据全栈架构,精通一种或多种分布式计算、存储、调度框架或工具(Yarn/Hadoop/Hive/MapReduce/Spark/Hbase/Flink/ES等; 4、熟悉大数据即席查询与分析技术体系,具备数据模型设计、ETL开发、OLAP开发等,有实时数仓建设经验的优先; 5、编程基础扎实,精通java语言,熟悉常见设计模式、应用框架;有大型项目架构设计开发、优化、治理,有开源社区贡献者优先;熟悉Python语言,灵活处理数据脚本开发。 6、有良好的团队沟通和协作能力,良好的自驱力和学习能力;主动积极,富有热情,能主动积极的思考和推动数据价值的落地; 7、工作态度严谨认真,责任心强,有较强的执行能力和团队协作能力,能承受工作压力。
-
工作地点:深圳 岗位职责: 1、负责京东站外广告离线和实时数据的规划和建设,包括:数据接入、数据处理、olap分析等,结合数据和技术与应用等多方特性,构建高可用和易扩展的数仓体系,高效满足业务用数诉求。 2、负责建立数仓与数据质量标准和规范,针对海量的数据,确定数据治理方案,并与内外部团队协作,推动落地实施,不断提升数据质量,确保数据及时、准确与稳定性。 3、深入业务,理解并抽象出业务需求,不断优化数仓模型,抽象总结并沉淀通用方案与平台工具能力,提升研发数据质量与用户用数效率。 任职要求: 1、具有1年以上大数据研发经验,包括实时/离线数据处理、数据建模、ETL开发与设计、数据治理等,有数据分析和指标体系构建工作经验优先; 2、编程能力扎实,熟悉至少一门常用的后台开发语言,如Python、Java和Scala等; 3、掌握大数据相关技术,比如iceberg、Spark、Flink、Hadoop和Hive等的原理了解,要求有实战经验; 4、熟悉一门ClickHouse或doris等OLAP分析引擎,了解系统原理,要求有实战经验; 5、熟练掌握SQL语言,能使用SQL进行复杂的数据分析和调优工作; 6、对数据敏感,工作细致负责,具备良好的问题分析与解决能力; 7、具备较强的自我驱动力,有良好的团队合作精神和沟通能力;
-
岗位职责及目标 负责营销场景的推荐模型数据工程开发,包括实时数据召回索引、离线数据召回索引、特征工程,保障算法模型建设、优化迭代,以及支持推荐项目召回检索。 任职要求 1.**本科以上学历,5年以上互联网大厂经验; 2.有丰富的搜推广数据开发经验,有电商行业数据开发经验,有推荐召回检索特征开发经验; 3. Hadoop/Spark/Flink等大数据生态技术,熟悉Hive/Kafka/HBase等组件原理;熟练使用Python/Java/Scala至少一门语言,具备扎实的算法与数据结构基础; 4.有能解决复杂业务数据问题经验,面对业务各种新问题,能系统性开发并支持业务决策; 5.具备良好的逻辑思维能力、自我驱动的执行力、团队沟通协作能力。
-
岗位职责: 1、挖掘与分析各类业务数据、三方数据,并建立画像及构建数据模型,提升在风控、转化、意愿上的识别能力,以数据驱动决策,提升效率; 2、建立各类数据在重要流转、使用环节中的监控; 3、根据计划安排,开发、上线针对性的模型,解决业务中的问题,并进行模型的监控、维护和调整。 任职要求: 1、**本科及以上学历,统计学、数学、经济学、计算机等相关专业; 2、有一定的Python 和 SQL使用经验,熟悉常用数据统计、分析和建模方法。
-
项目简介 在 Elephants in the Room,我们坚信企业最严峻挑战的解决方案蕴藏在员工之中,然而这些宝贵洞察往往难以传递至管理层。我们正致力于开发全球人工智能驱动平台,该平台运用先进的 LLM(大语言模型)与 NLP(自然语言处理)技术,对企业全员进行访谈,从而挖掘问题根源并众包可落地的解决方案。可以说,我们是一家基于 LLM 技术的管理咨询机构,融合了在线调研的优势与人类顾问深度访谈的能力,能够覆盖多元的组织议题。 岗位职责 1. 后端开发 (Django):运用 Django 构建并维护平台后端,通过无缝的数据处理确保平台性能优化,同时参与算法模型架构设计。 2. 平台性能、准确性与扩展性 (Azure):基于真实企业的大规模异构数据集,利用 Azure 云服务实现系统的精准性、高扩展性与可落地的数据洞察。 3. 加分项 - LLM 与 NLP 算法开发:协同团队设计、优化及扩展 LLM 与 NLP 算法,革新企业识别与解决内部挑战的方式。 4. 加分项 - Reactjs 前端工程:参与 React.js 前端开发,为终端用户打造直观易用的交互体验。 岗位要求 1. 具备扎实的 Django 后端开发经验,熟悉相关技术栈。 2. 有使用 Azure 云服务的经验,能够处理大规模异构数据集,保障系统性能和扩展性。 3. 若有 LLM 与 NLP 算法开发经验或 Reactjs 前端开发经验者优先。 4. 英语流利,达到 CEFR C1 或同等认证水平。 我们提供 1. 高速增长的初创企业环境,让您有机会助力推动组织发展,并在塑造企业未来中扮演关键角色。 2. 具有竞争力的薪资,月薪人民币 25,000-35,000 元。遵循欧洲工作习惯,杜绝隐形加班,实现加班透明化,保障工作与生活的平衡。 如果您符合上述要求,且对该职位感兴趣,欢迎加入我们,一起开启充满挑战与机遇的旅程! Senior Django Back-end & Data Engineer Recruitment Project Introduction At Elephants in the Room, we believe the solutions to a company’s biggest challenges lie within its own employees. However those insights don’t always reach management. We’re developing the world’s AI-powered platform designed to interview every member of an organization, using advanced LLM (Large Language Model) and NLP (Natural Language Processing) technology to uncover root causes and crowdsource actionable solutions. You can see us as a management consultancy based on LLM technology. Bringing the best of online surveys and the ability to do in-depth interviews like human consultants on a variety of organizational topics. Job Responsibilities 1. Back-end Development (Django): Build and maintain the platform's back-end using Django, ensure seamless data processing to optimize platform performance, and participate in the design of algorithm model architecture. 2. Platform Performance, Accuracy, and Scalability (Azure): Based on large-scale heterogeneous datasets from real enterprises, use Azure cloud services to achieve the system's accuracy, high scalability, and actionable data insights. 3. Preferred Qualification - LLM and NLP Algorithm Development: Collaborate with the team to design, optimize, and expand LLM and NLP algorithms, innovating the way enterprises identify and solve internal challenges. 4. Preferred Qualification - Reactjs Front-end Engineering: Participate in React.js front-end development to create an intuitive and user-friendly interactive experience for end-users. Job Requirements 1. Have solid experience in Django back-end development and be familiar with related technology stacks. 2. Have experience in using Azure cloud services, be able to handle large-scale heterogeneous datasets, and ensure system performance and scalability. 3. Those with experience in LLM and NLP algorithm development or Reactjs front-end development are preferred. 4. Fluent in English, reaching CEFR C1 or equivalent certification level. What We Offer 1. The dynamics of a scale-up environment and the chance to accelerate our organization’s growth and play a key role in shaping its future. 2. A competitive salary, with a monthly salary of 25,000-35,000 CNY. Follow European work habits, eliminate hidden overtime, make overtime transparent, and ensure a balance between work and life. If you meet the above requirements and are interested in this position, you are welcome to join us and embark on a journey full of challenges and opportunities!


