keeta-高级数据开发工程师50k-80k·15薪

北京经验5-10年本科及以上大数据开发工程师
岗位所属职位类型
全职

  • 数学/统计学相关专业
  • 数仓建设经验
  • PL/SQL
  • 大数据开发经验
  • 消费生活
  • Scala
  • 物联网
  • 计算机相关专业
  • Python
美团
分享到微信
微信扫一扫,用小程序打开分享
收藏
职位诱惑:

业务发展前景好,0-1建设挑战,团队技术氛围浓

职位描述:

职位描述
负责国际化B/C/D三端核心数据仓库及相关数据系统服务的研发工作,致力于数据驱动业务提升决策效率与质量。
核心职责
数据仓库开发与优化
设计并实施高性能、可扩展的海外业务数仓架构,支持多时区、多语言数据集成。
与数据分析师、业务团队协作,理解需求并输出数据服务(如指标体系、数据API)。
实时数据开发
构建实时数据工程开发服务平台,沉淀平台能力,支持Flink SQL无法满足的实时指标计算场景
基于Flink/Kafka/Spark Streaming等构建实时数据处理管道,支持业务实时监控与告警。
解决实时场景下的数据延迟、乱序、Exactly-Once等挑战。
数据服务工具构建
构建数据服务平台,提供通用的接口服务与指标管理,连接数仓数据与数据应用(线上系统、分析系统、用户等)。
推动数据治理(质量监控、血缘追踪、权限管理)在海外业务的落地。
项目管理与跨团队协作
主导数据项目全生命周期管理(需求评审、排期、风险控制、交付),协调跨时区团队。
制定数据开发规范,主导技术方案评审,培养初级工程师。
任职要求
核心要求
8年以上数据开发经验,满足以下任一背景者:
路径A:有数据平台/中台开发经验(如数据湖、计算引擎优化),有转型数仓方向意愿;
路径B:有后端开发经验(Java/Scala/Python)+ 数仓开发经验(3年以上)。
精通实时数据处理技术栈(如Flink/Kafka/Redis),有高吞吐、低延迟场景实战经验。
熟练掌握数仓分层理论、建模方法,熟悉Hive/Spark/Impala等大数据组件。
有项目管理经验(至少主导过2个中型以上数据项目),熟悉敏捷开发流程。
加分项
熟悉云数仓(Snowflake/BigQuery/Redshift)或湖仓一体架构(Delta Lake/Iceberg)。
了解数据安全合规要求(如GDPR)。
有BI工具(Tableau/Superset)或数据服务化经验。
英语能力优秀(可处理英文文档、跨团队沟通),有海外业务经验者优先
我们提供
参与全球化数据体系建设的机会,业务覆盖香港、中东、美洲等地区。
技术导向的团队,支持技术转型与前沿方案落地。
有竞争力的薪资与国际化工作环境。

工作地址

北京 - 朝阳区- 锐创国际大厦B座4层查看地图

职位发布者:

拉勾安全提示
· 求职中如遇招聘方扣押证件、要求提供担保或收取财物、强迫入股或集资、收取不正当利益或其他违法情形,请立即举报
· 如遇岗位要求海外工作,请提高警惕,谨防诈骗
面试评价
【查看更多评价】
  • 半年前
    • 描述相符
    • 面试官
    • 公司环境
    面试官很nice
    [面试过程]
    公司氛围很好,环境不错,技术强。
    (39)
  • 评价人头像匿名
    半年前
    • 描述相符
    • 面试官
    • 公司环境
    面试官很nice
    面试效率高
    [面试过程]
    社招 面试过程 以问项目相关问题为主。 也涉及到基础的算法以及网络问题。
    (59)
  • 半年前
    • 描述相符
    • 面试官
    • 公司环境
    福利待遇杠杠的
    面试官很nice
    面试效率高
    [面试过程]
    面试效率很高,面试人员和hr都很好
    (71)
北京三快在线科技有限公司

美团

相似职位