数据开发专家35k-60k·15薪

上海经验5-10年本科及以上大数据开发工程师
岗位所属职位类型
全职

  • 人工智能服务
  • Hadoop
  • Kafka
  • Spark
  • 计算机相关专业
  • 电商平台
  • Flink
星辰征途
分享到微信
微信扫一扫,用小程序打开分享
职位诱惑:

AI初创公司 已有核心产品

职位描述:

岗位概述:
我们正在寻找一位经验丰富的资深数据开发工程师,加入我们的核心数据团队,负责设计、搭建并维护公司的数据基础设施。你将有机会深度参与数据调度系统、实时与离线处理架构的设计与实现,搭建企业级数据湖和数据仓库,满足公司多样化的数据需求。

岗位职责:
- 数据处理链路搭建与维护:主导并持续优化数据处理链路,涵盖数据调度、实时与批处理、数据湖及数据仓库的架构设计与搭建,确保数据处理链路的高效、稳定。
- 应用数据开发:根据业务需求,负责报表系统建设、海量数据处理以及多模态大模型数据集的预处理、清洗及开发。
- 技术创新与最佳实践:结合前沿技术与最佳实践,不断优化数据开发、处理和存储的性能、稳定性与可扩展性,支持公司快速发展的业务需求。

岗位要求:
- 经验要求:具备至少5年大数据ETL相关开发经验,参与过大数据处理链路的搭建、维护,拥有本科及以上学历。
- 技术精通:深入了解主流大数据技术栈,如Spark、Flink、Kafka、Hadoop、MongoDB等,能够灵活运用大数据技术处理复杂数据场景。
- 编程能力:精通Python、Java或Scala,能够编写高效、可扩展的数据处理代码。熟练使用SQL进行数据分析和建模,具备处理复杂数据流的工程能力。
- 云平台经验:熟悉主流云平台(如GCP、AWS),具有基于云架构进行数据开发的实战经验,能够设计并优化云端数据基础设施。
- 数据建模与分析:具备扎实的数据建模理论基础,拥有复杂业务场景下的数据仓库建模与优化实践经验。
- 解决问题的能力:具备强大的问题解决能力,能够快速应对并解决数据处理中的技术难题。

加分项:
- 在GCP或AWS环境中有大规模数据处理项目的实战经验。
- 熟悉Kubernetes、Docker等容器化技术。
关键技能:大数据技术、Python、Java/Scala、SQL、云平台(GCP/AWS)、数据建模、数据处理链路设计与优化。

附加信息:

  • 工作时间:周末双休
  • 上下班时间:10:00-18:00

面试信息:

  • 面试方式视频面试
  • 面试轮数3-4轮
  • 时间安排分多次完成
  • 补充标签包含笔试

工作地址

职位发布者:

拉勾安全提示
· 求职中如遇招聘方扣押证件、要求提供担保或收取财物、强迫入股或集资、收取不正当利益或其他违法情形,请立即举报
· 如遇岗位要求海外工作,请提高警惕,谨防诈骗
面试评价
【查看更多评价】
该职位尚未收到面试评价
杭州星辰征途科技有限公司

星辰征途

相似职位