• 25k-40k·14薪 经验3-5年 / 本科
    软件服务|咨询,科技金融 / 不需要融资 / 500-2000人
    岗位职责: 1、负责数据应用的开发和维护; 2、负责日常数据需求的开发和维护; 3、负责数据建模和数据分析等工作。 任职要求: 1、本科以上学历,3年以上大数据开发经验,有金融项目经验优先; 2、熟练掌握java和python开发语言; 3、熟悉Hadoop、Mapreduce、Hive、Hbase、Yarn、Flink等技术等并有一定的开发经验; 4、熟悉ETL工具airflow、kettle、Sqoop等; 5、较强的责任心和沟通能力。
  • 旅游|出行 / 上市公司 / 2000人以上
    工作职责: 1. 负责大数据消息服务如 Kafka 集群优化,运维、部署、管理; 1. 参与大数据基础服务如 Hadoop 、Spark 等集群运维、部署、管理与优化; 2. 负责大数据平台服务器的维护与管理,保证各集群服务器正常运行; 职位要求: 1. 熟悉 Java、Scala、Go 等一门主流语言,熟悉并发和网络编程,有良好的数据结构和算法功底; 2. 熟悉消息系统的原理和关键技术,熟悉 Kafka/Pulsar/RocketMQ 等消息产品的原理和实现,有开源社区贡献者优先; 3. 有分布式存储的使用和研发经验者优先; 4. 对云原生相关技术有一定的了解; 5. 了解大数据相关技术,如Hadoop,Spark,Hive,Flink等,有开发或者运维经验者优先; 6. 熟悉Linux常用命令; 7. 有技术热情和较强的学习能力,以及良好的沟通能力、抗压能力和团队协作能力;
  • 20k-35k·14薪 经验5-10年 / 本科
    电商平台 / C轮 / 2000人以上
    岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 5.负责过大型数据平台或数据仓库设计优先。
  • 40k-60k·14薪 经验5-10年 / 本科
    文化传媒 / B轮 / 500-2000人
    工作职责:  1. 开发和维护七猫大数据系统相关离线和实时数据分析任务;  2. 负责部分七猫大数据系统架构设计和规划,设计技术方案、评估资源、推进方案落地;  3. 负责公司核心业务面临的一些技术重难点攻关、优化和升级(如超大数据集处理、数据链路优化、数据治理);  4. 当数据系统出现问题时,**时间跟进排查并解决问题;  5. 前瞻性技术方案调研和DEMO实现,为即将开发的新功能做好技术储备;  6. 能独立对接公司内相关业务部门的工作;  7. 积极参与项目发展中问题的讨论,提供想法和建议。  任职要求:  1. 本科及以上学历,必备5年以上大数据离线和实时分析开发经验,熟悉数据治理,技术过硬;  2. 精通Haddoop、Hive、Spark、Flink、Kafka的使用;  3. 具备一定的大数据系统的架构能力,从系统底层到上层应用,有清晰的视野;  4. 有较强的沟通表达能力,善于学习,能迅速理解产品需求;  5. 有处理PB级以上数据经验者优先;有一线互联网公司相关项目经验者优先;  6. 有较强的责任心和事业心,有严密的逻辑思维,有追求卓越的精神,能够自我驱动。
  • 20k-40k·15薪 经验3-5年 / 本科
    人工智能服务 / B轮 / 150-500人
    岗位职责: 1. 负责大数据系统的开发,包括分布式传输计算,数据仓库等系统; 2. 负责梳理公司数据业务。 岗位要求: 1. 计算机相关专业,本科以上学历,三年以上相关工作经验; 2. 精通Java/Python/Scala/Golang等至少一门语言,熟悉Hadoop/Spark/Hive/Flume等大数据工具; 3. 精通数据建模及ETL设计开发,对数据仓库、数据平台、数据分析等有深刻理解,具备丰富的海量数据加工处理和优化经验; 4. 有机器学习,深度学习pipeline研发经验者优先; 5. 优秀的自我驱动力和责任心,对新技术有强烈的学习热情。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等),具备编写优化能力; 5.负责过大型数据平台或数据仓库设计优先。
  • 15k-25k·13薪 经验3-5年 / 本科
    硬件 / C轮 / 500-2000人
    工作职责: 1. 负责当贝业务数据资产的设计与研发,包括架构和内容设计,项目计划,开发测试部署等。构建行业标杆级的操作系统领域核心数据资产池; 2. 打造先进的大数据平台,包括实时数据流、数据仓库、调度系统、查询引擎,用户行为分析,abtest 实验系统等,降低数据的使用门槛,实现数据的最大价值; 3. 建设适合业务的大数据存储、计算等分布式系统,为海量数据和大规模业务系统提供可靠的基础设施。 任职资格: 1. 本科以上学历,3年以上工作经验 2. 有3年以上的大数据仓库构建和数据分析经验 3. 有很强的架构设计能力, 编码能力扎实,熟悉Java,SQL及常用工具 4. 熟悉主流分布式计算引擎,中间件,NoSQL数据库,如hadoop,hive,flink,kafka,hbase,redis等,并熟悉运行原理 5. 有Github等开源社区贡献者优先 6. 具备大规模分布式服务设计能力和经验优先
  • 30k-60k 经验5-10年 / 本科
    内容社区,游戏 / B轮 / 150-500人
    岗位职责: 1.负责业务领域核心数据体系的规划设计,在数据化运营和数据能力产品化等方向上,制定数据技术和服务的策略; 2.规划设计数据服务工具,提升数据研发的工作效率,搭建数据服务的工具/产品,赋能业务同学和业务产品,灵活支撑业务的创新和探索,让数据价值更浸透; 3.负责数据质量、稳定性等数据管理,数据内部共享融通的数据平台,让数据标准更规范、数据获取更高效; 任职资格: 1. 本科及以上学历,5年以上大数据平台研发经验。 2. 具有扎实的编程功底,熟悉常用的算法和数据结构,精通Java/Python/Scala/Shell语言(至少两种),并具备丰富的实战经验。 3. 对大数据基础架构和平台有深刻理解和丰富编码经验,熟练使用Hadoop、Hive、Presto、Kafka、Flume、Spark、kudu、Redis等组件。 4. 熟悉并有过Flink开发经验加分。 5. 有PB级别大数据处理实战经验,包括数据的采集、清洗、预处理、存储、分析挖掘和数据可视化,以及架构设计、开发、部署和运维等工作。 6. 熟悉机器学习相关技术,可利用spark或相关组件设计机器学习的模型训练架构。 7. 熟悉算法使用并理解其原理者优先。 8 .具备创新精神,逻辑思维能力强者优先。
  • 20k-35k 经验3-5年 / 大专
    移动互联网,游戏 / 不需要融资 / 150-500人
    岗位职责: 1、基于CDH的Hadoop生态圈平台搭建和维护; 2、负责大数据平台的规划、设计、实施,熟悉常用的数据仓库建模方法,能够独立完成数据模型设计、开发; 3、能够使用合理技术实现数仓设计、离线ETL分析、实时分析、用户画像、智能推荐、机器学习等; 4、具备游戏行业背景或工作经验优先; 岗位要求: 1. 计算机或相关专业本科及以上学历,5年及以上大数据相关工作经验; 2. 精通大数据生态相关技术,具有长时间的实战、维护、调优的能力,包括但不限于Hadoop, Spark, Flink, Kafka, ELK, Impala等,有docker,k8s使用经验优先考虑; 3. 精通并熟练使用java、python、SQL, 能独立承担较大模块的设计、核心功能开发、上线工作; 4. 热爱学习,具备开阔的技术视野, 了解大数据领域最新技术动态; 5. 较强的抗压能力;
  • 30k-40k·15薪 经验5-10年 / 本科
    科技金融 / 上市公司 / 500-2000人
    职位描述 1. 参与金融领域大数据应用平台的架构及研发,在数仓架构、数据分析等领域设计可行性方案,并负责项目落地 2. 打造业界领先的实时数仓,OLAP计算引擎体系,为海量数据和大规模业务系统提供可靠的查询服务 任职要求 1. 本科及以上学历,扎实的计算机专业基础,5年以上大数据平台的架构及开发使用经验 2. 深入理解数仓架构分层,并在OLAP领域有深入的数据应用开发和实施经验,能快速理解业务需求并提出解决方案 3. 精通大数据生态技术,对Hadoop、HBase、ClickHouse、Presto、Spark、Doris、Kafka、Flink、ElasticSearch等开源大数据技术有丰富的开发使用经验;深入研究过大数据框架运行机制、实现原理、开源代码 4. 有较强的业务理解能力、团队精神,思路清晰,并具备较强的文档撰写能力和良好的语言表达能力 5. 熟悉Python,Java等编程技术,具有良好的编写技巧 6. 参与培养未来数据人才,有效辅导团队,提升数据研发能力 优先条件 1、在离线标签,实时标签领域有实施开发经验者优先考虑 2、熟悉Apache Doris、Clickhouse等OLAP引擎技术细节者优先 3、熟悉Hudi、Iceberg等数据湖技术细节者优先 4、具备良好的自驱力,对技术有追求和激情
  • 30k-50k·15薪 经验5-10年 / 本科
    科技金融 / 上市公司 / 500-2000人
    岗位职责: 1、负责公司大数据平台的部署、管理、优化、监控报警。持续对大数据平台进行优化; 2、负责大数据平台日常运维管理、服务监控、故障处理、集群性能和资源利用率优化,集群常见问题能迅速定位,为开发人员提供技术支持; 3、负责大数据平台服务器配置选型、集群网络优化等相关工作; 4、深入理解公司大数据平台架构,发现并解决性能瓶颈,支撑业务和数据量的快速增长; 5、建设大数据运维监控告警体系,完善和落地告警指标和巡检; 6、有超过500台以上NM,DN节点以上维护经验,并对存储生命周期管理和任务治理及分析有工作经验。 任职资格: 1、熟悉Linux(redhat/centos)软硬件环境、系统管理和优化,熟练部署、优化各种常用服务; 2、熟悉Hadoop大数据生态圈,包括但不限于CDH/HDFS/YARN/Hive/Hbase/zookeeper/Spark等; 3、熟练掌握Hadoop组件的安装部署、升级扩容、性能监控以及配置调优; 4、熟悉shell、python、java语言,并有过编写大数据日常运维工具的经验; 5、有大数据监控体系落地、存储和任务治理工作等有较深经验优先考虑; 6、有大数据开发经验和阅读源码能力者优先。
  • 文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、广告各类在线业务的离线数据加工与在线数据服务开发与维护; 2、数据服务接口及产品需求研发迭代,代码review、bug修复及日常服务运维; 3、针对海量数据处理和查询需求,设计适应业务变化的合理的多维数据分析系统架构,满足多样性的需求; 4、海量日志清洗加工,并抽象出可以多业务复用的数据模型; 5、指导初级数据开发工程师进行日常开发。 职位要求: 1、熟悉Hadoop架构和工作原理,精通MapReduce编程;精通Hive,有HQL优化经验; 2、有web服务开发经验,具备独立完成模块开发能力,具备大规模分布式服务设计能力和经验; 3、理解基本的设计模式,能将业务需求快速理解成技术需求; 4、熟练使用Mysql,熟练使用ElasticSearch、Druid者优先;熟悉其原理者优先; 5、善于沟通,工作积极主动,责任心强,具备良好的团队协作能力; 6、具备良好的问题分析与解决能力,有较强学习能力和逻辑思维能力。
  • 18k-28k·13薪 经验3-5年 / 本科
    旅游|出行 / D轮及以上 / 150-500人
    1. 负责离线数仓、OLAP等优化,构建可扩展的数据仓库和分析解决方案; 2. 负责数据质量、元数据管理、数据安全、数据挖掘等; 3. 深入理解业务,围绕数据分析搭建完善的数据服务,驱动业务的发展; 任职资格: 1、本科及以上学历,计算机相关专业; 2、3年及以上JAVA开发经验,熟练掌握常见设计模式、数据结构; 3、熟练掌握MySql,Redis等数据库的使用和优化; 4、有Hive、Spark、Flink、ES、ClickHouse开发经验者优先; 5、有CDH集群运维经验优先; 6、严谨的逻辑思维,强烈的技术热情善于合作喜欢有挑战性的工作;
  • 30k-50k·16薪 经验3-5年 / 本科
    软件服务|咨询 / C轮 / 500-2000人
    工作职责: 1、参与设计/研发一站式大数据平台,降低数据技术使用门槛,提高数据生产效率; 2、基于多云环境,构建满足 Data&AI 链路需求的 SaaS 化产品,沉淀和输出解决方案; 3、负责大数据各计算引擎的性能分析与体系优化,提高性能和降低成本。 任职资格: 1、熟悉 Spark/Flink,Hive,Presto,Clickhouse,Tensorflow/Pytorch 等 Data&AI 开源组件; 2、丰富云上经验,熟悉 Kubernetes; 3、强悍的编码和 troubleshooting 能力,掌握Java,Python,Go等语言; 4、具备快速学习能力和结构性思维,热衷于思考和解决客户难题。
  • 22k-32k 经验5-10年 / 本科
    人工智能服务,软件服务|咨询 / 未融资 / 150-500人
    岗位职责: 1.负责研发大数据平台和数据治理工具; 2.负责进行大数据产品的离线与实时计算; 3.负责数据平台的大数据基础架构规划、运维保障、数据监控等,为海量数据和业务系统提供可靠的基础设施; 4.参与大数据生态相关技术的前瞻性研究和调研落地,持续扩充大数据能力,优化大数据服务的性能和效率 。 岗位要求: 1.熟练进行Java的代码编写,良好的代码编写素养,良好的数据结构算法技能; 2.熟悉Java/Python/Shell等语言,具备良好的编程能力,具备源码级问题解决和集群优化改造能力; 3.有数据平台开发经验,包括但不限于离线开发平台、数据质量中心、元数据管理、数据权限管理、数据资产管理,实时流平台等; 4.熟悉开源大数据组件如Hadoop,Spark,Flink,Hive,Kafka, Elasticsearch, Clickhouse, Dolphinscheduler等,有实际的报表平台、多维度分析工具、ETL平台、调度平台中至少一种工具的实际建设经验; 5.具有很强的团队意识、沟通能力和独立解决问题的能力,学习能力和主动性强,具有钻研精神,充满激情,乐于接受挑战。