• 16k-28k 经验3-5年 / 本科
    人工智能服务,科技金融 / 不需要融资 / 500-2000人
    岗位职责: (1)参与兴业银行大数据平台湖仓一体、存算分离、流批一体等前沿技术的基础架构体系规划与研究,并推动落地实施; (2)负责兴业银行大数据平台运维保障,存储、计算等各类组件性能调优,以提升平台稳定性; (3)协助兴业银行大数据平台信创迁移与相关系统改造、适配等工作; (4)联系上下游业务需求方与应用开发团队,对接协调大数据平台使用、建设、推广相关工作。 岗位要求: (1)熟悉大数据生态体系中分布式存储、缓存、高并发等底层技术协议与原理; (2)具有海量数据计算组件(Hive、Spark),OLAP查询引擎(Clickhouse、Presto、Doris等)故障排查与优化经验,有源码阅读与调试经验优先; (3)熟练掌握Flink等主流大数据组件原理及应用,具有Hudi或Iceberg等流批一体相关组件应用经验; (4)熟悉Docker、K8s等容器化、大数据组件云原生相关技术。 工作地点:上海
  • 20k-40k·16薪 经验3-5年 / 本科
    智能硬件,电商平台 / 上市公司 / 2000人以上
    1、负责小米集团数据中台核心产品的设计与研发,代码测试用例的编写,保障产品质量 2、负责大数据相关新技术的预研,探索在小米的落地场景 3、负责对重点项目提供技术支持和保障
  • 短视频 / 上市公司 / 2000人以上
    职位描述 1、负责快手亿级用户的大数据平台产品的落地,包括分析工具、元数据管理、实时数据加工等系列平台产品; 2、负责数据产品架构设计和后端开发,不断优化系统架构,支撑业务规模增长,保障服务稳定; 3、负责数产品的功能迭代和性能优化,提高效率,优化流程。 任职要求 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力; 2、具备扎实的计算机基础,对技术有热情,愿意不断尝试新技术和业务挑战; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、熟练使用clickhouse、flink、HBase等开源大数据组件,具备数据组件化开发的能力; 5、有足够的耐心梳理和解决复杂而又繁多的产品研发问题,善于沟通与团队协作。
  • 20k-35k 经验5-10年 / 本科
    汽车丨出行 / 上市公司 / 2000人以上
    职位描述 1. 负责大数据平台的运维,包括部署、管理、优化等,保障平台稳定运行; 2. 负责大数据集群的架构升级、容量规划、资源管理、成本优化、业务管控; 3. 理解大数据平台架构和业务流程,发现并解决系统问题或瓶颈; 4. 开发自动化运维、监控报警、故障处理脚本和工具,优化整个运维的流程; 岗位要求: 1. 本科及以上学历,5年以上规模集群管理和运维经验; 2. 熟悉Linux操作系统,熟悉TCP/IP基本原理,有系统调优经验; 3. 掌握Shell、Python等至少一门常见脚本语言; 4. 熟悉常用的监控工具,熟悉自动化运维工具(如Saltstack/Ansible/Puppet等),有二次开发能力者优先; 5. 熟悉hadoop/hbase/elasticseach等大数据组件的架构及基本原理; 6. 对运维体系有一定认识,善于思考总结,做事积极主动,责任心强、细心谨慎,能独立解决问题。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1、分析业务需求,建设数据库仓库,对业务部门提供数据支持; 2、参与数据源分析,完成大数据平台与各业务系统的数据对接; 3、完成基于大数据技术平台基础上的数据仓库设计和ETL开发; 4、调研相关技术,优化大数据开发流程,规划大数据平台应用。 任职标准: 1、3年以上数据仓库相关工作经验, 有互联网、电商行业数据仓库建设经验; 2、精通Hive-sql编写和优化,精通常用etl工具,至少熟悉java、python、shell等语言中一种; 3、精通大数据背景下数据仓库模型设计,熟练掌握OLAP的维度建模设计方法; 4、有数据平台(数据开发、治理、资产等)相关建设经验; 5、责任心强,有较强沟通能力和团队合作精神; 6、有spark streaming、flink等实时数据开发经验; 7、有统计学数学知识,海量数据处理、数据分析和挖掘经验者优先
  • 15k-25k·13薪 经验3-5年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
  • 15k-30k·13薪 经验3-5年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1、基于客户战略目标规划,负责大数据领域(数据治理/数据中台等)的产品规划、设计和推进落地; 2、充分深入业务,推动数据分析、数据治理框架等落地数据产品,赋能业务团队和业务系统; 3、进行产品全生命周期管理,持续改进和提升产品质量,配合业务发展需要,把控产品发展方向; 4、与团队成员协作配合,确保按时、高质量完成功能开发、上线。 任职要求: 1、本科以上学历,3年以上数据产品(数据中台/数据仓/数据治理等)的工作经验,负责行业级或平台级数据中台产品,具有toB/toG领域产品设计经验优先; 2、了解DataOps等数据中台理论与方法; 3、逻辑思维能力强,具备良好的业务理解能力和产品设计能力; 4、具备优秀的沟通和团队合作能力,擅于表达和沟通,具备较强的产品owner意识。
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
  • 30k-60k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动抖音业务数据仓库的开发与优化; 2、基于Hive/Flink等平台建设数据仓库,实时数仓建设; 3、负责数据模型的设计,etl实施,etl性能优化以及相关技术问题的解决; 4、负责面向业务的olap,报表,数据提取工具等开发工作。 职位要求: 1、熟悉大数据相关技术:Kafka/Flink/Hadoop/Druid/HBase/Hive 等; 2、熟练使用 Java、Go、Python语言中的一种或者多种; 3、具备数据库系统理论知识,掌握主流数据库管理和应用,精通SQL; 4、了解统计以及数据挖掘、机器学习、人工智能技术,会使用关联分析、分类预测、聚类分析等常用分析方法; 5、有高性能分布式平台开发经验,有电商行业经验优先。
  • 移动互联网,游戏 / 不需要融资 / 150-500人
    岗位职责: 1. 理解游戏数据业务,负责核心数据资产内容的设计与开发工作。 2. 负责数据仓库、数据集市的数据模型设计。 3. 负责数据仓库ETL规则设计和开发。 任职要求: 1. 本科及以上学历,计算机相关专业。 2. 3年以上数据仓库开发建设经验。1年以上游戏数据开发经验,熟悉数据仓库架构和模型设计。 3. 精通ETL开发和SQL开发及SQL性能调优。 4. 熟悉Python编程,了解相关编程框架。 5. 了解大数据生态相关技术,包括但不限于Hadoop, Spark, Flink, Kafka, ELK, Impala, Kudu等,有相关维护调优经验者优先。 6. 良好的数据敏感度,能从数据中发现问题并解释,较强的数据和业务理解能力。 7. 具有良好的表达能力和沟通能力,态度积极,责任心强,思维清晰。 8. 具有较强的抗压能力。
  • 15k-24k 经验3-5年 / 本科
    IT技术服务|咨询 / 不需要融资 / 50-150人
    职位描述 • 独立完成大数据ETL及其他相关的技术功能开发 • 与技术主管一起参与需求和设计的评审,并进行开发进度的评估 • 在重大开发、设计中规避风险提出设计建议 • 和其他工程师沟通并共同完成技术架构升级 任职条件 • 本科及以上学历,统计、数学、计算机、通讯等相关专业优先, 技术优异者可放宽条件 • 熟悉大数据数仓模型; 有ETL ,可视化分析,BI产品应用等经验 • 熟悉大数据技术生态圈,对大数据基础架构和平台有深刻理解,对基于Hadoop的大数据体系有深入认识,具备相关产品(Hadoop、Hive、HBase、Spark、Flink、 Flume、Kafka、ES等)项目应用研发和管理、优化经验 • 掌握大数据各环境软、硬件、组件配置 • 具备linux操作系统经验 • 掌握scala/java/python/sql/shell 等一种或多种语言 • 有MA(Marketing Automation)相关项目开发经验优先 • 有前后端web开发经验优先 • 具有敏捷项目开发经验者优先 • 具备优秀的团队意识和良好的沟通能力,学习能力和主动性强,具有钻研精神,充满激情,乐于接受挑战
  • 25k-50k 经验3-5年 / 本科
    企业服务 / 未融资 / 15-50人
    岗位职责 1、设计、开发和维护企业级大数据平台和解决方案,包括数据采集、数据存储、数据处理和数据分析等。 2、使用Flink等流式计算引擎,实现实时数据处理和流式分析,提供实时的业务洞察和决策支持。 3、针对OLAP需求,设计和实现数据立方体、多维数据模型和数据聚合查询,以支持复杂的联机分析处理。 4、编写高效且可扩展的大数据处理和分析代码,提高数据处理和分析的效率和质量。 5、与数据科学团队合作,开发和实现数据处理和分析的需求和解决方案。 6、进行数据模型设计和数据架构优化,提高数据存储和计算的性能和可扩展性。 7、负责数据质量和数据安全的管理和监控,确保数据的合规性和机密性。 8、研究和探索新的大数据技术和解决方案,以不断提高大数据处理和分析的效率和质量。 9、建立和维护技术文档和标准,确保大数据开发的规范和一致性。 任职要求 1、本科及以上学历,计算机科学、软件工程或相关领域。 2、3年以上大数据开发经验,熟悉大数据技术栈和工具,如Hadoop、Spark、Kafka、Hive等。 3、熟悉流式计算引擎Flink,具备在实时数据处理和流式分析方面的经验。 4、了解OLAP(联机分析处理)的概念和技术,具备数据立方体和多维数据模型的设计和开发经验。 5、熟练掌握编程语言,如Java、Python或Scala,具备良好的编码和调试能力。 6、熟悉大数据处理和分析的各种技术和工具,如数据流处理、批处理、数据仓库等。 7、具备良好的数据库和SQL技能,熟悉关系型数据库和NoSQL数据库。 8、具备良好的沟通和团队合作能力,能够与不同背景和专业的人合作,解决技术和业务问题。 9、具备较强的学习能力和自我驱动能力,热爱技术研究和创新。 10、有较好的英文阅读和写作能力,能够阅读和编写英文技术文档。 必备条件 1、在Flink和流式计算领域有深入的研究和实践经验。 2、在OLAP(联机分析处理)领域有相关项目经验。 3、有大数据架构设计和优化经验,能够提供有效的解决方案和建议。 4、具备数据挖掘和机器学习的基础知识和经验。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动安全审核相关业务数据仓库的开发与优化; 2、基于Hive/Flink等平台建设数据仓库,实时数仓建设; 3、负责数据模型的设计,ETL实施,ETL性能优化以及相关技术问题的解决。 职位要求: 1、熟悉大数据相关技术:Kafka/Flink/Hadoop/Druid/HBase/Hive 等; 2、熟练使用 Java、Go、Python语言中的一种或者多种; 3、具备数据库系统理论知识,掌握主流数据库管理和应用,精通SQL; 4、有高性能分布式平台开发经验,有安全风控行业经验优先; 5、了解统计以及数据挖掘、机器学习、人工智能技术,会使用关联分析、分类预测、聚类分析等常用分析方法优先。
  • 15k-30k·14薪 经验3-5年 / 本科
    新零售 / 不需要融资 / 500-2000人
    1、负责大数据平台方向规划和系统设计,参与核心代码编写,进行业务场景和平台实现; 2、构建高效,实时,稳定的流式计算引擎,支撑公司内数产品线的实时数据分析业务; 3、搭建大数据平台实时数仓,基于模型运用大数据技术,进行数据清洗、计算,提供稳定可靠的数据。 1、计算机或信息技术相关专业,本科以上学历,有5年以上的大数据领域工作经验,对大数据体系有深入的理解; 2、熟练使用python进行复杂业务逻辑的数据处理工作,具备海量数据处理以及性能优化的能力; 3、具有扎实的大数据系统构建经验,对Hadoop、Spark、Flink、HDFS、Hbase、Kafka等分布式框架和中间件有深刻理解,有大数据中间件开发经验者优先; 4、丰富的数据仓库及数据平台的架构经验,熟悉ETL设计开发,对大数据一站式处理有一定产品化经验者优先。
  • 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。