• 20k-35k 经验3-5年 / 本科
    移动互联网,金融 / 上市公司 / 2000人以上
    岗位职责: 1、负责Hadoop、Hive、Hbase、Spark等大数据平台的规划、部署、监控、优化; 2、负责大数据平台的运营管理、方案评审、组件优化; 3、负责大数据平台的异常与故障处理,应急响应,保障平台持续稳定运行; 4、持续跟踪业界技术发展动态,并结合业务发展需要,研究引入新兴技术。 任职要求: 1、熟悉Hadoop大数据生态圈,熟悉Hive、Hbase、Yarn、Spark、kafka等组件的工作原理,并且有实际部署运维经验; 2、深入理解Linux系统,熟悉运维体系架构; 3、熟悉shell脚本及Python编程; 4、具备良好的团队协作意识与主动意识。 优先考虑: 有自动化运维平台构建经验或Hadoop组件源码阅读与分析能力者。
  • 15k-22k 经验不限 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
  • 15k-30k 经验1-3年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据组件开发。 2. 基于Python 体系下的数据质量引擎开发; 3. 基于Java及Linkis开源框架的质量引擎开发; 4. 大数据资产应用的开发、部署、调优; 5. 数据稽核引擎开发,数据共享交换能力对接。 任职要求: 1. 本科及以上学历,计算机相关专业; 2. 3年以上互联网或软件行业工作经验,熟悉Linux环境;熟悉Linux和Python开发; 3. 熟悉Spring,Spring boot,Spring Cloud等框架、熟悉Eclipse或IntelliJ IDEA开发工具等使用 以下满足其一即可: 4. 熟悉Hadoop,MapReduce,Hbase,Flink等大数据部署、运维、开发; 5. 熟悉数据治理理论概念、架构,有元数据、数据质量、数据标准、主数据等相关数据治理经验; 6. 有分布式相关项目(分布式存储/分布式计算/高性能并行计算/分布式cache)经验; 7. 对数据库的架构、扩展特点非常熟悉,能熟练进行SQL优化、集群部署、数据同步等。
  • 35k-70k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、 负责相关业务大数据项目整体架构规划; 2、 负责指导工程师进行技术验证与实现,关键技术问题的攻关,解决项目开发过程中的技术难题; 3、 负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、 根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、 熟练使用Hadoop、Hive、spark,flink等大数据框架,熟悉SQL、Java、Python等编程语言; 2、 有PB级大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、 6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。
  • 20k-35k 经验5-10年 / 本科
    汽车丨出行 / 上市公司 / 2000人以上
    职位描述 1. 负责大数据平台的运维,包括部署、管理、优化等,保障平台稳定运行; 2. 负责大数据集群的架构升级、容量规划、资源管理、成本优化、业务管控; 3. 理解大数据平台架构和业务流程,发现并解决系统问题或瓶颈; 4. 开发自动化运维、监控报警、故障处理脚本和工具,优化整个运维的流程; 岗位要求: 1. 本科及以上学历,5年以上规模集群管理和运维经验; 2. 熟悉Linux操作系统,熟悉TCP/IP基本原理,有系统调优经验; 3. 掌握Shell、Python等至少一门常见脚本语言; 4. 熟悉常用的监控工具,熟悉自动化运维工具(如Saltstack/Ansible/Puppet等),有二次开发能力者优先; 5. 熟悉hadoop/hbase/elasticseach等大数据组件的架构及基本原理; 6. 对运维体系有一定认识,善于思考总结,做事积极主动,责任心强、细心谨慎,能独立解决问题。
  • 15k-25k 经验1-3年 / 本科
    其他,金融 / 未融资 / 2000人以上
    1、负责大数据系统的功能模块设计,编写设计文档; 2、负责大数据平台以及相关联系统的开发与维护; 3、调研业内的新技术与研究;调研和设计大数据相关技术的应用场景; 4、负责大数据相关技术组件的维护、排障以及技术支持。
  • 30k-60k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动抖音业务数据仓库的开发与优化; 2、基于Hive/Flink等平台建设数据仓库,实时数仓建设; 3、负责数据模型的设计,etl实施,etl性能优化以及相关技术问题的解决; 4、负责面向业务的olap,报表,数据提取工具等开发工作。 职位要求: 1、熟悉大数据相关技术:Kafka/Flink/Hadoop/Druid/HBase/Hive 等; 2、熟练使用 Java、Go、Python语言中的一种或者多种; 3、具备数据库系统理论知识,掌握主流数据库管理和应用,精通SQL; 4、了解统计以及数据挖掘、机器学习、人工智能技术,会使用关联分析、分类预测、聚类分析等常用分析方法; 5、有高性能分布式平台开发经验,有电商行业经验优先。
  • 短视频 / 上市公司 / 2000人以上
    职位描述 1、负责快手亿级用户的大数据平台产品的落地,包括分析工具、元数据管理、实时数据加工等系列平台产品; 2、负责数据产品架构设计和后端开发,不断优化系统架构,支撑业务规模增长,保障服务稳定; 3、负责数产品的功能迭代和性能优化,提高效率,优化流程。 任职要求 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力; 2、具备扎实的计算机基础,对技术有热情,愿意不断尝试新技术和业务挑战; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、熟练使用clickhouse、flink、HBase等开源大数据组件,具备数据组件化开发的能力; 5、有足够的耐心梳理和解决复杂而又繁多的产品研发问题,善于沟通与团队协作。
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
  • 25k-35k 经验5-10年 / 本科
    居住服务 / C轮 / 2000人以上
    工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
  • 30k-45k·14薪 经验5-10年 / 本科
    移动互联网,广告营销 / 上市公司 / 2000人以上
    工作职责: 负责搜狐视频商业化的数据平台建设工作,包括: 1.负责数据平台、数据治理系统设计与搭建; 2.负责数据仓库建设、ETL开发、工作流任务优化以及解决相关技术问题; 3.负责行为日志、推荐策略和商业广告数据业务需求对接、数据分析与任务开发。 职位要求: 1.**本科及以上学历,计算机或相关专业优先;3年以上大数据开发、数据分析与处理经验,熟悉互联网产品运营和商业业务; 2.精通Scala/Java语言开发,熟悉Shell、Python等脚本开发,熟悉Linux系统; 3.熟悉大数据生态,精通Hadoop、Kafka、Spark、Flink技术,完成离线或实时大数据仓库设计与开发; 4.掌握数据建模理论,精通SQL开发与性能调优,熟练使用Hive、Doris等数据库组件; 5.有大型数据平台实际建设经验,在数据采集、数据开发、数据分析、数据建模等方面有深刻认识和实践经验; 6.有复杂业务系统的抽象设计能力,能独立对接业务需求和解决业务与技术问题; 7.具有良好的逻辑思维、表达和沟通能力,具备良好的团队合作精神,有较强的承压能力和工作责任心。
  • 12k-18k 经验3-5年 / 本科
    数据服务 / 上市公司 / 500-2000人
    岗位职责: 1、利用大数据相关技术,根据业务需求,对海量数据进行处理、分析、统计等; 2、数据组件性能调优运维及问题解决。 任职要求: 1、计算机及相关专业毕业,三年以上相关工作经验; 2、熟悉Java语言,精通SQL,熟悉至少一种主流数据库MySQL等; 3、熟悉Linux系统及常用命令,熟悉Shell脚本编程; 4、熟悉大数据生态圈,不限于HDFS、Hive、Hbase、Redis等组件,有Spark相关经验更优; 5、具有良好的沟通能力,工作态度积极主动,有良好的团队合作意识。
  • 15k-25k·13薪 经验3-5年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1、分析业务需求,建设数据库仓库,对业务部门提供数据支持; 2、参与数据源分析,完成大数据平台与各业务系统的数据对接; 3、完成基于大数据技术平台基础上的数据仓库设计和ETL开发; 4、调研相关技术,优化大数据开发流程,规划大数据平台应用。 任职标准: 1、3年以上数据仓库相关工作经验, 有互联网、电商行业数据仓库建设经验; 2、精通Hive-sql编写和优化,精通常用etl工具,至少熟悉java、python、shell等语言中一种; 3、精通大数据背景下数据仓库模型设计,熟练掌握OLAP的维度建模设计方法; 4、有数据平台(数据开发、治理、资产等)相关建设经验; 5、责任心强,有较强沟通能力和团队合作精神; 6、有spark streaming、flink等实时数据开发经验; 7、有统计学数学知识,海量数据处理、数据分析和挖掘经验者优先
  • 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。