• 35k-70k 经验1-3年 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、Hadoop 技术栈的开发和管理,解决实际业务挑战,e.g. YARN, HDFS, MapReduce, Spark, etc; 2、与开源社区保持交流,发现对业务场景有帮助的特性并引入生产环境,或将经内部验证的特性贡献到社区; 3、承担千台-万台规模 Hadoop YARN 集群的管理工作,与业务一起解决性能优化、容量规划、预算审计等问题,保障集群高效稳定经济运行。 职位要求: 1、思维活跃,熟悉 Hadoop Stack 及相关基础设施; 2、优秀的设计和编码能力:针对具体的业务场景问题,快速设计和实现解决方案;对工程质量有很高的自我要求;
  • 10k-18k·13薪 经验不限 / 本科
    通讯电子 / 不需要融资 / 2000人以上
    岗位描述:1、HADOOP平台组件安装、优化和维护;2、HADOOP平台组件配套运维能力研究和优化,自动化技术研究;3、协助其他团队做HADOOP组件的应用支撑、实施;任职要求:1、计算机相关专业,至少2年运维工作经验;2、熟悉CENTOS操作系统;3、掌握SHELL/PYTHON脚本编程语言;4、重视自动化配置管理,具备ANSIBLE使用经验;5、有HADOOP生态研究及使用经验者优先;
  • 12k-18k·13薪 经验1-3年 / 本科
    移动互联网,数据服务 / 上市公司 / 150-500人
    岗位职责:1、负责hdfs、hbase等⼤数据平台的规划、部署、监控和系统优化等⼯作2、负责Hadoop平台的⽤户管理、权限分配、资源分配3、负责hadoop集群环境的运维和优化⼯作 集群性能和资源利⽤率优化、集群常⻅问题能迅速定位,并不断优化,提升集群性能,为开发⼈员提供⽀持4、研究业界前沿的⼤数据运维技术、运维⼯具,⽤于提升运维效率任职要求:1、具备⾄少2年以上hadoop及相关组件的运维经验 ,具备⼀定JAVA开发经验2、数据hadoop⼤数据⽣态圈,包括但不限hdfs,yarn,hive,hbase,spark,kafka;3、了解hadoop各组件的原理,各项性能,数据指标,状态监控并有实际部署维护经验;4、对分布式开源项⽬有技术兴趣,能跟踪Hadoop开源社区的发展⽅向,⾃学能⼒较强,不断改进和优化集群;5、加分项:具有平台安全意识,有docker或K8s使⽤经验;6、加分项:具有身份认证权限管控集群资源隔离相关⼯作经验,如LDAP,kerberos,Sentry,Ranger等
  • 电商平台,在线教育,新零售 / 不需要融资 / 50-150人
    保障Hadoop、Kafka等大数据集群高可靠,稳定运营 工作职责 - 负责大数据hadoop、kafka、zk等集群的维护、管理和优化工作 - 支撑大数据业务研发需求,保障集群高效、稳定、经济运行 任职要求: - 对技术有追求,能够刨根问底的搞定技术问题 - 熟悉Hadoop大数据生态圈,包括但不限于HDFS、YARN、Hive、ZK、Kafka等 - 了解Hadoop各组件的原理与实现,并有实际部署、维护、和优化经验 - 具备大规模hadoop集群的故障诊断与性能优化经验者优先 - 具备大规模k8s经验者优先
  • 20k-30k·14薪 经验3-5年 / 本科
    旅游|出行,科技金融 / 不需要融资 / 500-2000人
    岗位职责:1、负责大数据集群搭建、维护、优化、升级2、负责大数据平台日常调度管理、资源监控3、负责离线、实时集群,配套组件调研和引入4、负责集群安全和用户管理5、负责配合平台研发进行大数据中台建设任职要求:1、熟悉Hadoop生态圈 (如:hive、impala、sqoop、spark、kudu、kylin等等) ,知晓各个组件运行原理,并能够独立安装部署2、熟悉实时数仓集群搭建和优化(如:doris、clickhouse)2、熟练ETL同步工具部署和安装(如:datax、kettle)3、熟悉各类关系型数据库(如:mysql、postgresql、oracle),有良好的数据库优化能力4、具备shell、python 等脚本编程能力5、掌握Java、Scala、Go 等其中一种开发语言6、了解实时计算引擎(如:Flink、Spark Streaming)7、有良好的集群管理和运维规范
  • 30k-50k·13薪 经验5-10年 / 本科
    物流|运输 / 上市公司 / 2000人以上
    岗位职责: 1、大数据集群的维护调优与稳定性保障; 2、负责大数据平台技术框架选型与各项技术难点攻关; 任职资格: 1、本科及以上学历,计算机相关专业,5年以上工作经验; 2、精通java和python等语言; 3、精通主流开源的大数据平台的技术架构,熟悉主流大数据组件。包括但不限于Hadoop,hbase,spark,alluxio等; 4、对大数据基础组件有源码和实际生产调优经验更佳;
  • 30k-50k 经验5-10年 / 本科
    在线教育,内容社区 / D轮及以上 / 500-2000人
    【岗位职责】 1、负责公司级大数据平台的架构规划设计与核心开发,带领团队完成有质变的技术解决方案和技术特性; 2、组织同事研究行内最前沿的技术发展方向,指导团队核心成员的日常工作,突破现有的技术难题; 3、负责组内组外的合作协调,提升团队效率; 4、负责hadoop/hive/spark/presto/kafka/kylin/flink/druid/azkaban/elasticsearch/postgresql/clickhouse/dorisdb等开源软件的日常维护优化与开发;能与社区进行深入的交流, 解决源码级的问题, 优化现有框架的性能瓶颈。 【任职要求】 1、熟悉大数据技术生态圈相关的技术,对于大数据技术架构有独特见解; 2、扎实的Java编程基础, 熟悉 JVM 运行机制和内存管理, 有针对JVM GC优化经验; 3、熟悉分布式系统的监控、运维、故障恢复,高可用原理和设计理念; 4、掌握大规模高并发访问、大数据开发等处理经验;; 5、对开源软件有二次开发经验, 对于架构优化有自己的见解; 6、掌握熟练的Linux系统, 网络, 内存和存储等方面知识。
  • 10k-12k 经验1年以下 / 本科
    房产家居 / 未融资 / 2000人以上
    大数据开发岗位任职要求: 1、精通数据建模、数据体系建设,具备数据仓库架构设计、模型设计和处理性能调优等相关经验;   2、具有丰富的基于hadoop体系的数据平台、数据仓库建设经验,精通基于hadoop源码的开发、优化改造及成功应用案例; 3、精通hadoop生态体系各项技术,如kafka、flume、hive、impala、hbase、spark等,具有100+节点hadoop集群的开发、运维经验;   4、具有对大型hadoop集群的硬件规划能力;
  • 40k-60k 经验5-10年 / 本科
    人工智能,物联网 / A轮 / 500-2000人
    职位描述: 职位描述:1、负责大数据架构设计、技术选型、技术难点攻关;2、负责大数据产品在企业中规划与落地;3、负责大数据安全技术方案与落地职位要求:1、具备扎实的计算机理论基础, 对数据结构及算法有较强的功底。2、精通Java语言编程,具备优秀的系统Debug/Profiling能力和经验,熟悉常见的面向对象设计模式,具备优秀的系统架构设计能力。3、精通多线程编程。有分布式开发经验值优先。4、精通HDFS/Yarn/HBase/Hive/Spark中任意一种,有系统的源码阅读经历。有开源社区开发经验者优先。5、熟悉常用的大数据组件,如:Kafka、Zookeeper、Ranger、KMS、Kylin、ElasticSearch、Ozone等。6、熟悉Kubernetes者优先
  • 40k-60k·15薪 经验5-10年 / 本科
    移动互联网 / 上市公司 / 500-2000人
    工作职责: 参与58 EB级海量数据存储和亿级任务调度的Hadoop基础平台能力建设,参与到Hadoop3.x,跨机房集群部署等领域, 打造高效易用的大数据平台架构。 • 负责 Hadoop HDFS 或 YARN 的定制开发 • 负责大规模 Hadoop HDFS 或 YARN 集群的性能优化 • 跟进 Hadoop 社区进展,积极引进社区重大特性和改进 • 解决Hadoop集群现网问题 任职资格: • 熟悉 Hadoop HDFS 或 YARN 的架构和原理 • 熟悉常用大数据开源组件 • 掌握常用的数据结构与算法 • 有大规模集群优化经验优先 • 有参与开源社区的经验优先
  • 20k-40k·15薪 经验5-10年 / 本科
    移动互联网 / B轮 / 500-2000人
    岗位职责: 1. 负责数据仓库和大数据处理模块的架构设计和开发; 2. 负责基于Spark技术的海量数据的处理、分析、统计、挖掘工作; 3. 基于Spark框架的数据仓库的设计,开发,维护; 4. 根据需求使用Spark SQL进行数据处理、查询、统计等工作; 5. 负责大数据集群的维护以及数据可视化工具的设计开发; 任职要求 1. 熟悉hadoop/Spark,hive等相关技术,3年以上Spark开发经验; 2. 熟悉java/Scala语言,熟悉python优先; 3. 精通mysql sql语句,精通Spark SQL,熟悉Spark Streaming,Spark Mllib优先; 4.熟悉机器学习常见分类,聚类算法优先; 5. 有过海量数据系统开发经验者优先;
  • 30k-40k·24薪 经验5-10年 / 本科
    人工智能服务,软件服务|咨询,数据服务|咨询 / 不需要融资 / 少于15人
    岗位职责: 1、负责数据中台(统一数据标准、统一数据来源、统一数据服务)及数据产品的整体架构,包括:数据集成、ETL调度、数仓架构、数据服务等子系统的架构设计和开发; 2、参与数据中台项目实施落地,负责OneData数仓建模; 3、与产品经理一起推进项目需求落地,将业务和产品需求转变成为技术实现方案。 任职资格: 1、本科及以上学历,计算机、数学、统计学等相关专业优先; 2.37岁及以内(最好30-35岁);5年以上数据架构相关工作经验,有大型企业(金融同业、互联网大厂等,最好同时具备甲乙方背景)数据中台建设经验者优先; 3.深刻理解Hadoop生态圈技术体系,对离线计算、内存计算和流式计算均有深刻理解,如Hadoop、hive、Spark、Flink、Kafka、ES、Kylin等,精通分布式数据库和实时数据仓库架构设计; 4、熟练掌握数仓建模方法论,熟练掌握维度建模方法,熟悉OneData建模者优先; 5、自我驱动力强,面对复杂情况能够独立工作;沟通能力强,有较强的团队协作意识和能力。
  • 10k-20k·13薪 经验1-3年 / 本科
    数据服务|咨询,人工智能服务 / C轮 / 500-2000人
    工作内容: 1.负责公司大数据产品的技术支持,协助客户解决在使用过程中遇到的技术问题、产品问题和故障; 2.配合售前等角色进行POC测试; 3.负责将工作中遇到的技术问题、产品问题和典型案例文档化记录; 4.负责收集客户需求和反馈,反馈给产品经理。 岗位要求: 1、计算机相关专业本科以上学历,工作经验1~3年; 2、熟悉行业内主流熟悉Hadoop/HBase/Hive/Spark/Flink/Kafka/Zookeeper等大数据技术,有实际的Hadoop(或CDH、HDP)生产运维、优化经验; 3、掌握Linux操作系统的配置,管理及优化,能够独立排查及解决系统层的常见各类问题; 4、熟练运用各类SQL; 5、了解java/python/scala等其中一种以上开发语言; 6、了解阿里云数加产品等产品优先; 7、了解数据中台、数据仓库理念优先; 8、能接受出差;
  • 15k-30k 经验3-5年 / 本科
    汽车交易平台 / 上市公司 / 2000人以上
    岗位职责:1.负责hadoop、storm、spark等集群日常维护、资源管理、监控与优化;2.深入了解hadoop及周边生态性能指标,深入源码内核改进优化项目3.根据需求,修改HDFS、Yarn及相关源码;4.使用hive、spark、flink、mapreduce、storm进行数据处理,对相关服务进行调优任职要求:1、计算机或数学相关专业、本科及以上学历,985/211优先2、了解Hadoop、spark、flink任一框架,对社区有源码贡献者优先;3、精通Java语言、熟悉分布式系统设计、开发4、对大数据行业相关技术有持续学习的热情,了解行业最新技术动态,开源社区参与者和贡献者优先;6、思维敏捷,严谨、有较强的钻研学习能力;较好的沟通能力、团队合作
  • 15k-25k·13薪 经验3-5年 / 本科
    其他 / 不需要融资 / 500-2000人
    岗位职责: 1、依据业务需求文档,完成软件模块的分析、设计、开发、测试,以保证能够按期交付,并稳定运行; 2、分析数据及效率问题,并给出解决方案,及时修复; 3、参与数据设计、数据抽取、数据加工的开发,并依据环境进行效率调优; 4、跟踪了解业界发展、互联网、大数据相关最新技术,参与重点项目新技术研发工作; 5、对低阶岗位人员进行技能培训、指导低阶岗位的技术开发工作; 6、领导交代的其他任务。 任职资格: 1、3年以上开发经验; 2、熟练掌握Hadoop框架及技术,如SparkCore、Hbase、Hive、HDFS、Kudu、Impala、Yarn等 3、熟悉大数据ETL工具及技术,如Sqoop、SparkStreaming、Kafka、Flink等; 4、熟悉大数据常用开发语言,如Java、Scala、Python等; 5、良好的团队合作精神、独立解决问题和沟通能力;正直诚实、有责任心,能够承受一定压力; 6、对Hadoop性能调优有深入了解者优先; 7、有大型Hadoop项目开发、实施经验者优先; 8、有数据中台经验者优先;
展开