• 15k-22k 经验不限 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 20k-35k 经验3-5年 / 本科
    移动互联网,金融 / 上市公司 / 2000人以上
    岗位职责: 1、负责Hadoop、Hive、Hbase、Spark等大数据平台的规划、部署、监控、优化; 2、负责大数据平台的运营管理、方案评审、组件优化; 3、负责大数据平台的异常与故障处理,应急响应,保障平台持续稳定运行; 4、持续跟踪业界技术发展动态,并结合业务发展需要,研究引入新兴技术。 任职要求: 1、熟悉Hadoop大数据生态圈,熟悉Hive、Hbase、Yarn、Spark、kafka等组件的工作原理,并且有实际部署运维经验; 2、深入理解Linux系统,熟悉运维体系架构; 3、熟悉shell脚本及Python编程; 4、具备良好的团队协作意识与主动意识。 优先考虑: 有自动化运维平台构建经验或Hadoop组件源码阅读与分析能力者。
  • 金融 / 未融资 / 2000人以上
    职责描述: 1、负责大数据运维体系搭建及大数据平台各个组件的运维; 2、负责大数据平台及相关组件的部署和维护,保证其稳定运行; 3、负责完善大数据平台运维监控工作。 任职要求: 1、本科或本科以上学历,计算机相关专业,3年以上大数据系统运维经验; 2、熟悉Windows/Linux操作系统; 3、熟悉Hadoop、Hive、Hbase、Yarn、Spark等组件的原理及运维方式; 4、熟悉中间件工作原理,对Tomcat/Redis/Nginx/Kafka有一定了解,具备一定的操作能力; 5、至少熟悉Java/PHP/Python/Bash/Shell一种或多种语言,可独立编写维护及监控; 6、工作细致、善于思考,有很强的问题分析和推进解决的能力; 7、有强烈的责任心、良好的沟通协调能力、极强的业务推动能力,勇于接受挑战; 8、良好的英文听说读写交流能力,能使用英语作为工作语言。
  • 25k-35k 经验5-10年 / 本科
    居住服务 / C轮 / 2000人以上
    工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
  • 20k-35k 经验5-10年 / 本科
    汽车丨出行 / 上市公司 / 2000人以上
    职位描述 1. 负责大数据平台的运维,包括部署、管理、优化等,保障平台稳定运行; 2. 负责大数据集群的架构升级、容量规划、资源管理、成本优化、业务管控; 3. 理解大数据平台架构和业务流程,发现并解决系统问题或瓶颈; 4. 开发自动化运维、监控报警、故障处理脚本和工具,优化整个运维的流程; 岗位要求: 1. 本科及以上学历,5年以上规模集群管理和运维经验; 2. 熟悉Linux操作系统,熟悉TCP/IP基本原理,有系统调优经验; 3. 掌握Shell、Python等至少一门常见脚本语言; 4. 熟悉常用的监控工具,熟悉自动化运维工具(如Saltstack/Ansible/Puppet等),有二次开发能力者优先; 5. 熟悉hadoop/hbase/elasticseach等大数据组件的架构及基本原理; 6. 对运维体系有一定认识,善于思考总结,做事积极主动,责任心强、细心谨慎,能独立解决问题。
  • 企业服务 / 未融资 / 15-50人
    岗位职责: 1、负责HDFS、HBase、Hive、Yarn、Flume,Kafka、ES等大数据平台的规划、部署、监控和系统优化等工作; 2、负责Hadoop平台的用户管理、权限分配、资源分配; 3、负责Flink集群的部署维护、资源调度及任务上线等; 4、负责Airflow、Azkaban等大数据任务调度平台的部署、维护、开发支持等; 5、处理大数据平台各类异常和故障,确保系统平台的稳定运行; 6、研究业界前沿的大数据运维技术,负责各种运维工具和系统的设计开发; 任职要求: 1、本科以上学历,计算机或相关专业,具备至少3年以上hadoop及相关组件的运维经验; 2、掌握HDFS、HBase、Kafka、Hive、Yarn、Flink、ES等组件的工作原理; 3、熟练掌握至少一种脚本语言(Shell、Python、Java); 4、对Hadoop各组件的权限、安全、Kerberos有一定的经验; 5、熟悉MapReduce算法,能够编写和提交分布式计算任务; 6、对分布式开源项目有技术兴趣,能跟踪Hadoop开源社区的发展方向,自学能力较强,不断改进和优化集群; 7、具备高度的责任心,较强的故障分析及排除能力; 8、具备良好的团队合作精神,工作认真、细心、虚心好学、沟通能力好。
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 30k-50k·14薪 经验5-10年 / 本科
    金融 / 上市公司 / 500-2000人
    岗位职责: 1、负责大数据集群CDH(Hadoop、 Hive、HBase、Spark)、Presto、ClickHouse的日常维护,包括集群的规划、部署、监控、故障处理、复盘优化等; 2、保障大数据集群的健康度,性能优化调整,体系化的解决方案,构建服务客观可观测能力,保障大数据服务高可用,提高资源使用率; 3、建立运维自动化能力提效,配合数据架构师研究和应用大数据新架构技术,突破算力边界。 任职要求: 1、本科及以上学历,5年以上大数据运维经验; 2、熟悉CDH、HDFS、Yarn、Hive、Presto、Prometheus技术栈,深入了解原理和常规操作; 3、熟悉大数据组件的指标监控、容量规划、性能优化、监控等; 4、有技术的热情,对方案严谨,有owner的担当和主动性。
  • 25k-50k 经验3-5年 / 本科
    企业服务 / 未融资 / 15-50人
    岗位职责 1、负责HDFS、HBase、Hive、Yarn、Flume,Kafka、ES等大数据平台的规划、部署、监控和系统优化等工作; 2、负责Hadoop平台的用户管理、权限分配、资源分配; 3、负责Flink集群的部署维护、资源调度及任务上线等;  4、负责大数据任务调度平台的部署、维护、开发支持等;  5、处理大数据平台各类异常和故障,确保系统平台的稳定运行;  6、研究业界前沿的大数据运维技术,负责各种运维工具和系统的设计开发; 任职要求 1、本科以上学历,计算机或相关专业,具备至少3年以上hadoop及相关组件的运维经验;  2、掌握HDFS、HBase、Kafka、Hive、Yarn、Flink、ES等组件的工作原理;  3、熟练掌握至少一种脚本语言(Shell、Python、Java);  4、对Hadoop各组件的权限、安全、Kerberos有一定的经验;  5、熟悉MapReduce算法,能够编写和提交分布式计算任务;  6、对分布式开源项目有技术兴趣,能跟踪Hadoop开源社区的发展方向,自学能力较强,不断改进和优化集群;  7、具备高度的责任心,较强的故障分析及排除能力;  8、具备良好的团队合作精神,工作认真、细心、虚心好学、沟通能力好。
  • 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
  • 15k-30k·13薪 经验3-5年 / 本科
    金融 / 未融资 / 2000人以上
    岗位职责: 1、负责公司大数据/Hadoop/Hive/Spark/实时计算的部署、管理、优化、监控报警,保障平台服务7*24稳定可靠高效运行; 2、负责Hadoop/Hbase/Spark/Hive/Flink等系统的架构审核、业务监控、持续交付、应急响应、容量规划等; 3、跟进并处理系统事件,对系统问题及故障解决跟踪优化,负责服务状况与服务; 4、梳理优化业务使用集群的流程及规范,使集群使用在资源利用、质量等方面均达到较高水平; 5、日常跟踪业界技术发展动态,并结合业务发展需要,研究引入合适的技术。 任职要求: 1、大学本科及以上学历,计算机或者相关专业,3年以上大数据生态的运维/开发相关工作经验; 2、深入理解linux系统,运维体系结构,精于容量规划、架构设计、性能优化; 3、具备一定的故障排查能力,精通一门以上脚本语言(shell/perl/python等),有java开发经验优先; 4、熟悉hadoop、hive、hbase、yarn、spark、flink等之组件的原理及运维方式; 5、具备集群安全设计运维经验,熟练使用ldap,kerberos或freeIPA; 6、具备很强的故障排查能力,有很好的技术敏感度和风险识别能力; 7、熟悉常用运维监控工具,包括但不限于nagios/ganglia/zabbix/grafana/open-falcon等,和相关插件的开发。比如邮件、短信、微信报警插件等; 8、熟悉常用运维自动化工具,包括但不限于ansible/puppet/SaltStack等代理工具的使用和优化; 9、良好的服务意识,善于团队协作;能够承受较大的工作压力; 10、平台运维工具或系统自主开发经验优先; 11、有PB级数据平台运维经历,有RedHat证书优先。
  • 25k-30k 经验3-5年 / 本科
    企业服务,通讯电子 / 不需要融资 / 50-150人
    职位职责: 1、负责大数据技术平台的搭建、升级、扩容; 2、负责大数据技术平台日常监控、权限管理、资源管理、数据备份及故障处理,确保系统稳定运行; 3、负责Hadoop/Yarn/Hbase/Hive/Kafka/Spark/Flink等大数据相关组件的底层运维与调优工作; 4、制定大数据运维规范,持续推进运维自动化。 任职要求: 1、本科及以上学历,计算机相关专业,3年及以上大型分布式系统实施和运维相关经验; 2、熟悉 Linux/Unix 系统、网络、硬件等相关知识,精于容量规划、架构设计、性能优化,能够独立解决问题; 3、熟悉Hadoop大数据生态圈,包括但不限于HDFS、YARN、Hive、HBase、Spark、Flink等; 4、精通Shell,Python或Go其中一种语言,熟悉自动化部署工具:Ansible、Saltstack等; 5、对技术有强烈的好奇心,喜欢钻研。
  • 20k-30k·14薪 经验3-5年 / 本科
    数据服务,软件开发 / 上市公司 / 2000人以上
    岗位职责: 1、负责Hadoop、HBase、Hive、Spark等大数据平台的漏洞修复,安全管控等,确保高可用; 2、负责公司大数据平台的运维管理工作,集群容量规划、扩容及性能优化各类异常和故障,排查安全风险,确保系统平台的稳定运行; 3、对大数据组件和linux系统存在的安全漏洞的进行分析和测试; 4、对平台安全问题进行整改计划的制定和编排; 5、设计实现linux主机和大数据hadoop平台的安全手册; 6、深入研究大数据业务相关安全技术,探索新的大数据安全技及发展方向。 任职要求: 1.***大学本科及以上学历。 2.深入理解linux系统,有扎实的Linux功底,熟悉CentOS、Suse等,有3年以上基于linux平台的系统运维经验; 3.熟悉Hadoop大数据生态圈,包括但不限于HDFS、YARN、Hive、HBase、Spark、Kafka、Flume、presto、alluxio等; 4.熟悉Nginx、kafka、postgres、redis、nacos等中间件产品中的一项或多项; 5.熟悉数据库性能优化、SQL调优,包括但不仅限于MySQL、Redis、Clickhouse等; 6.有开发经验优先,精通一门以上脚本语言(shell/perl/python等),熟练掌握linux常规命令与工具,具有简单的Shell脚本编写能力; 7.拥有Hadoop相关证书者优先考虑,拥有超大规模Hadoop集群维护经验者优先;拥有安全类认证证书者优先; 8.具备基本的系统安全基础; 9.具备良好独立思考,解决问题的能力。
  • 8k-12k 经验1-3年 / 本科
    数据服务,金融 / 上市公司 / 150-500人
    职位描述: 1、Hadoop集群运维管理,并且对Hive、impala等组件熟悉并且能够熟练运用; 2、能够独自搭建Hadoop集群; 3、熟悉storm、kafka、spark等热门组件,并且可以对其进行部署和开发; 任职要求: 1、掌握数据库(DB2、Mysql、Oracle)等数据库的原理。 2、能够熟练编写存储过程,并且对SQL非常的熟悉,能够进行sql编写开发及优化 3、有数据库相关工作经验2年左右工作经验 4、了解JavaA、SCALA开发语言,并且熟练使用Linux操作系统,可以熟练编写Linux-shell脚本程序