• 15k-30k 经验5-10年 / 本科
    企业服务 / D轮及以上 / 500-2000人
    岗位职责: 1、负责公司业务的运维工作,提升业务稳定性和工程效率,保持与业务方的高效沟通,建立良好的合作关系; 2、负责中间件运维,提升基础组件和平台的服务化能力与稳定性; 3、负责运维平台的规划、建设与开发,建立和完善规范化的运维服务体系; 4、负责线上重大问题排查,紧急事故处理,后续事故分析与优化; 5、持续推动业务质量提升:SLA、多活容灾、故障演练、监控告警、容量管理; 6、业务服务端架构的高可用设计和性能优化,保证高效、可靠的业务迭代。 任职要求: 1、熟悉Linux系统运维和性能优化,精通TCP/IP、HTTP协议原理; 2、熟练掌握Nginx、Tomcat、SpringCloud等常用WEB中间件的维护与使用; 4、熟悉Golang、Python、Shell、Lua至少一门编程语言,并实际开发过运维项目; 5、熟悉Docker与Kubernete的原理与运维,有实际的容器化经验者优先; 6、良好的Troubleshouting思路与经验,能够快速解决线上事故; 7、熟悉高并发、高可用、微服务系统架构运维者优先。
  • 12k-24k 经验不限 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、负责在工作现场进行软件的安装部署、配置和调试等工作; 2、负责对客户的使用、操作以及维护等相关培训、进行项目验收等工作; 3、 负责软件系统的维护工作、解决系统使用中客户碰到的问题; 4、负责公司产品实施阶段的测试及产品 BUG 的提交,与研发沟通解决相关问题; 5、收集与分析客户需求,并定期为客户进行系统巡检。 职位要求: 1、 具有两年以上大型 IT 系统实施和运维相关经验; 2、 熟悉 Linux/Unix 系统、网络、硬件等相关知识,具有很强的 Troubleshooting 能力; 3、能够完成 Hadoop、Nginx、Redis、MySQL等开源系统的部署; 4、 至少使用过一种自动化部署工具:Ansible、Saltstack、Chef、Puppet、Terraform 等; 5、 至少熟悉一种脚本语言:Shell、Python 等; 6、 对云平台有一定的了解,有 Aliyun/AWS 等使用经验者优先; 7、熟悉 Docker、K8S/Istio 等容器技术和工具者优先; 8、具有良好的沟通、组织与协调的能力,有一定的抗压能力,能够接受出差。
  • 30k-60k 经验不限 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责:1、负责商业化OLAP引擎稳定性保障工作,提升服务SLA标准;2、参与设计并实现商业化OLAP引擎自动化运维平台,及其日常需求开发;3、深入理解系统痛点,响应并推动预案建设,容灾体系建设,技术项目推进落地等事宜,持续提升研发效率和服务稳定性。职位要求:1、本科及以上学历, 计算机相关专业, 2年以上大数据平台运维经验;2、熟悉Java编程,掌握至少一种脚本语言:python/shell 等;3、具备良好的问题分析与解决能力,有较强的逻辑思维能力,责任心强;4、熟悉 Linux 操作系统的基础运维,有 ElasticSearch、Druid 等大数据引擎运维或使用经验者优先。
  • 30k-50k·15薪 经验5-10年 / 本科
    金融 / 上市公司 / 500-2000人
    岗位职责: 1、负责公司大数据平台的部署、管理、优化、监控报警。持续对大数据平台进行优化; 2、负责大数据平台日常运维管理、服务监控、故障处理、集群性能和资源利用率优化,集群常见问题能迅速定位,为开发人员提供技术支持; 3、负责大数据平台服务器配置选型、集群网络优化等相关工作; 4、深入理解公司大数据平台架构,发现并解决性能瓶颈,支撑业务和数据量的快速增长; 5、建设大数据运维监控告警体系,完善和落地告警指标和巡检; 6、有超过500台以上NM,DN节点以上维护经验,并对存储生命周期管理和任务治理及分析有工作经验。 任职资格: 1、熟悉Linux(redhat/centos)软硬件环境、系统管理和优化,熟练部署、优化各种常用服务; 2、熟悉Hadoop大数据生态圈,包括但不限于CDH/HDFS/YARN/Hive/Hbase/zookeeper/Spark等; 3、熟练掌握Hadoop组件的安装部署、升级扩容、性能监控以及配置调优; 4、熟悉shell、python、java语言,并有过编写大数据日常运维工具的经验; 5、有大数据监控体系落地、存储和任务治理工作等有较深经验优先考虑; 6、有大数据开发经验和阅读源码能力者优先。
  • 13k-18k·14薪 经验1-3年 / 本科
    硬件 / 上市公司 / 2000人以上
    岗位职责: 1.负责大数据运维体系搭建及大数据平台各个组件的运维工作和合理规划集群 2.负责集团内部大数据运维 3.负责Flink CDP、ClickHouse、Datamax的运营管理,容量规划,集群扩容,服务监控,组件优化 4.负责Flink CDP、ClickHouse、Datamax的异常与故障处理,故障报告整理,保持平台持续稳定运行 5.负责Flink CDP、ClickHouse、Datamax的服务运营分析,制定优化方案,编写相关技术技术文档 6.负责自动化运维与部署工具和模块的管理和开发 任职要求: 1.本科以上学历,计算机相关专业,1年以上大数据系统运维经验 2.熟悉中间工作原理,对redis,ngnix,kafka有一定了解,具有一定操作能力 3.熟悉hadoop生态圈,包括但不限于CDH,Hadoop,Doris,hive,Hbase,Yarn,Spark,Kafka,Presto,ClickHouse等组件的工作原理,且有运维与优化经验 4.熟悉Liunx系统管理和优化,熟练部署,优化各种常用服务,熟悉dolphin-scheduler调度系统 5.熟悉shell,具备java,python,go等语言开发能力,具备运维工具开发能力 6.有自动化运维平台建设和开发经验优先。
  • 20k-35k 经验5-10年 / 本科
    物流丨运输 / 上市公司 / 2000人以上
    岗位职责 1. 负责大数据组件的系统运维和运维开发,保证其高可用和稳定性。 2. 负责大数据组件的可运维性设计、容量规划、服务监控,持续优化服务架构、集群性能调优。 3. 通过技术手段控制和优化成本,通过自动化工具及流程提升大数据平台运维效率。 4. 支撑开发人员在使用大数据技术指导及解决大数据平台应用中遇到的技术难题。 5. 梳理优化业务使用集群的流程及规范,使集群使用在资源利用、质量等方面满足要求。 6. 对系统进行风险管控,建立有效的机制来预防系统性风险。 任职要求 1、计算机专业优先,2年以上开发经验,1年以上大型平台项目运维经验. 2、有dorisdb或tidb运维的经验。了解相关运行机制,数据存储原理,运维调优命令。 3、熟悉Java或Scala,掌握高性能程序设计方法,有高并发应用开发经验。有处理OOM经验。 4、 熟悉Linux系统,能够熟练使用shell/python脚本处理工具,熟练排查linux常见问题和故障。 5、深入理解Hdfs/Hive/Spark/HBase/Yarn的内部运行机制,运维命令,调优方法。 6、Kafka/tidb/dorisdb/Presto/Redis熟悉其中一种到多种运维方法。 7、熟悉Prometheus,grafana监控的配置方法,熟悉exporter,gateway,agent,altermanager的配置方法。 8、熟悉freeIPA,ldap,KERBEROS等安全组件。
  • 15k-30k·13薪 经验1-3年 / 本科
    IT技术服务|咨询,软件服务|咨询 / 不需要融资 / 2000人以上
    工作职责: 主要工作职责+++++++ 1、负责雁飞智连平台(CMP)的日常巡检维护、平台健康程度分析、告警处理,及时发现系统问题,并进行通报以及生产现网投诉工单查证处理工作; 2、负责持续完善系统运维监控系统,参与监控系统的持续开发; 3、负责重大活动值班保障、系统临时扩容、环境安装、版本升级部署及维护工作; 4、负责平台紧急故障定位分析及快速恢复; 5、负责制定各类故障处理预案并持续更新; 6、运维文档的建立、维护、更新; 任职资格: 岗位资格条件+++++ (一)必要条件:*必填 工作经验:+具备2年以上大数据平台的运维经验 学历要求:+本科及以上 年龄要求:32周岁以内 专业知识及能力要求: 1、负责公司大数据平台的搭建、运维、性能优化、监控报警、故障处理,保障平台的稳定可用。 2、熟悉Hadoop生态圈,掌握Hadoop、Hive、Hbase、Spark、ES、Kudu的原理,部署,维护和调优,有过CDH或者Ambari运维优先。 3、掌握Linux环境的配置和优化,至少掌握java/shell/python语言的一种。 4、熟悉Mysql、Redis数据库运维优先。 5、具有独立的故障排查能力和深入分析解决问题能力。 6、工作态度积极,工作作风踏实,重视流程规范,良好的沟通能力和团队合作精神。(二)可选条件: 有以下技能者优先考虑: 1、有大数据相关认证 2、有数据库相关证书
  • 20k-25k 经验3-5年 / 本科
    营销服务|咨询,软件服务|咨询 / 不需要融资 / 2000人以上
    岗位职责: 1、负责云服务器资源分配、环境搭建、网络规划等工作。 2、大数据相关组件的安装、集群部署、性能调优 3、服务器资源监控、应用监控与预警。 4、快速响应报警信息,快速处理和分析故障原因 任职资格: 1、计算机相关专业,2年以上大数据运维相关经验。 2、熟悉HADOOP生态,具有CLICKHOUSE、CDH、HDFS、YARN、HIVE、Hbase、Kafka、Spark等大数据系统的部署运维经验; 3. 熟悉linux操作系统,熟悉基本的操作命令,精通Shell、Python等至少一种脚本语言,能熟练脚本来完成日常系统运维等工作; 4. 熟练业界主流技术架构,Nginx、Tomcat、MySQL、Redis、微服务架构等; 5. 对网络及服务器有一定了解; 6. 有系统故障排查和解决经验,突出的分析和解决问题能力;
  • 20k-35k 经验5-10年 / 本科
    汽车丨出行 / 上市公司 / 2000人以上
    职位描述 1. 负责大数据平台的运维,包括部署、管理、优化等,保障平台稳定运行; 2. 负责大数据集群的架构升级、容量规划、资源管理、成本优化、业务管控; 3. 理解大数据平台架构和业务流程,发现并解决系统问题或瓶颈; 4. 开发自动化运维、监控报警、故障处理脚本和工具,优化整个运维的流程; 岗位要求: 1. 本科及以上学历,5年以上规模集群管理和运维经验; 2. 熟悉Linux操作系统,熟悉TCP/IP基本原理,有系统调优经验; 3. 掌握Shell、Python等至少一门常见脚本语言; 4. 熟悉常用的监控工具,熟悉自动化运维工具(如Saltstack/Ansible/Puppet等),有二次开发能力者优先; 5. 熟悉hadoop/hbase/elasticseach等大数据组件的架构及基本原理; 6. 对运维体系有一定认识,善于思考总结,做事积极主动,责任心强、细心谨慎,能独立解决问题。
  • 13k-18k·14薪 经验1-3年 / 本科
    硬件 / 上市公司 / 2000人以上
    岗位职责: 1.负责大数据运维体系搭建及大数据平台各个组件的运维工作和合理规划集群 2.负责集团内部大数据运维 3.负责Flink CDP、ClickHouse、Datamax的运营管理,容量规划,集群扩容,服务监控,组件优化 4.负责Flink CDP、ClickHouse、Datamax的异常与故障处理,故障报告整理,保持平台持续稳定运行 5.负责Flink CDP、ClickHouse、Datamax的服务运营分析,制定优化方案,编写相关技术技术文档 6.负责自动化运维与部署工具和模块的管理和开发 任职要求: 1.本科以上学历,计算机相关专业,1年以上大数据系统运维经验 2.熟悉中间工作原理,对redis,ngnix,kafka有一定了解,具有一定操作能力 3.熟悉hadoop生态圈,包括但不限于CDH,Hadoop,Doris,hive,Hbase,Yarn,Spark,Kafka,Presto,ClickHouse等组件的工作原理,且有运维与优化经验 4.熟悉Liunx系统管理和优化,熟练部署,优化各种常用服务,熟悉dolphin-scheduler调度系统 5.熟悉shell,具备java,python,go等语言开发能力,具备运维工具开发能力 6.有自动化运维平台建设和开发经验优先。
  • 25k-35k·13薪 经验不限 / 不限
    旅游|出行 / D轮及以上 / 500-2000人
    岗位职责 负责大数据平台基础服务的运维,构建完善的服务指标监控及告警机制; 负责大数据平台服务器资源的统一管理,优化资源使用率,参与大数据平台规划设计; 负责大数据运维自动化体系搭建、提升故障响应能力,提高平台稳定性; 负责数据任务运维,保障数据产出的时效性; 负责商业大数据软件服务的部署及维护; 任职要求 本科及以上学历,计算机相关专业,具备2年以上运维经验; 熟悉Linux/Unix系统、网络、硬件等相关计算机基础知识,具备快速定位处理故障的能⼒; 熟练掌握prometheus和grafana的监控数据采集、看板及告警配置; 熟悉Hadoop大数据生态,包括但不限于Hadoop、Hive、Spark、Hbase、Flink、Doris、Starrocks、Clickhouse、Kafka等组件; 至少熟悉Shell/Golang/Python/Java其中一种开发语言,具有良好的开发能⼒,能够独⽴完成脚本或⼯具的开发; 良好的沟通和协调能力、极强的业务推动能力、强烈的责任心,熟悉AWS、阿里云等公有云服务运维优先;
  • 20k-35k 经验3-5年 / 本科
    移动互联网,金融 / 上市公司 / 2000人以上
    岗位职责: 1、负责Hadoop、Hive、Hbase、Spark等大数据平台的规划、部署、监控、优化; 2、负责大数据平台的运营管理、方案评审、组件优化; 3、负责大数据平台的异常与故障处理,应急响应,保障平台持续稳定运行; 4、持续跟踪业界技术发展动态,并结合业务发展需要,研究引入新兴技术。 任职要求: 1、熟悉Hadoop大数据生态圈,熟悉Hive、Hbase、Yarn、Spark、kafka等组件的工作原理,并且有实际部署运维经验; 2、深入理解Linux系统,熟悉运维体系架构; 3、熟悉shell脚本及Python编程; 4、具备良好的团队协作意识与主动意识。 优先考虑: 有自动化运维平台构建经验或Hadoop组件源码阅读与分析能力者。
  • 15k-30k·15薪 经验3-5年 / 本科
    信息安全,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1、负责大数据/Hadoop/storm/spark/OLAP等平台的建设和运维; 2、负责公司大数据自动化运维以及数据化运营平台开发工作; 3、负责Hadoop/Hbase等系统业务监控、持续交付、应急响应、容量规划等; 4、为平台的稳定、高效运行负责,支撑公司业务快速发展。 岗位要求: 1、计算机相关专业本科以上学历,有2年以上相关工作经验; 2、掌握Linux操作系统的配置,管理及优化,能够独立排查及解决操作系统层的各类问题; 3、掌握Hadoop, Kafka, Zookeeper, flink、ambari等常用开源组件的安装与调试; 4、至少精通Python或Bash脚本语言; 5、具有现场布署、软件安装、现场培训的能力; 6、具有良好的语言组织能力, 沟通能力和学习能力; 7、工作积极主动,有较强责任心,抗压能力强,需出差。
  • 15k-30k·15薪 经验5-10年 / 本科
    数据服务|咨询,人工智能服务 / 上市公司 / 500-2000人
    工作职责: 1、负责TeleDB主流数据库产品(基于MySQL、PostgreSQL、TiDB、Redis、MongoDB多款中的其中两款及以上)的日常运维支撑工作; 2、负责客户数据库问题响应、数据安全、基本性能优化及故障处理等工作; 3、负责生产系统数据库的日常管理,监控,维护等基本工作; 4、协助制定并维护数据库系统的巡检策略,能够探查系统潜在问题和瓶颈,并提出有效的改进措施; 5、负责对一二线运维工程师进行产品赋能培训,有效提升团队运维能力; 6、协助团队制定数据库运维管理流程及规范,不断健全产品线运维体系。 任职资格: 1、全日制统招本科及以上学历,电子信息工程 、通信工程、计算机科学与技术、网络工程、软件工程 、计算机软件等相关专业; 2、五年及以上运维经验,具有数据库运维相关经验优先; 3、熟悉常用数据库如MySQL、PostgreSQL、TiDB其中一种或者多种数据库相关原理、部署、运维经验优先; 4、具备自动化部署脚本的使用和维护能力; 5、诚实守信、作风踏实严谨、责任心强,具备良好团队协作能力精神,学习能力强,善于解决复杂问题; 6、35周岁(含)以下,身心健康; 7、过往工作业绩优秀,或有知名互联网/IT、云服务头部企业工作经验者,年龄、工作年限可适当放宽。
  • 50k-80k·16薪 经验10年以上 / 本科
    社交 / 上市公司 / 2000人以上
    岗位职责 负责公司大数据、容器平台业务运维,保障业务稳定; 负责运维团队管理,以及运维体系规划建设,持续提升服务质量、运维效能; 负责跨团队沟通,持续推动系统架构、服务模式的持续演进及迭代; 负责新技术调研及落地,带领团队解决海量业务面临的各种挑战。 岗位要求 本科及以上学历,3年以上团队管理经验; 精通Linux系统,熟悉大规模分布式系统,熟悉主流虚拟化技术与开源组件架构,熟悉业内常用的监控解决方案; 具备运维相关流程、工具、平台建设的能力,具备识别共性/重复性问题并转化为开发需求,实现通用性的运维平台或服务的能力,有DevOps实践经验; 熟悉集群高可用性和容灾方案,有海量系统运维和调优项目经验,有较好的成本优化经验,能出具系统优化的整体解决方案; 具备良好的开发经验,有实际的运维系统、自动化系统的建设经验; 有技术热情,关注运维技术发展方向,并具备良好的沟通以及协同能力。