• 8k-12k 经验3-5年 / 大专
    IT技术服务|咨询 / 未融资 / 50-150人
    岗位职责: 1、负责公司服务器、网络设备和软件系统的日常管理和维护。 2、负责项目集群的搭建、部署、监控、性能调优、升级、日常维护和管理工作。 3、负责项目备份、监控、应急响应、故障预警与排除等。 4、监控系统性能,定期进行性能调优和容量规划。 5、建立支撑持续集成和持续部署(CI/CD)流程。 6、编写和更新系统文档,制定和优化运维相关标准和流程。 岗位要求: 1、**大专学历,3年及以上的相关工作经验,熟悉基本网络原理。 2、熟练掌握Linux操作系统配置、维护和优化,有信创系统经验者优先。 3、熟练掌握mysql、mongodb、redis集群搭建、性能优化及备份恢复等技术。 4、熟悉Jenkins持续集成过程和工具链的配置,包括Jenkins流水线设计,Sonar、Nexus等常用工具的集成和配置等。 5、精通shell、python中至少一门脚本语言,熟练运用脚本做自动化处理; 6、熟悉自动化运维工具使用者优先,如:ansible、puppet等。 7、熟悉容器化技术,能编写dockerfile;熟悉K8S架构和基础组件概念与原理,具备容器编排运维能力者优先。
  • 25k-35k 经验5-10年 / 本科
    居住服务 / C轮 / 2000人以上
    工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
  • 15k-22k 经验不限 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
  • 20k-35k 经验5-10年 / 本科
    汽车丨出行 / 上市公司 / 2000人以上
    职位描述 1. 负责大数据平台的运维,包括部署、管理、优化等,保障平台稳定运行; 2. 负责大数据集群的架构升级、容量规划、资源管理、成本优化、业务管控; 3. 理解大数据平台架构和业务流程,发现并解决系统问题或瓶颈; 4. 开发自动化运维、监控报警、故障处理脚本和工具,优化整个运维的流程; 岗位要求: 1. 本科及以上学历,5年以上规模集群管理和运维经验; 2. 熟悉Linux操作系统,熟悉TCP/IP基本原理,有系统调优经验; 3. 掌握Shell、Python等至少一门常见脚本语言; 4. 熟悉常用的监控工具,熟悉自动化运维工具(如Saltstack/Ansible/Puppet等),有二次开发能力者优先; 5. 熟悉hadoop/hbase/elasticseach等大数据组件的架构及基本原理; 6. 对运维体系有一定认识,善于思考总结,做事积极主动,责任心强、细心谨慎,能独立解决问题。
  • 20k-35k 经验3-5年 / 本科
    移动互联网,金融 / 上市公司 / 2000人以上
    岗位职责: 1、负责Hadoop、Hive、Hbase、Spark等大数据平台的规划、部署、监控、优化; 2、负责大数据平台的运营管理、方案评审、组件优化; 3、负责大数据平台的异常与故障处理,应急响应,保障平台持续稳定运行; 4、持续跟踪业界技术发展动态,并结合业务发展需要,研究引入新兴技术。 任职要求: 1、熟悉Hadoop大数据生态圈,熟悉Hive、Hbase、Yarn、Spark、kafka等组件的工作原理,并且有实际部署运维经验; 2、深入理解Linux系统,熟悉运维体系架构; 3、熟悉shell脚本及Python编程; 4、具备良好的团队协作意识与主动意识。 优先考虑: 有自动化运维平台构建经验或Hadoop组件源码阅读与分析能力者。
  • 金融 / 未融资 / 2000人以上
    职责描述: 1、负责大数据运维体系搭建及大数据平台各个组件的运维; 2、负责大数据平台及相关组件的部署和维护,保证其稳定运行; 3、负责完善大数据平台运维监控工作。 任职要求: 1、本科或本科以上学历,计算机相关专业,3年以上大数据系统运维经验; 2、熟悉Windows/Linux操作系统; 3、熟悉Hadoop、Hive、Hbase、Yarn、Spark等组件的原理及运维方式; 4、熟悉中间件工作原理,对Tomcat/Redis/Nginx/Kafka有一定了解,具备一定的操作能力; 5、至少熟悉Java/PHP/Python/Bash/Shell一种或多种语言,可独立编写维护及监控; 6、工作细致、善于思考,有很强的问题分析和推进解决的能力; 7、有强烈的责任心、良好的沟通协调能力、极强的业务推动能力,勇于接受挑战; 8、良好的英文听说读写交流能力,能使用英语作为工作语言。
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 企业服务 / 未融资 / 15-50人
    岗位职责: 1、负责HDFS、HBase、Hive、Yarn、Flume,Kafka、ES等大数据平台的规划、部署、监控和系统优化等工作; 2、负责Hadoop平台的用户管理、权限分配、资源分配; 3、负责Flink集群的部署维护、资源调度及任务上线等; 4、负责Airflow、Azkaban等大数据任务调度平台的部署、维护、开发支持等; 5、处理大数据平台各类异常和故障,确保系统平台的稳定运行; 6、研究业界前沿的大数据运维技术,负责各种运维工具和系统的设计开发; 任职要求: 1、本科以上学历,计算机或相关专业,具备至少3年以上hadoop及相关组件的运维经验; 2、掌握HDFS、HBase、Kafka、Hive、Yarn、Flink、ES等组件的工作原理; 3、熟练掌握至少一种脚本语言(Shell、Python、Java); 4、对Hadoop各组件的权限、安全、Kerberos有一定的经验; 5、熟悉MapReduce算法,能够编写和提交分布式计算任务; 6、对分布式开源项目有技术兴趣,能跟踪Hadoop开源社区的发展方向,自学能力较强,不断改进和优化集群; 7、具备高度的责任心,较强的故障分析及排除能力; 8、具备良好的团队合作精神,工作认真、细心、虚心好学、沟通能力好。
  • 25k-50k 经验3-5年 / 本科
    企业服务 / 未融资 / 15-50人
    岗位职责 1、负责HDFS、HBase、Hive、Yarn、Flume,Kafka、ES等大数据平台的规划、部署、监控和系统优化等工作; 2、负责Hadoop平台的用户管理、权限分配、资源分配; 3、负责Flink集群的部署维护、资源调度及任务上线等;  4、负责大数据任务调度平台的部署、维护、开发支持等;  5、处理大数据平台各类异常和故障,确保系统平台的稳定运行;  6、研究业界前沿的大数据运维技术,负责各种运维工具和系统的设计开发; 任职要求 1、本科以上学历,计算机或相关专业,具备至少3年以上hadoop及相关组件的运维经验;  2、掌握HDFS、HBase、Kafka、Hive、Yarn、Flink、ES等组件的工作原理;  3、熟练掌握至少一种脚本语言(Shell、Python、Java);  4、对Hadoop各组件的权限、安全、Kerberos有一定的经验;  5、熟悉MapReduce算法,能够编写和提交分布式计算任务;  6、对分布式开源项目有技术兴趣,能跟踪Hadoop开源社区的发展方向,自学能力较强,不断改进和优化集群;  7、具备高度的责任心,较强的故障分析及排除能力;  8、具备良好的团队合作精神,工作认真、细心、虚心好学、沟通能力好。
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 12k-18k 经验3-5年 / 本科
    数据服务 / 上市公司 / 500-2000人
    岗位职责: 1、利用大数据相关技术,根据业务需求,对海量数据进行处理、分析、统计等; 2、数据组件性能调优运维及问题解决。 任职要求: 1、计算机及相关专业毕业,三年以上相关工作经验; 2、熟悉Java语言,精通SQL,熟悉至少一种主流数据库MySQL等; 3、熟悉Linux系统及常用命令,熟悉Shell脚本编程; 4、熟悉大数据生态圈,不限于HDFS、Hive、Hbase、Redis等组件,有Spark相关经验更优; 5、具有良好的沟通能力,工作态度积极主动,有良好的团队合作意识。
  • 14k-25k 经验5-10年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    1、负责运维项目的管理、实施、沟通等工作,确保项目达标 2、对系统中数据和业务流程进行全面监控,包括自动化监控系统的搭建和使用,并对出现的异常现象进行定位、处置与预防; 3、参与系统的安保工作,确保系统正常运行; 4、和公司研发人员及客户系统负责人进行协同沟通,将客户的需求进行有效传达; 5、负责处理客户的投诉、咨询和答疑; 6、负责版本的迭代更新、上线验证; 1、本科及以上学历,三年以上运维经验。 2、熟悉Java、C/C++、go 中至少一种语言 ; 3、精通shell脚本、精通Python语言; 4、熟练使用 ansible 等自动化运维工具; 5、具备丰富的linux服务器操作和管理经验 ; 6、精通 mysql/postgres/高斯数据库的部署、管理、配置、调优、维护和高可用集群的搭建,擅长编写SQL; 7、精通常见大数据框架,包括:hdfs yarn hive hbase spark flink 等,具备独立规划、搭建、维护、调优大数据集群的能力 ; 8、精通 k8s 、docker、CI/CD 的部署、管理、配置、调优、维护; 9、具备丰富的运维管理经验; 10、to G 或 to 大B的从业经验优先考虑,例如:运营商行业、政府行业、金融行业、公安行业等;
  • 16k-28k 经验3-5年 / 本科
    人工智能服务,科技金融 / 不需要融资 / 500-2000人
    岗位职责: (1)参与兴业银行大数据平台湖仓一体、存算分离、流批一体等前沿技术的基础架构体系规划与研究,并推动落地实施; (2)负责兴业银行大数据平台运维保障,存储、计算等各类组件性能调优,以提升平台稳定性; (3)协助兴业银行大数据平台信创迁移与相关系统改造、适配等工作; (4)联系上下游业务需求方与应用开发团队,对接协调大数据平台使用、建设、推广相关工作。 岗位要求: (1)熟悉大数据生态体系中分布式存储、缓存、高并发等底层技术协议与原理; (2)具有海量数据计算组件(Hive、Spark),OLAP查询引擎(Clickhouse、Presto、Doris等)故障排查与优化经验,有源码阅读与调试经验优先; (3)熟练掌握Flink等主流大数据组件原理及应用,具有Hudi或Iceberg等流批一体相关组件应用经验; (4)熟悉Docker、K8s等容器化、大数据组件云原生相关技术。 工作地点:上海
  • 30k-50k·14薪 经验5-10年 / 本科
    金融 / 上市公司 / 500-2000人
    岗位职责: 1、负责大数据集群CDH(Hadoop、 Hive、HBase、Spark)、Presto、ClickHouse的日常维护,包括集群的规划、部署、监控、故障处理、复盘优化等; 2、保障大数据集群的健康度,性能优化调整,体系化的解决方案,构建服务客观可观测能力,保障大数据服务高可用,提高资源使用率; 3、建立运维自动化能力提效,配合数据架构师研究和应用大数据新架构技术,突破算力边界。 任职要求: 1、本科及以上学历,5年以上大数据运维经验; 2、熟悉CDH、HDFS、Yarn、Hive、Presto、Prometheus技术栈,深入了解原理和常规操作; 3、熟悉大数据组件的指标监控、容量规划、性能优化、监控等; 4、有技术的热情,对方案严谨,有owner的担当和主动性。
  • 30k-45k·14薪 经验5-10年 / 本科
    移动互联网,广告营销 / 上市公司 / 2000人以上
    工作职责: 负责搜狐视频商业化的数据平台建设工作,包括: 1.负责数据平台、数据治理系统设计与搭建; 2.负责数据仓库建设、ETL开发、工作流任务优化以及解决相关技术问题; 3.负责行为日志、推荐策略和商业广告数据业务需求对接、数据分析与任务开发。 职位要求: 1.**本科及以上学历,计算机或相关专业优先;3年以上大数据开发、数据分析与处理经验,熟悉互联网产品运营和商业业务; 2.精通Scala/Java语言开发,熟悉Shell、Python等脚本开发,熟悉Linux系统; 3.熟悉大数据生态,精通Hadoop、Kafka、Spark、Flink技术,完成离线或实时大数据仓库设计与开发; 4.掌握数据建模理论,精通SQL开发与性能调优,熟练使用Hive、Doris等数据库组件; 5.有大型数据平台实际建设经验,在数据采集、数据开发、数据分析、数据建模等方面有深刻认识和实践经验; 6.有复杂业务系统的抽象设计能力,能独立对接业务需求和解决业务与技术问题; 7.具有良好的逻辑思维、表达和沟通能力,具备良好的团队合作精神,有较强的承压能力和工作责任心。