• 金融业 / 未融资 / 500-2000人
    工作职责: 1、负责核心交易系统、交易所报盘行情的日常运维及跟进交易所登记公司新业务新技术的相关改造,以及未来新一代交易系统的建设等; 2、作为现有集中交易和融资融券管理员的备岗,同时协助推进新项目的建设及项目的合同签署、验收、付款等; 3、配合新一代交易系统的建设; 4、领导交办的其他工作。 任职资格: 1、***硕士研究生及以上学历,经济、金融、财务、管理、法学、统计、计算机、信息管理、自动化、工程管理、数学等相关专业,具备2年以上相关岗位工作经验者学历可放宽至***本科,年龄不超过35岁; 2、精通计算机,熟悉证券业务,丰富的证券行业IT管理经验优先; 3、具有证券系统运维管理1年及以上经验; 4、通过证券从业资格考试; 5、具有高度的责任心和良好的团队合作精神,工作积极主动、有韧性,能够适应较强的工作强度和工作压力。
  • 8k-15k 经验3-5年 / 本科
    人工智能服务,数据服务|咨询 / A轮 / 150-500人
    工作内容: 大数据软件适配测试: 1.各组件的高可用和负荷分担的配置和部署测试验证; 2.不同组件间不同版本间的兼容性测试验证; 3.各组件和不同操作系统间的兼容性测试验证; 4.各组件和不同主机环境间的兼容性测试验证; 大数据软件性能调优和故障外理: 1.理解大数据组件的运行机制,当现场组件出现故障时,可以辅助支持解决故障,恢复业务; 2.通过多种测试验证,确认不同的大数据组件各自的最佳实践的使用场景; 3.在不同的业务数据使用场景中,对各组件的不同参数进行调整,从而达到处理和资源使用的最佳状态; 大数据集群管理工具开发: 1.实现大数据各组件的(半) 自动化安装部署升级的操作,从而提升工作效率; 2.实现大数据各组件运行状态的监控和告警,及其监控指标的可视化展现; 岗位要求: 1.熟练使用Linux/大数据各组件/传统关系型数据库; 2.熟练大数据各组件的安装部署和性能调优; 3.精通shell/python等脚本开发语言;
  • 20k-25k 经验3-5年 / 本科
    营销服务|咨询,软件服务|咨询 / 不需要融资 / 2000人以上
    岗位职责: 1、负责云服务器资源分配、环境搭建、网络规划等工作。 2、大数据相关组件的安装、集群部署、性能调优 3、服务器资源监控、应用监控与预警。 4、快速响应报警信息,快速处理和分析故障原因 任职资格: 1、计算机相关专业,2年以上大数据运维相关经验。 2、熟悉HADOOP生态,具有CLICKHOUSE、CDH、HDFS、YARN、HIVE、Hbase、Kafka、Spark等大数据系统的部署运维经验; 3. 熟悉linux操作系统,熟悉基本的操作命令,精通Shell、Python等至少一种脚本语言,能熟练脚本来完成日常系统运维等工作; 4. 熟练业界主流技术架构,Nginx、Tomcat、MySQL、Redis、微服务架构等; 5. 对网络及服务器有一定了解; 6. 有系统故障排查和解决经验,突出的分析和解决问题能力;
  • 25k-35k·14薪 经验5-10年 / 本科
    数据服务|咨询,人工智能服务 / 不需要融资 / 150-500人
    岗位职责 1、负责大数据平台的规划、部署、维护、管理、优化,包括但不限于HDFS、HBase、YARN、Hive、Spark、Kafka、Zookeeper等组件; 2、负责保障大数据平台的稳定性、可靠性、安全性及持续可用性;负责大数据集群的性能分析和优化调整; 3、负责大数据平台的日常巡检和定期深度巡检;开发监控报警平台; 4、建立大数据平台运维管理规范;建设自动化部署及运维工具; 5、深入研究大数据分布式存储与计算相关运维技术,持续优化集群服务。 任职要求 1、***本科以上学历,计算机相关专业;4年以上大数据平台运维经验; 2、熟练掌握Hadoop/HBase/Hive/Spark/Kafka/Zookeeper等组件的部署、配置、优化、扩容,了解各组件的内部运行原理; 3、掌握Linux操作系统的配置和管理;熟练掌握Python或Shell脚本编程语言; 4、熟悉CDH大数据平台及Cloudera Manager管理平台且有相应的部署和运维经验者优先; 5、具备较强的沟通技巧、团队合作能力、抗压能力;热爱技术并善于钻研,能主动思考,有解决疑难问题的毅力和决心。
  • 10k-20k 经验1-3年 / 本科
    企业服务,数据服务 / 不需要融资 / 150-500人
    岗位职责: 1.负责内部大数据平台的日常运维管理; 2.利用大数据平台完成相关的数据分析及开发工作; 3.参与数据平台相关技术方案的设计和项目实施; 4.负责国家域名运行平台的7*24小时日常运维工作。 任职资格: 1.本科以上学历,计算机、软件工程、通信电子、自动化、信息安全等相关专业;中共党员优先; 2.年龄35周岁以下; 3.2年以上相关工作经验,优秀应届毕业生可以考虑;有互联网行业从业背景、大数据平台使用经验或优秀开源项目经验者优先; 4.熟悉Hadoop或Spark大数据平台生态相关技术,包括MapReduce、hdfs、Hive、Spark等,熟悉传统Oracle或MySQL数据库相关技术内容; 5.具有一定编程经验,熟悉Python,Java等一门或多门编程语言,有良好、规范的编程习惯和文档编写习惯; 6.有大数据平台开发方面相关工作经验或具有海量数据处理经验,有互联网行业数据挖掘工作经验者优先; 7.有较强的学习能力,对技术有钻研精神,并有较高的热情,热衷于新技术、新理论、新开发实践的学习和实践。
  • 30k-60k 经验不限 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责:1、负责商业化OLAP引擎稳定性保障工作,提升服务SLA标准;2、参与设计并实现商业化OLAP引擎自动化运维平台,及其日常需求开发;3、深入理解系统痛点,响应并推动预案建设,容灾体系建设,技术项目推进落地等事宜,持续提升研发效率和服务稳定性。职位要求:1、本科及以上学历, 计算机相关专业, 2年以上大数据平台运维经验;2、熟悉Java编程,掌握至少一种脚本语言:python/shell 等;3、具备良好的问题分析与解决能力,有较强的逻辑思维能力,责任心强;4、熟悉 Linux 操作系统的基础运维,有 ElasticSearch、Druid 等大数据引擎运维或使用经验者优先。
  • 20k-30k 经验3-5年 / 本科
    软件开发 / 不需要融资 / 50-150人
    职位描述: DataOps数据工程师将在地理上分散的运营团队中工作,该团队寻求沃尔沃数字分析和商业智能技术的持续改进。 通过自动化手动流程、优化数据交付和重新设计基础架构以提高可扩展性,寻求运营的持续改进。 提供符合内部 KPI 和客户 SLA 的服务。 确保整个组织遵循运营策略和标准。 与其他技术团队对接,利用云原生数据工程原则更快地维护高质量数据。 培养 DevOps 文化并参与开发冲刺、回顾、发布和部署。 建立和管理关系,以优化从构思到交付和维护的价值创造。 与工程师和产品经理协作,了解数据技术需求。 任职条件: 4 +多年的数据工程经验 具有 Python、SQL 和 Bash 脚本的经验 具有 AWS、Airflow、Snowflake、Docker 和 GitHub 的经验 了解 SDLC 和敏捷方法 了解测试驱动开发和 CI/CD 了解数据管理基础知识和数据存储原理 对云数据工程设计模式和用例的一般了解 计算机科学、数据科学、统计学、信息学、信息系统或相关领域的学士学位。
  • 20k-26k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 500-2000人
    岗位职责: 1.负责大数据业务集群的运维工作,资源配置、监控、故障处理、容量规划及性能优化。 2.设计实现完善的监控系统,对集群异常能够快速发现并定位原因。 3.推动大数据集群管理平台化,参与平台化的设计。 4.对业务线提供技术支持。; 任职要求: 1.掌握Linux操作系统的配置,管理及优化,能够独立排查及解决系统层的各类问题; 2.熟悉Hadoop/HBase/Hive/Spark/Kafka/Zookeeper等开源项目的安装与调试,升级扩容、优化、故障排查; 3.至少精通 Perl/Python/Shell/go脚本语言中的一种; 4.具备较强的逻辑思维能力、学习创新能力、数据分析能力,以及良好的沟通技巧和团队合作能力,性格开朗有较强抗压能力; 5.***本科以上学历,计算机相关专业,3年以上运维经验; 可选(加分项): 1.熟悉kudu、presto的维护者优先。
  • 25k-50k·14薪 经验5-10年 / 本科
    移动互联网,硬件 / 上市公司 / 2000人以上
    职位描述: - 数据平台建设与维护; - 数据平台部署与管理工具建设; - 数据平台日常故障处理; - 数据安全保障。 职位要求: - 熟悉主流开源数据组件,包括HDFS、YARN、Hive、Spark、Flink、Airflow、Flume、Presto、Kyuubi、ZK、Kafka等; - 至少使用过一种自动化部署工具:Ansible、Saltstack等; - 深入理解操作系统、计算机网络; - 至少了解一门语言(Python/Golang/Java等); - 良好的沟通能力以及较强责任心; - 深入理解Hadoop各组件的原理和实现,熟悉源码者优先; - 有身份认证、权限控制相关工作经验者优先, 如: LDAP、Kerberos、Sentry、Ranger等; - 有公有云(AWS, 腾讯云)管理和使用经验者优先; - 有大数据运维平台开发经验者更佳。
  • 25k-35k·13薪 经验不限 / 不限
    旅游|出行 / D轮及以上 / 500-2000人
    岗位职责 负责大数据平台基础服务的运维,构建完善的服务指标监控及告警机制; 负责大数据平台服务器资源的统一管理,优化资源使用率,参与大数据平台规划设计; 负责大数据运维自动化体系搭建、提升故障响应能力,提高平台稳定性; 负责数据任务运维,保障数据产出的时效性; 负责商业大数据软件服务的部署及维护; 任职要求 本科及以上学历,计算机相关专业,具备2年以上运维经验; 熟悉Linux/Unix系统、网络、硬件等相关计算机基础知识,具备快速定位处理故障的能⼒; 熟练掌握prometheus和grafana的监控数据采集、看板及告警配置; 熟悉Hadoop大数据生态,包括但不限于Hadoop、Hive、Spark、Hbase、Flink、Doris、Starrocks、Clickhouse、Kafka等组件; 至少熟悉Shell/Golang/Python/Java其中一种开发语言,具有良好的开发能⼒,能够独⽴完成脚本或⼯具的开发; 良好的沟通和协调能力、极强的业务推动能力、强烈的责任心,熟悉AWS、阿里云等公有云服务运维优先;
  • 30k-60k 经验不限 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、负责运维大数据平台产品原型、流程和交互设计,撰写产品需求文档; 2、了解DataOps领域的理论、应用、最佳实践,并将其应用到产品构建中; 3、与团队一起推动产品上线,获得用户认可与市场成功。 职位要求: 1、本科或以上学历,3年以上B端产品经验; 2、熟悉B端产品工作流程,有主导完成产品规划、需求调研、设计、推广应用及功能迭代的经历; 3、较强的需求管控能力,良好的跨部门沟通协调能力; 4、丰富的多源数据集成、指标建模、OLAP分析经验; 5、熟悉ELK、Splunk等业内成熟的运维大数据产品方案; 6、熟悉Kettle、Spark、Flink、Clickhouse等大数据套件。
  • 18k-32k 经验3-5年 / 本科
    电商,硬件 / 上市公司 / 150-500人
    岗位职责: 1、保障大数据集群高可靠、高效运行,构建大数据系统安全、明细化、自动化运维体系。 2、负责跟踪、处理集群漏洞,提出缓解漏洞的最佳方案。 3、深入理解公司大数据平台,及时处理集群故障,解决性能瓶颈。 4、支撑业务团队开展工作,协助定位线上问题。 任职要求: 1、计算机或相关专业本科以上学历,3年以上hadoop生态运维工作经验。 2、深入理解Linux系统,熟练shell或python脚本开发,熟练使用ansible开发脚本工具。 3、基于Hadoop的大数据体系有深入认识,不限于Hadoop、Hive、HBase、Spark、Flink、Kafka、ES、Clickhouse等大数据项目,具备集群搭建、管理、配置优化经验; 4、对系统层漏洞有相关修复经验,熟悉常用的安全协议和组件服务,了解hadoop各组件的权限、安全配置管理。 5、具备较强的troubleshooting能力,有较好的风险识别能力,具备大型集群运维经验优先。 6、有对象存储、容器化服务运维经验者优先。 7、有较强的抗压能力,能够承受一定程度上的值班工作。
  • 20k-30k 经验3-5年 / 本科
    移动互联网 / 不需要融资 / 500-2000人
    岗位职责: 1、负责集团海外大数据集群的运维,管理和优化,保障平台服务7*24稳定可靠高效运行; 2、深入理海外大数据平台架构,发现并解决性能瓶颈,支撑业务和数据量的快速增长; 3、不断优化大数据自动化运维、监控报警、故障处理相关脚本和工具,提升整体能效; 4、协助业务方,完成必要的合规检查支持,数据收集上报等 任职要求: 1、3年以上大数据平台运维相关工作经验,对离线数仓及实时数仓有丰富的运维经验。 2、 熟悉阿里云基础组件,熟练掌握大数据相关的dataworks、maxcompute、hologres等组件运维,有ACP认证优先 3、熟悉hadoop生态系统组件原理 4、熟悉Linux系统管理和优化,熟悉常用软件的部署,监控和网络控制,熟悉一门以上脚本语言(shell/python等) 5、有大数据开发经验优先,独立运维过大数据平台优先,了解数据治理优先 6、具备良好的服务意识,善于主动思考,自我驱动力强。有良好的沟通、协调能力,富有团队精神,有较强的文档编写能力
  • 20k-30k 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1、负责大数据平台 规划、部署、监控、系统优化等,确保高可用; 2、负责银行大数据平台的运维管理工作,集群容量规划、扩容及性能优化; 3、处理银行大数据平台各类异常和故障,确保系统平台的稳定运行; 4、设计实现大规模分布式集群的运维、监控和管理平台; 5、研究大数据业务相关运维技术,持续优化集群服务架构,探索新的大数据运维技及发展方向; 任职要求 1、掌握Linux操作系统的配置,管理及优化,能够独立排查及解决操作系统层问题,有debian经验者优先; 2、熟练掌握Python, C++中的至少一门语言,熟悉 Hadoop生态及生态圈组件; 3、熟悉大数据相关训练框架、消息队列、KV存储系统,了解大数据任务调度机制,有字节primus、BMQ、abase、tbase经验者优先; 4、熟悉埋点数据流,埋点数据标准化、数据清洗等流程,有字节databus、dorada经验者优先; 5、熟悉Prometheus/grafana等监控工具,有自动化运维实际使用经验; 6、本科及以上学历,3年以上工作经验,大数据运维工作经验不少1年。
  • 14k-21k·14薪 经验3-5年 / 本科
    电商平台,分类信息 / 未融资 / 50-150人
    岗位职责: 1.负责公司数据中台及相关产品、项目交付及运维工作。 2.根据项目规划,在制定交付工期内按时、按量的完成交付工作。 3.主动深入业务并理解文旅行业业务逻辑,完成各类数据指标体系制定与开发。 4.对接公司不同业务线的应用场景,抽象提炼数据体和产品建设思路和方向。 5.保障线上项目稳定性,负责线上故障处理,以及交付期间问题收集、问题反馈与推动。 6.负责数据中台产品的开发&测试&生产环境部署、管理及优化,保障项目研发交付进度。 7.负责公司大数据平台及项目日常运维,调优,异常处理。 任职资格: 1.计算机科学及相关专业,**本科及以上学历,三年以上大数据运维经验; 2.具有CDH、HDFS、 YARN、HIVE、Hbase.Kafka、Spark等大数据系统的运维经噪,有开发经验最佳; 3.深入理解Linux系统,运维体系结构; 4.熟悉HADOOP生态,有数据安全相关工作经验,并能对平台CPUMEMIO网络调度中一个或多个方面的性能调优; 5.熟练掌握JavaScript、 python中的任意一门脚本语言。 6.熟练掌握Docker容器原理和使用、熟悉镜像制作与管理,熟悉Kubernetes、 Swarm等容器编排工具使用,有生产环境实践经验者优先。 7.熟练掌握主流应用服务器架构体系、数据库以及各种中间件技术。(LVS/Nginx/MySQL/DNS/Redis/RocketMQ/Kafka/PostgresQL/Hadoop等),对运维体系有深入的研究和理解;具有实际部署及运维经验,能够独立完成相关产品的部署、排错、性能调优等工作。 8.熟悉常用的监控系统,如Zabbix、Prometheus等;熟悉日志搜索与分析工具,如ELK Stack。 9.熟悉VM虚拟机及数据库调优 10.具备良好的系统分析能力,良好的抽象思维和逻辑思维能力,独立分析问题解决问题的能力继续沟通