-
一、岗位职责 1、在客户现场驻场,负责信息化系统的日常实施运维工作。 2、负责对接客户对系统的需求收集和整理。 二、任职资格: 1、学历:专科及以上学历。计算机、信息技术等相关专业优先。 2、工作经验:具备软件行业3年及以上项目实施运维经验。 3、熟悉 MySQL 或DB2、ORACLE、REDIS 数据库,掌握基本的SQL编写。 4、掌握计算机硬件和软件知识、信息化系统维护基础知识、域名管理知识、网络安全知识,能够及时解决各种网络和系统故障。 5、熟练使用excel、word,良好的文档能力,能够编写实施运维相关文档。 6、熟悉阿里云ECS相关部署环境及阿里体系下的相关套件使用优先。 7、工作地点:广州,需要能够接受省内偶尔短差。
-
【职位描述】: 1、负责公司产品服务和客户环境的管理,包括日常运维及故障排查,保障服务的稳定可靠和高效运行; 2、协助开发团队实施应用的自动化构建、测试和部署。构建优化工具、脚本和流程,确保构建高质量系统; 3、完善服务监控报警机制,对业务层面、资源等关键指标进行监控与报警通知; 4、熟悉大数据集群/ 数据库集群的搭建,监控,维护,调优等; 5、熟悉服务性能测试,可以对服务器资源进行统一规划与优化; 【任职资格】: 1、计算机、软件工程相关专业**本科学历,拥有2年以上相关经验; 2、熟练掌握一门以上脚本语言(shell/python等),熟悉Http/Https、TCP/IP、SMTP等网络协议; 3、熟悉Linux操作系统(redhat/centos)的命令、系统管理和优化,熟练部署、优化各种常用服务; 4、熟悉Hadoop 生态圈相关组件,包括不限于Haoop/Spark/Clickhouse/Trino/Hive/Kafka/Zookeeper; 5、熟悉相关软件及硬件安全的配置维护,如防火墙、服务器安全部署等等; 6、熟练掌握阿里云、Azure或类似云服务商的运维管理; 6、良好的运维服务意识,强烈的责任心,风险识别能力,执行力强; 7、掌握容器技术,对kubernetes等容器编排系统使用/管理/ 维护有深入理解者优先; 【公司介绍】: -麦肯锡和华为惠普联合团队 • 由多位前麦肯锡合伙人以及华为惠普核心工程高管联合创立,打造精品管理咨询传承与科技创新品牌 • 同时拥有优质咨询项目资源、丰富咨询经验,及数字化赋能的精尖技术能力,建立从咨询建议到产品/解决方案的全面商业服务模式 • 约550位咨询顾问、数据科学家、软硬件工程师常驻北京上海和成都 -多行业多商业领域覆盖 •主要服务于企业客户,通过结合管理咨询、大数据分析、算法建模与工程落地的能力帮助企业客户实现业务增长 •行业覆盖消费品、零售、金融、互联网、医疗与媒体等 •与多行业领先企业深度合作,建立长期合作关系,如沃尔玛(获沃尔玛年度最佳供应商称号)、欧莱雅、联合利华、中国农业银行、腾讯、京东、美团等 -精尖的数据分析/算法/工程师团队 • 具备数据清洗与挖掘、算法模型和语义分析方面行业领先技术水平与能力 • 具备根据客户业务方向搭建中台/后台的工程技术能力与丰富的项目经验 • 具备广受行业认可的成熟产品(含已申请专利技术),帮助客户实现数据驱动的效率提升 -富有竞争力的职业发展与薪酬福利保障 •注重人才培养,提供定期培训分享及深度参与项目机会,加入团队的年轻小伙伴们再也不用担心自己沦为职场“小螺丝钉” •注重员工成长空间,每年二次全员review,半年即有机会享受升职加薪 •注重福利保障,包括:五险一金、全额理赔商业补充医保、超长带薪年假、超长带薪病假、书费报销、打车报销、无限量零食饮料畅吃、国内外团建旅游等
-
岗位职责: 1、负责全行大数据及AI相关的运维管理工作,包含大数据及AI服务平台整体方案选型规划、落地和运维管理; 2、通过工具平台(包含自动化工具、监控等)建设,提升大数据及AI平台的性能、稳定性及资源使用效率; 3、负责大数据及AI相关新技术的跟踪、研究和新服务的落地; 4、针对大数据及AI服务治理及运营场景,设计数据分析及后台实现方案,完成落地并转化为运营指标跟进。 岗位要求: 1、本科及以上学历,计算机相关理工类专业; 2、熟悉大数据相关产品及框架(包括但不限于Spark、Flink、Hive、Hbase、Clickhouse等)、MPP数仓相关产品(GaussDB、GP等)或AI(含大模型)相关平台产品; 3、熟悉Linux,熟悉SQL,掌握至少一种编程语言(Python/Java/Shell),具备脚本开发能力; 4、有较强的学习和抗压能力,工作积极主动,对技术有强烈的热情,热衷于新技术学习和应用; 5、有保险、证券、银行等金融行业大数据开发、运维经验者优先。
-
岗位职责 负责公司大数据、容器平台业务运维,保障业务稳定; 负责运维团队管理,以及运维体系规划建设,持续提升服务质量、运维效能; 负责跨团队沟通,持续推动系统架构、服务模式的持续演进及迭代; 负责新技术调研及落地,带领团队解决海量业务面临的各种挑战。 岗位要求 本科及以上学历,3年以上团队管理经验; 精通Linux系统,熟悉大规模分布式系统,熟悉主流虚拟化技术与开源组件架构,熟悉业内常用的监控解决方案; 具备运维相关流程、工具、平台建设的能力,具备识别共性/重复性问题并转化为开发需求,实现通用性的运维平台或服务的能力,有DevOps实践经验; 熟悉集群高可用性和容灾方案,有海量系统运维和调优项目经验,有较好的成本优化经验,能出具系统优化的整体解决方案; 具备良好的开发经验,有实际的运维系统、自动化系统的建设经验; 有技术热情,关注运维技术发展方向,并具备良好的沟通以及协同能力。
-
职位描述 1、与销售、行业解决方案等团队一起,在售前交流、技术方案设计、招投标等工作上,为客户及合作伙伴提供大数据集群建设、改造、运维等相应解决方案的支持; 2、作为解决方案架构师,能够将业务需求转换为大数据集群建设技术方案,针对具体项目规划大数据集群架构设计以及大数据运维服务方案,并为客户提供业务咨询及运维技术咨询服务; 3、为客户提供远程或现场技术支持,协助客户完成项目规划、架构设计和产品PoC测试; 4、负责技术方案、用户案例、解决方案、市场营销材料等方面的信息收集、总结及文档编写。 职位要求 1、计算机相关专业,本科及以上学历; 2、要求5年以上工作经验,不少于2年的数据仓库及大数据相关领域的售前或者咨询规划经验,熟悉相关领域的产品、运维服务、解决方案; 3、熟悉大数据生态环境,掌握Hadoop,Hive,Kafka,Spark,Flink等大数据技术栈; 4、有Linux系统系统的基础运维能力,熟悉K8S容器编排基本概念、原理、组件、工具; 5、优秀的沟通协调能力、文档编写能力、演讲能力、逻辑思维能力和人际关系能力; 6、具有优良的客户服务意识,执行力强,优秀的团队合作精神,严谨的工作态度,强烈的责任心和Owner意识; 7、具备项目招投标材料编写,以及讲标经验; 8、熟悉常见公有云/私有云产品的功能、原理、架构;有相关架构规划设计经验优先。
-
岗位职责: 1.负责内部大数据平台的日常运维管理; 2.利用大数据平台完成相关的数据分析及开发工作; 3.参与数据平台相关技术方案的设计和项目实施; 4.负责国家域名运行平台的7*24小时日常运维工作。 任职资格: 1.本科以上学历,计算机、软件工程、通信电子、自动化、信息安全等相关专业;中共党员优先; 2.年龄35周岁以下; 3.2年以上相关工作经验,优秀应届毕业生可以考虑;有互联网行业从业背景、大数据平台使用经验或优秀开源项目经验者优先; 4.熟悉Hadoop或Spark大数据平台生态相关技术,包括MapReduce、hdfs、Hive、Spark等,熟悉传统Oracle或MySQL数据库相关技术内容; 5.具有一定编程经验,熟悉Python,Java等一门或多门编程语言,有良好、规范的编程习惯和文档编写习惯; 6.有大数据平台开发方面相关工作经验或具有海量数据处理经验,有互联网行业数据挖掘工作经验者优先; 7.有较强的学习能力,对技术有钻研精神,并有较高的热情,热衷于新技术、新理论、新开发实践的学习和实践。
-
岗位职责: 1、负责大数据平台的运维保障工作,不断优化大数据服务架构,为业务提供安全,可靠,高效,易用的数据服务能力。 2、根据业务发展,规划集群数据存储容量,集群性能优化。 任职要求: 1、计算机相关专业本科以上学历,5年以上大数据平台运维经验,有实际部署经验。 2、熟悉大数据生态圈,包括不限于hadoop/hive/spark/flink/es/clickhouse/neo4j. 3、掌握一种数据同步工具:DataX、sqoop 4、掌握大数据相关组件工作原理,具备调优能力。 5、掌握一门开发语言JAVA 、PYTHON
-
大数据运维工程师(J10667)
[南京·秦淮区] 11:01发布15k-30k·13薪 经验1-3年 / 本科IT技术服务|咨询,软件服务|咨询 / 不需要融资 / 2000人以上工作职责: 主要工作职责+++++++ 1、负责雁飞智连平台(CMP)的日常巡检维护、平台健康程度分析、告警处理,及时发现系统问题,并进行通报以及生产现网投诉工单查证处理工作; 2、负责持续完善系统运维监控系统,参与监控系统的持续开发; 3、负责重大活动值班保障、系统临时扩容、环境安装、版本升级部署及维护工作; 4、负责平台紧急故障定位分析及快速恢复; 5、负责制定各类故障处理预案并持续更新; 6、运维文档的建立、维护、更新; 任职资格: 岗位资格条件+++++ (一)必要条件:*必填 工作经验:+具备2年以上大数据平台的运维经验 学历要求:+本科及以上 年龄要求:32周岁以内 专业知识及能力要求: 1、负责公司大数据平台的搭建、运维、性能优化、监控报警、故障处理,保障平台的稳定可用。 2、熟悉Hadoop生态圈,掌握Hadoop、Hive、Hbase、Spark、ES、Kudu的原理,部署,维护和调优,有过CDH或者Ambari运维优先。 3、掌握Linux环境的配置和优化,至少掌握java/shell/python语言的一种。 4、熟悉Mysql、Redis数据库运维优先。 5、具有独立的故障排查能力和深入分析解决问题能力。 6、工作态度积极,工作作风踏实,重视流程规范,良好的沟通能力和团队合作精神。(二)可选条件: 有以下技能者优先考虑: 1、有大数据相关认证 2、有数据库相关证书 -
岗位职责: 1、负责云服务器资源分配、环境搭建、网络规划等工作。 2、大数据相关组件的安装、集群部署、性能调优 3、服务器资源监控、应用监控与预警。 4、快速响应报警信息,快速处理和分析故障原因 任职资格: 1、计算机相关专业,2年以上大数据运维相关经验。 2、熟悉HADOOP生态,具有CLICKHOUSE、CDH、HDFS、YARN、HIVE、Hbase、Kafka、Spark等大数据系统的部署运维经验; 3. 熟悉linux操作系统,熟悉基本的操作命令,精通Shell、Python等至少一种脚本语言,能熟练脚本来完成日常系统运维等工作; 4. 熟练业界主流技术架构,Nginx、Tomcat、MySQL、Redis、微服务架构等; 5. 对网络及服务器有一定了解; 6. 有系统故障排查和解决经验,突出的分析和解决问题能力;
-
职位描述 1. 负责大数据平台的运维,包括部署、管理、优化等,保障平台稳定运行; 2. 负责大数据集群的架构升级、容量规划、资源管理、成本优化、业务管控; 3. 理解大数据平台架构和业务流程,发现并解决系统问题或瓶颈; 4. 开发自动化运维、监控报警、故障处理脚本和工具,优化整个运维的流程; 岗位要求: 1. 本科及以上学历,5年以上规模集群管理和运维经验; 2. 熟悉Linux操作系统,熟悉TCP/IP基本原理,有系统调优经验; 3. 掌握Shell、Python等至少一门常见脚本语言; 4. 熟悉常用的监控工具,熟悉自动化运维工具(如Saltstack/Ansible/Puppet等),有二次开发能力者优先; 5. 熟悉hadoop/hbase/elasticseach等大数据组件的架构及基本原理; 6. 对运维体系有一定认识,善于思考总结,做事积极主动,责任心强、细心谨慎,能独立解决问题。
-
职责描述: 1、负责大数据相关项目产品的实施,包括部署安装、应用探索、性能调测和监控,输出相应报告; 2、负责应用各模块研发阶段从联调、部署到上线发布全流程工作,以及日常运维监控工作; 3、负责对产品进行容器化部署并适配相应的持续集成/部署环境,监控容器运行状态、数据库监控、服务器运行状态等; 4、负责大数据相关集群、组件等搭建运维,故障处理,及时响应等,维护其高可用、高并发、负载均衡等。 任职要求: 1、熟悉各类自动化运维工具,3年以上自动化运维工作经验; 2、熟悉Linux开发环境,熟练使用Shell/Java/Python中的一门脚本语言; 3、熟练掌握Linux基本命令、熟悉TCP/IP协议、基础网络路由协议、熟悉交换机、防火墙等设备基础原理以及用途; 4、对容器化部署有相关应用实践,熟悉docker、及K8S容器编排体系以及周边生态,能熟练搭建管理集群; 5、学习能力强,吃苦耐劳、团队协作性好、责任心强。
-
职位职责: 1、负责公司大数据平台的搭建、升级、扩容及迁移工作,支撑业务和数据量的快速增长; 2、负责公司大数据集群的日常监控、权限管理、资源管理、数据备份及故障处理,保障平台服务7*24稳定可靠高效运行; 3、负责Hadoop/Yarn/Hbase/Hive/Kafka/Spark等大数据相关组件的底层运维与调优工作; 4、根据部门需求制定运维技术方案,开发自动化运维工具和运维辅助系统,提升大数据运维自动化水平。 任职要求: 1、***本科及以上学历,计算机相关专业,3年及以上大型分布式系统实施和运维相关经验; 2、熟悉 Linux/Unix 系统、网络、硬件等相关知识,精于容量规划、架构设计、性能优化,能够独立解决系统问题; 3、熟悉Hadoop大数据生态圈,包括但不限于HDFS、YARN、Hive、HBase、Spark等; 4、至少使用过一种自动化部署工具:Ansible、Saltstack等,能够完成 Hadoop、Redis、Spark等开源系统的高可用部署; 5、对新技术有较强的追求欲望; 6、具有良好的沟通能力和组织协调能力,有一定的抗压性
-
岗位职责: 1.负责大数据平台集群的运维工作(Hadoop/Hbase/Hive/Flink/Yarn/Spark/Presto/kafka等),确保高可用; 2.负责大数据相关集群的监控/保健/扩容/升级和调优; 3.负责大数据平台相关系统的维护; 4.负责Mysql/oracle数据库的维护; 5.负责应用程序的维护。 任职要求: 1.***学信网本科及以上学历,计算机相关专业,有2年以上的大数据运维经验。 2.熟悉Hadoop/Hbase/Spark/kafka/Presto/Flume等大数据相关组件,并由实际部署维护经验。 3.熟悉Linux操作系统的配置/管理和优化,能够独立排查和解决操作系统层面的问题。 4.熟悉Mysql/oracle/sqlserver等关系性数据库。 5.熟练Shell/Python/Java等编程语言的一种,并有相关开发经验。 6.了解Nginx/Redis/K8s原理,并灵活应用。 7.熟悉网络基本架构和基本的操作。 福利待遇: 五险一金 做五休二 早九晚六(弹性工作时间) 下午茶 带薪年假 年度体检 定期团建 享受临港新片区落户和购房政策 工作地址:上海临港新片区创晶科技中心(介意地址者勿投)
-
"岗位职责: 1、负责部署和维护内部大数据系统,如:Hadoop、EleasticSearch、ClickHouse等; 2、负责日志系统的维护和优化; 3、负责大数据分析平台的规划与设计工作; 4、负责大数据相关开发工作,如数据处理、数仓设计等工作; 5、负责进行数据抽取、清洗、数据接口服务等; 6、深入理解大数据平台架构、发现并解决重大故障及性能瓶颈,打造一流的大数据平台; 任职要求: 1、本科以上学历,计算机或相关专业; 2、3年以上大数据平台的运维相关经验,精于容量规划、架构设计、性能优化。 3、具备一定的开发能力,精通一门以上脚语言(Shell/Perl/Python等),有Java 和 Scala 基础尤佳。 4、对Hadoop原理有深刻认识,具备相关产品(MapReduce、HDFS、Hbase、Spark、Flume、Zookeeper、ES、Kafka)的应用经验,具备底层Hadoop集群实际搭建及运维经验。 5、精通Hadoop、Spark等相关生态圈系统的搭建、管理、配置优化。 6、良好中文沟通能力。
-
工作职责 1、负责大数据平台各组件以及监控服务部署; 2、负责大数据平台集群容量规划、资源规划、扩缩容、监控预警、性能优化、运维规范落地等运维管理工作; 3、设计实现大规模分布式集群运维、监控和管理平台,趋向“智能化”,整体提升运维效率; 4、为数据开发人员提供技术支持,如集群环境、大数据各组件使用性能问题等; 5、研究大数据前沿技术,协助大数据平台技术选型升级,以支撑业务和数据的快速增长。 任职资格 1、本科及以上学历,计算机相关专业,4年及以上大数据平台运维经验;2年及以上CDH产品部署运维经验; 2、掌握Hadoop生态圈HDFS、Sqoop、Hive、Hbase、Yarn、Zookeeper、Canal/Maxwell、Kafka、Spark/Flink、Impala/Presto等各组件产品的部署、升级扩容、性能监控、配置优化的能力; 3、精通Hbase、Kafka、Flink的性能监控、排查、优化(重点考核); 4、掌握Linux常用服务部署;熟悉分布式平台运行原理; 5、至少掌握Shell/Python其中一种脚本语言; 6、熟悉Java开发; 7、有Grafana、Azkaban、Jenkins、Git等开源产品的使用经验者优先。