• 企业服务 / 未融资 / 15-50人
    岗位职责: 1、负责HDFS、HBase、Hive、Yarn、Flume,Kafka、ES等大数据平台的规划、部署、监控和系统优化等工作; 2、负责Hadoop平台的用户管理、权限分配、资源分配; 3、负责Flink集群的部署维护、资源调度及任务上线等; 4、负责Airflow、Azkaban等大数据任务调度平台的部署、维护、开发支持等; 5、处理大数据平台各类异常和故障,确保系统平台的稳定运行; 6、研究业界前沿的大数据运维技术,负责各种运维工具和系统的设计开发; 任职要求: 1、本科以上学历,计算机或相关专业,具备至少3年以上hadoop及相关组件的运维经验; 2、掌握HDFS、HBase、Kafka、Hive、Yarn、Flink、ES等组件的工作原理; 3、熟练掌握至少一种脚本语言(Shell、Python、Java); 4、对Hadoop各组件的权限、安全、Kerberos有一定的经验; 5、熟悉MapReduce算法,能够编写和提交分布式计算任务; 6、对分布式开源项目有技术兴趣,能跟踪Hadoop开源社区的发展方向,自学能力较强,不断改进和优化集群; 7、具备高度的责任心,较强的故障分析及排除能力; 8、具备良好的团队合作精神,工作认真、细心、虚心好学、沟通能力好。
  • 金融 / 未融资 / 2000人以上
    职责描述: 1、负责大数据运维体系搭建及大数据平台各个组件的运维; 2、负责大数据平台及相关组件的部署和维护,保证其稳定运行; 3、负责完善大数据平台运维监控工作。 任职要求: 1、本科或本科以上学历,计算机相关专业,3年以上大数据系统运维经验; 2、熟悉Windows/Linux操作系统; 3、熟悉Hadoop、Hive、Hbase、Yarn、Spark等组件的原理及运维方式; 4、熟悉中间件工作原理,对Tomcat/Redis/Nginx/Kafka有一定了解,具备一定的操作能力; 5、至少熟悉Java/PHP/Python/Bash/Shell一种或多种语言,可独立编写维护及监控; 6、工作细致、善于思考,有很强的问题分析和推进解决的能力; 7、有强烈的责任心、良好的沟通协调能力、极强的业务推动能力,勇于接受挑战; 8、良好的英文听说读写交流能力,能使用英语作为工作语言。
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 30k-50k·14薪 经验5-10年 / 本科
    金融 / 上市公司 / 500-2000人
    岗位职责: 1、负责大数据集群CDH(Hadoop、 Hive、HBase、Spark)、Presto、ClickHouse的日常维护,包括集群的规划、部署、监控、故障处理、复盘优化等; 2、保障大数据集群的健康度,性能优化调整,体系化的解决方案,构建服务客观可观测能力,保障大数据服务高可用,提高资源使用率; 3、建立运维自动化能力提效,配合数据架构师研究和应用大数据新架构技术,突破算力边界。 任职要求: 1、本科及以上学历,5年以上大数据运维经验; 2、熟悉CDH、HDFS、Yarn、Hive、Presto、Prometheus技术栈,深入了解原理和常规操作; 3、熟悉大数据组件的指标监控、容量规划、性能优化、监控等; 4、有技术的热情,对方案严谨,有owner的担当和主动性。
  • 25k-50k 经验3-5年 / 本科
    企业服务 / 未融资 / 15-50人
    岗位职责 1、负责HDFS、HBase、Hive、Yarn、Flume,Kafka、ES等大数据平台的规划、部署、监控和系统优化等工作; 2、负责Hadoop平台的用户管理、权限分配、资源分配; 3、负责Flink集群的部署维护、资源调度及任务上线等;  4、负责大数据任务调度平台的部署、维护、开发支持等;  5、处理大数据平台各类异常和故障,确保系统平台的稳定运行;  6、研究业界前沿的大数据运维技术,负责各种运维工具和系统的设计开发; 任职要求 1、本科以上学历,计算机或相关专业,具备至少3年以上hadoop及相关组件的运维经验;  2、掌握HDFS、HBase、Kafka、Hive、Yarn、Flink、ES等组件的工作原理;  3、熟练掌握至少一种脚本语言(Shell、Python、Java);  4、对Hadoop各组件的权限、安全、Kerberos有一定的经验;  5、熟悉MapReduce算法,能够编写和提交分布式计算任务;  6、对分布式开源项目有技术兴趣,能跟踪Hadoop开源社区的发展方向,自学能力较强,不断改进和优化集群;  7、具备高度的责任心,较强的故障分析及排除能力;  8、具备良好的团队合作精神,工作认真、细心、虚心好学、沟通能力好。
  • 移动互联网,游戏 / 不需要融资 / 150-500人
    岗位职责: 1. 理解游戏数据业务,负责核心数据资产内容的设计与开发工作。 2. 负责数据仓库、数据集市的数据模型设计。 3. 负责数据仓库ETL规则设计和开发。 任职要求: 1. 本科及以上学历,计算机相关专业。 2. 3年以上数据仓库开发建设经验。1年以上游戏数据开发经验,熟悉数据仓库架构和模型设计。 3. 精通ETL开发和SQL开发及SQL性能调优。 4. 熟悉Python编程,了解相关编程框架。 5. 了解大数据生态相关技术,包括但不限于Hadoop, Spark, Flink, Kafka, ELK, Impala, Kudu等,有相关维护调优经验者优先。 6. 良好的数据敏感度,能从数据中发现问题并解释,较强的数据和业务理解能力。 7. 具有良好的表达能力和沟通能力,态度积极,责任心强,思维清晰。 8. 具有较强的抗压能力。
  • 15k-30k·13薪 经验5-10年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    1. 本科及以上学历,计算机、通信、电子工程等相关专业; 2. 3年以上相关经验; 3. 熟悉运营商IT架构,有经分系统、大数据、数据中台、数据治理、数据资产管理从业经验者优先; 4. 了解大数据处理及分布式系统前沿技术(包括Hadoop/Flink/Spark/Kafka/ClickHouse等开源框架)及主流的数据应用产品或工具; 岗位职责: 1.负责运营商市场大数据项目售前支撑工作,为客户提供高质量的解决方案,以此促进客户业务需求和技术需求在公司产品和项目中的实现; 2. 参加运营商客户IT规划与规范制定,主导项目竞标或者议标,协助销售赢得订单。 3.从商机发掘、方案制定、客户交流、立项跟进到投标工作的全流程售前支持。
  • 15k-25k·13薪 经验3-5年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
  • 15k-25k 经验不限 / 不限
    旅游|出行 / D轮及以上 / 500-2000人
    运维工程师 级别:P4 岗位职责: 1、负责公司应用产品的运维,保障服务的稳定高效,不断提升用户体验; 2、负责Kubernetes/微服务集群平台的日常运维和管理; 3、负责基础运维工作、提高自动化运维水平、故障响应能力、优化资源使用率; 4、负责各类故障的应急响应、处理、协调,保证产品7*24小时业务连续性; 5、参与自动化运维平台规划设计、实现及优化工作,提升集群与平台稳定性; 岗位要求: 1、本科及以上学历,3年及以上运维经验; 2、熟悉容器编排理念,有Kubernetes/k8s docker等相关运维经验,熟悉shell等脚本开发; 3、掌握Linux系统运维、⽹络原理和TCP/IP协议,具备快速定位和处理告警或故障能⼒; 4、熟悉AWS、阿里云等公有云服务运维优先; 5、具备良好的沟通和协调能力、业务推动能力和责任心。
  • 9k-10k 经验1-3年 / 本科
    工具 / 未融资 / 15-50人
    工作职责: 1.负责大数据基础平台类应用系统的运维服务,包括FI集群、CDH集群、CDP集群等。 2.保障oracle一体机改造 、4个集市国产化改造迁移、报送数据加工的迁移,搭建多套演练环境进行数据验证等工作 任职要求: 1.本科以上学历,两年以上数据类系统运维工作相关经验。 2.熟悉hadoop相关生态,至少有一年以上生产hadoop的落地实践经验,能够解决复杂疑难问题。 3.熟悉Hdfs、MapReduce、Yarn、Hive、Spark等2种或以上主流大数据组件原理,具有2年以上Spark开发经验者优先考虑;熟悉掌握Hbase、Kafka、Redis、Elasticsearch、Clickhouse、Flink等1种或以上开源软件。 4.掌握Prometheus、grafana、arthas等监控工具的配置使用。 5.熟悉Linux操作系统,至少掌握Scala、Python、Shell等其中一门开发脚本语言,能独立使用脚本来完成日常系统运维工作 6.熟悉性能调优方法,精通Java的JVM技术原理和调优技术并具有严密的逻辑分析能力者优先考虑
  • 15k-25k 经验5-10年 / 本科
    人工智能服务 / A轮 / 50-150人
    作为运维工程师,您将负责维护和管理公司的基础设施,确保网站、应用程序和服务的高可用性、性能和安全性。您将参与关键项目的规划、部署和运维,并与开发、安全和网络团队紧密合作,确保整个技术生态系统的平稳运行。 职责和任务: 1. 管理和监控公司的基础设施,包括服务器、网络设备、负载均衡器、CDN等,确保其高可用性和性能。 2. 配置、安装和维护Web服务器、数据库和应用程序,确保其安全性和最佳性能。 3. 实施和优化自动化工具和脚本,以简化日常运维任务并提高效率。 4. 进行故障排除和故障修复,及时响应和解决互联网服务的问题。 5. 负责备份和恢复策略,保障数据的安全性和完整性。 6. 设计和执行容量规划,确保系统能够满足未来业务增长的需求。 7. 参与应用程序部署、持续集成和持续交付流程,确保新功能的顺利上线。 8. 协助安全团队进行漏洞扫描和安全漏洞修复,确保系统和数据的安全。 9. 跟踪和应对网络攻击、故障和恶意行为,确保系统和服务的稳定性和安全性。 10. 创建和维护技术文档,包括运维手册、配置文件和操作记录等。 期望: 1. 计算机科学或相关领域的学士学位。 2. 至少8年以上互联网运维或相关领域的工作经验。 3. 熟悉Linux系统管理和命令行操作。 4. 熟练掌握Web服务器(如Nginx、Apache)、数据库(如MySQL、MongoDB)和应用服务器(如Tomcat、Node.js)的配置和维护。 5. 熟悉云计算平台(如AWS、Azure、阿里云)的基本概念和管理经验。 具备脚本编程和自动化工具的使用经验(如Shell脚本、Python、Ansible等)。 6. 熟悉网络设备、负载均衡器和CDN等互联网基础设施组件。 7. 安全意识:了解网络安全的基本概念,能够防范和应对常见的网络攻击和安全威胁。 8. 问题解决能力:具备独立分析和解决复杂问题的能力,迅速应对紧急情况。 9. 团队合作:良好的团队合作精神,能够与开发、网络和安全团队紧密合作,共同完成项目和任务。 10. 压力管理:能够在高压环境下管理多个任务和优先级,并保持冷静和专注。 11. 沟通能力:良好的沟通能力,能够与非技术人员有效地沟通技术问题和解决方案。
  • 25k-35k 经验3-5年 / 本科
    金融 / 上市公司 / 500-2000人
    岗位职责 : • 负责流批一体数仓规划、建设与维护以及OLAP建设 • 基于公司海量数据进行实时/离线等数据开发工作,包括但不限于数据清洗、数据治理、业务画像数据开发 • 保证大规模的离线、实时任务的正常平稳运行和相关优化工作 • 负责相关线上ETL任务的线上问题定位排查 • 负责基于Flink的相关Connector/LookUp组件优化和二次开发,以及Flink SQL 算子性能定制开发等 职位描述: • 熟悉主流开源大数据工具的使用和调优,包括但不限于Hadoop、ClickHouse、Kafka、HBase、Redis等 • 熟悉数据建模和数据报表的设计工作,能较好的归纳业务逻辑,设计出合理的数据和计算逻辑 • 有大数据处理分析经验,熟悉Flink/Spark/Hadoop等大数据处理引擎的原理和使用,有相关调优经验更优 • 有java开发相关经验,熟悉shell/scala/python/go等不少于2种语言的使用,掌握JVM、并发编程、网络编程等技术,熟悉JVM相关性能问题调优。
  • 25k-50k·16薪 经验5-10年 / 本科
    广告营销 / 上市公司 / 500-2000人
    工作职责 1、负责负责大数据离线、实时处理需求的开发工作; 2、负责通用数据仓库的规划、实施,以及优化迭代; 3、负责大数据计算引擎的性能调优、资源调度优化和大数据处理任务的性能优化; 任职资格 1、计算机相关专业,本科以上学历,有三年以及以上大数据分析和数据仓库等相关业务的开发经验; 2、熟练掌握Flink主流实时大数据计算系统原理;熟悉数仓模型,有离线和实时数仓建设实战经验; 3、熟悉Spark、Hadoop、hive、HBase、clickhouse等数据平台的基本原理和开发、使用调优经验; 4、具备扎实的Java/Python语言基础,对技术有热情,愿意尝试新技术; 5、良好的沟通、团队合作、主动思考、学习能力和强烈的责任心;具备持续集成、持续交付、质量保障的经验; 6、有互联网BI相关产品的开发经验,有用户数据分析、电商数据分析和互联网广告等相关业务经验优先;
  • 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责大数据方向相关数据内容,数据产品的测试和质量保障; 2、根据需求文档、设计文档分析测试点、确定测试范围、制定测试方案和策略、编写测试计划及用例; 3、根据业务逻辑编写测试SQL脚本,独立完成项目中数据指标,服务的测试,保证数据质量和稳定性; 4、负责规划、设计、实施监控每日数据产品的质量情况,提前检测发现数据的异常; 5、编写自动化测试脚本提升测试效率。 职位要求: 1、计算机及软件相关专业本科以上学历; 2、3年以上大数据相关平台、产品、应用测试经验, 有Hadoop、hbsae、Oracle等大规模数据监控,处理测试经验者优先; 3、精通一门脚本语言,Python 或 shell,解决复杂问题和编写自动测试工具和系统的能力; 4、熟悉常见软件测试流程、方法、系统,有敏捷团队经验者尤佳; 5、参与测试效果评估和软件质量核查,通过测试相关流程、策略、方法和工具等创新,提升测试的质量和效率; 6、对互联网质量保证领域有强烈的兴趣,有互联网或数据测试开发经验优先; 7、有性能、安全、白盒测试等专业测试领域经验者优先,能主动进行技术钻研; 8、性格开朗乐观,积极主动,善于沟通,具有很强团队协作能力。
  • 8k-14k 经验3-5年 / 本科
    软件服务|咨询 / 上市公司 / 2000人以上
    一、公司简介 彩讯股份(创业板股票代码:300634)是一家软件互联网上市公司,是协同办公、 智慧渠道、云和大数据领域的龙头企业。拥有五地研发中心和遍布全国的运营网络,员工超过 3000 人。 公司坚持“以大场景运营效果为导向,全面数字化、智能化”的发展战略,持续加大在人工智能等领域的投入,将成为中国领先的智能数字化企业。 二、项目介绍 融合通信是一种新型基础通信服务,其特点是保留用户原有通信习惯、继承运营商基础通信业务全球可达性和电信级服务质量,采用网络和业务新技术升级电信运营商开展多年的基础通信服务。短信小程序、移动办公、和飞信及其他业务等应用都是结合融合通信概念打造出来的适用于各种不同业务场景的产品。 三、岗位职责: 1、负责项目的工程实施、网络优化、网络维护等工作; 2、负责项目中涉及的相关网络设备的安装和调试,实施方案、实施文档,日常运行文档的撰写; 3、负责网络例行维护、业务接入与开通、故障处理、网络割调整等; 4、负责网络设备的资产管理; 岗位要求: 1、计算机相关专业,本科3年以上学历,3年以上的网络维护经验,大型互联网或运营商、网络设备厂商相关背 四、薪酬福利与职业发展: 我们提供竞争力的薪资待遇和福利待遇,包括期权激励、五险一金、带薪年假、节假日福利、健康体检、培训及晋升机会等。 同时,我们还为员工提供广阔的职业发展空间,鼓励员工在工作中不断成长和进步。 我们的团队充满活力、激情和创新精神,致力于打造一个开放包容、信任互助的工作环境,并定期举行各种团队建设活动,增强彼此之间的沟通和理解。 期待您的加入,一起探索未来无限可能!