• 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 18k-35k·14薪 经验5-10年 / 本科
    生活服务,旅游|出行 / 上市公司 / 150-500人
    岗位职责 : 1、数据仓库和数据处理‌:负责大数据平台的数据仓库、数据治理和数据模型的设计与开发工作。进行日常数据报表开发,理解业务需求,发挥数据价值‌。 2‌、数据服务开发‌:负责离线和实时数据服务的设计、开发、性能调优和效果优化。构建和维护数据管道,处理ETL过程,确保数据质量和准确性‌。 3、技术研究和应用‌:参与相关项目的数据需求的实现,设计和编码工作。参与开发过程中相关技术的研究和验证‌。 ‌4、平台运维和质量管理‌:负责大数据平台的数据及相关的应用开发、调优及维护。完成日常数据质量的监控,参与大数据平台的日常运维工作‌。 5、针对数据一致性、准确性、及时性,制定数据管理与治理机制,提升数据易用性、可用性及稳定性; 任职要求 : 1、本科及以上学历,计算机相关专业,3-5年以上数据开发经验; 2、具备至少一个完整的大数据平台和BI系统实施经验,熟知平台建设各环节工作,包括数据采集、数据落地、仓库建设、数据平台搭建、数据应用产品开发 3、熟悉基于推荐系统的数据仓库建设方法论,有数仓模型设计及ETL开发经验;有数据仓库分层架构设定经验者优先; 4、熟悉Hadoop生态相关技术,如Hive、HDFS、Impala、Spark、Presto、Flink、Hudi、Elasticsearch、HBase、Druid、Kylin等,有基于分布式数据存储与计算平台应用开发经验,有较为系统的海量数据性能处理经验; 5、熟悉java、scala、python等语言,熟悉微服务,分布式架构,熟悉springcloud,springboot等技术开发; 6、熟悉数据仓库原理,有离线数仓、实时计算、数据挖掘、ETL、用户画像、数据可视化等设计与开发经验; 7、熟悉MySQL、PostgreSQL、NoSQL等数据库中至少一种数据中心建设方案,可以进行产品的独立部署、高可用架构和性能优化,熟悉开源社区解决方案; 8、熟悉阿里云大数据组件E-MapReduce、Dataworks、MaxCompute和国际AWS的EMR相关数据产品等,市场常见BI产品(superset、FineBI、神策数据)等相关组件者优先; 9、较强的学习能力和技术钻研能力、有自我驱动意识,对数据采集、数据治理、数据开发、数据分析、数据建模、算法等有深刻认识和实战经验。 期待您的加入哟,我们为您准备丰厚福利待遇: 【法定福利】:公司按国家规定购买五险一金+商业保险(员工本人及子女商业保险)+带薪年假; 【节日关怀】:节日福利礼品,以及节日礼金; 【公司福利】: 机场及高铁的贵宾服务(龙腾卡权益)+年度员工健康体检+平安360服务(在线问诊、VIP挂号及重疾紧急入院服务)+年度2次免费洁牙服务 公司提供咖啡、零食、下午茶 员工活动、旅游及团建,不定期举办聚餐、唱K、电竞赛、篮球赛、拓展、旅游、生日Party等 【学习与培训】:助力职业发展与提升,内外训双引擎发力助你高速发展 【晋升机会】:公司设立良好的晋升机制和广阔的发展空间。
  • 15k-25k·14薪 经验3-5年 / 本科
    生活服务,旅游|出行 / 上市公司 / 150-500人
    岗位职责: 1. 独立负责公有云(Azure, AWS)上多个系统运维,快速定位及解决生产系统异常及故障。 2. 负责公有云上K8S建设和维护; 3. 负责公司CICD建设及优化, 负责监控系统建设及优化; 4. 负责公有云上数据库管理维护和优化; 5. 负责公有云上网络和安全相关的运维工作; 6. 配合外部和内部团队进行PenTest和信息安全认证及审计; 7. 建设公司整体的运维流程体系,并指导组内年轻员工推广实施; 岗位要求: 1.4年以上运维工作经验,精通主流的操作系统与虚拟化软件,例如Linux,Windows; 2.拥有管理海外云服务(Azure,AWS)经验; 3.精通Shell及Python语言;熟悉jenkins pipeline及groovy语法,具备cicd开发能力。 4.熟悉k8s及k8s cni :flannel和calico,有ASK,ACK,EKS使用经验优先。 5.熟悉主流厂家交换机、路由器以及防火墙等网络设备的配置以及排障; 6.有主流数据库数据的调优、监控、备份恢复、安全审计处理经验为加分项; 7.有云上数据库管理经验为加分项; 8.拥有审计或数据安全标准(ISO,等保,PCI)经验优先考虑。 9.有一定的英文文档读写能力,良好的技术文档编写能力 10.其他常规的运维技能 期待您的加入哟,我们为您准备丰厚福利待遇: 【法定福利】:公司按国家规定购买五险一金+带薪年假; 【节日关怀】:节日福利礼品,以及节日礼金; 【公司福利】: 1、 商业保险:员工本人及子女商业保险; 2、 龙腾员工卡权益: 2.1 休息室服务:全年本人无限次,用于全国机场/高铁休息室; 2.2 礼宾车服务:6次/年,用于机场/高铁接送机; 2.3 饭票服务:300元/年,用于机场/高铁合作餐厅餐食; 2.4 健康体检服务:年度员工健康体检; 2.5 健康360服务:在线问诊、三甲医院VIP挂号、重疾入院安排服务; 2.6 超声波洁牙服务:2次/年; 3、主题活动:定期主题下午茶、年度旅游及团建等; 4、节气福利:新年元旦礼金、新春粮油礼盒、开年利是、端午/中秋礼盒; 5、其他福利:加班餐、加班打车、生育补贴等。 【学习与培训】:助力职业发展与提升,内外训双引擎发力助你高速发展。 【晋升机会】:公司设立良好的晋升机制和广阔的发展空间。
  • 15k-20k 经验3-5年 / 本科
    移动互联网,消费生活 / B轮 / 150-500人
    职责描述: 1、负责公有云规划及运维工作。 2、负责公有云环境搭建及监控,包括处理服务请求异常问题定位及修复等运维操作。 3、对公有云环境进行风险识别和评估,提出改进建议并修复。 4、对公有云环境运维建立运维标准和流程。 5、负责企业应用部署、发布系统、CMDB等相关项目维护。 任职要求: 1、本科及以上学历,计算机及相关专业,有3年以上运维经验。 2、熟悉公有云,具有2年以上腾讯云/阿里云网络规划及运维经验。 3、熟悉防火墙、VPN、DNS、HTTPS、TCP/IP等网络技术, 熟练使用高可用/负载均衡技术。 4、有mysql、redis、rabbitmq、elasticsearch、prometheus等常规业务组件运维经验。 5、有python/shell脚本编程经验,有devops自动化脚本编写开发经验优先。 6、了解基础网络知识和网络设备工作原理。 7、具备良好的团队合作、沟通表达能力。
  • 20k-30k 经验3-5年 / 本科
    游戏 / 不需要融资 / 500-2000人
    职位说明: 1、 负责搭建和维护业务系统的运行环境,包括服务器架设、应用软件安装、配置以及优化; 2、 负责业务系统的管理与维护,包括性能监控、性能调优和故障诊断等; 3、 负责相关业务线的发布和数据同步的工作; 4、 日常运维文档的撰写整理工作; 5、 及时响应并协助解决公司应用相关的IT风险事件。 任职资格: 1、深入理解linux系统、Windows系统; 2、熟悉服务器硬件故障的简单处理; 3、熟悉交换机、路由器、软硬件防火墙和TCP/IP原理等网络设备及技术应用; 4、精通一门以上脚本语言(shell/go/python等),有java/c++开发经验更佳; 5、精通lvs、nginx、haproxy等组件运维体系; 6、精通持续集成,持续发布的管理流程和工具,熟悉jenkins; 7、掌握主流开源监控软件的配置使用,如:Zabbix、Open-Falcon等。
  • 15k-25k 经验5-10年 / 本科
    移动互联网,消费生活 / B轮 / 150-500人
    职责描述: 1、负责公有云规划及运维工作。 2、负责公有云环境搭建及监控,包括处理服务请求异常问题定位及修复等运维操作。 3、对公有云环境进行风险识别和评估,提出改进建议并修复。 4、对公有云环境运维建立运维标准和流程。 5、负责企业应用部署、发布系统、CMDB等相关项目维护。 任职要求: 1、本科及以上学历,计算机及相关专业,有5年以上运维经验。 2、熟悉公有云,具有2年以上腾讯云/阿里云运维经验。 3、熟悉防火墙、VPN、DNS、HTTPS、TCP/IP等网络技术, 熟练使用高可用/负载均衡技术。 4、具有丰富的K8S运维经验。 5、具有mysql、redis、rabbitmq、elasticsearch、prometheus等常规业务组件丰富的运维经验。 6、有python/shell脚本编程经验,有devops自动化脚本编写开发经验优先。 7、了解基础网络知识和网络设备工作原理。 8、具备良好的团队合作、沟通表达能力。
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 11k-21k·14薪 经验3-5年 / 本科
    信息安全 / 上市公司 / 500-2000人
    工作职责: 1、负责客户现场大数据平台和大数据项目问题处理和技术支持。 2、深入理解产品架构,对平台环境异常定位、问题排查、性能调优等 3、独立完成测试环境搭建,问题复现及维护等工作。 任职资格: 1、至少1年大数据运维经验,了解分布式平台运行的原理,并有实际部署维护经验。 2、精通基于Linux系统的常用服务(如tomcat、nginx、mariadb、prometheus)配置运维,对CPU、MEM、IO、NET四大子系统内核参数以及程序性能优化有实战经验者优先。 3、至少熟悉shell/python一种或多种语言,能独立编写运维脚本。 4、熟悉mariadb等数据库以及优化,熟练使用sql语句。 5、熟悉开源项目(如elasticsearch、clickhouse、flink、kafka)的部署升级、扩容缩容、性能和管理优化、问题排查等,对新技术有较强的预研学习能力。 6、逻辑清晰,具备一定的程序异常排查、问题定位等应急处理能力 。 7、有较强的沟通能力,良好的职业责任心和团队合作意识
  • 9k-14k 经验1-3年 / 本科
    数据服务|咨询,IT技术服务|咨询 / 未融资 / 15-50人
    岗位职责: 1.负责大数据平台集群的运维工作(Hadoop/Hbase/Hive/Flink/Yarn/Spark/Presto/kafka等),确保高可用; 2.负责大数据相关集群的监控/保健/扩容/升级和调优; 3.负责大数据平台相关系统的维护; 4.负责Mysql/oracle数据库的维护; 5.负责应用程序的维护。 任职要求: 1.***学信网本科及以上学历,计算机相关专业,有2年以上的大数据运维经验。 2.熟悉Hadoop/Hbase/Spark/kafka/Presto/Flume等大数据相关组件,并由实际部署维护经验。 3.熟悉Linux操作系统的配置/管理和优化,能够独立排查和解决操作系统层面的问题。 4.熟悉Mysql/oracle/sqlserver等关系性数据库。 5.熟练Shell/Python/Java等编程语言的一种,并有相关开发经验。 6.了解Nginx/Redis/K8s原理,并灵活应用。 7.熟悉网络基本架构和基本的操作。 福利待遇: 五险一金 做五休二 早九晚六(弹性工作时间) 下午茶 带薪年假 年度体检 定期团建 享受临港新片区落户和购房政策 工作地址:上海临港新片区创晶科技中心(介意地址者勿投)
  • 15k-30k 经验5-10年 / 本科
    移动互联网,金融 / 上市公司 / 2000人以上
    职责描述: 1、负责大数据相关项目产品的实施,包括部署安装、应用探索、性能调测和监控,输出相应报告; 2、负责应用各模块研发阶段从联调、部署到上线发布全流程工作,以及日常运维监控工作; 3、负责对产品进行容器化部署并适配相应的持续集成/部署环境,监控容器运行状态、数据库监控、服务器运行状态等; 4、负责大数据相关集群、组件等搭建运维,故障处理,及时响应等,维护其高可用、高并发、负载均衡等。 任职要求: 1、熟悉各类自动化运维工具,3年以上自动化运维工作经验; 2、熟悉Linux开发环境,熟练使用Shell/Java/Python中的一门脚本语言; 3、熟练掌握Linux基本命令、熟悉TCP/IP协议、基础网络路由协议、熟悉交换机、防火墙等设备基础原理以及用途; 4、对容器化部署有相关应用实践,熟悉docker、及K8S容器编排体系以及周边生态,能熟练搭建管理集群; 5、学习能力强,吃苦耐劳、团队协作性好、责任心强。
  • 20k-40k·16薪 经验3-5年 / 本科
    电商平台 / B轮 / 150-500人
    职位描述 1. 负责管理公司大数据集群的技术开发与运维,提供高可用、高性能大数据集群系统,并保障系统稳定运行。 2. 负责大数据集群各服务自动化运维与监控工具,日常监控、数据备份、数据监控、数据报警及故障处理。 3. 负责管理公司大数据内部系统的开发与迭代。 职位要求 1. 深入了解 Hadoop 生态系统,掌握 Hive、Spark、Kafka、Hdfs、Hudi、Flink等数据处理 核心组件。 2. 具备非常强的开发能力,至少能精通Java、Python、Golang中一种语言。 3. 需要有参与过大数据集群优化经验,资源调度优化经验,有相关成功案例者优先。 4. 熟练掌握Linux类操作系统的命令操作,能够编写脚本开展日常运维工作。 5. 有大型互联网公司分布式数据仓库和数据产品开发经验者优先。
  • 8k-13k 经验在校/应届 / 本科
    数据服务|咨询,人工智能服务 / C轮 / 500-2000人
    工作内容: 负责HDFS/YARN/Spark/Flink/Kafka等大数据套件的规划、部署、监控、故障处理等,确保平台的稳定运行 任职要求: 1、23/24届计算机相关专业本科及以上学历; 2、较好的计算机基础,对大数据(涉及Hadoop生态大数据框架)、云计算、数据库技术有一定的了解及兴趣; 3、乐于钻研和学习,沟通和执行力强。
  • 12k-18k 经验在校/应届 / 本科
    数据服务,消费生活 / 未融资 / 150-500人
    岗位职责 (1) 负责团队自动化运维平台的架构设计与开发实现; (2) 负责处理大数据组件以及数据库的性能调优、自动化运维。 包括不限nginx、tomcat、jdk、hadoop、hbase、elk、kafka、spark、mysql、redis等; (3) 负责系统架构的可运维性设计,优化监控运营效率,保障系统的高可用和稳定性负责基础环境资源的运维管理,包括系统维护、节点监控巡检、网络安全保障。 任职要求 (1) 3年以上工作经验。有互联网或云计算TOP公司业务运维或运维架构设计、运维系统设计开发经验优先考虑; (2) 具备一定的开发能力,熟练掌握python、shell、java语言之一; (3) 精通Linux系统和网络知识,精通tomcat、Nginx等公共组件的配置和维护、mysql数据库调优; (4) 精通Hadoop大数据生态圈,熟悉Hadoop各组件的原理,并有实际部署维护经验以及调优经验;包括但不限于HDFS、YARN、Kafka、Spark、Storm、ES、druid、HBase、Kerberos、Hive、Zookeeper等; (5) 熟悉ambari常用功能,部署组件的过程,并了解底层原理; (6) 熟悉主流的监控工具,或者参与过监控系统开发、维护; (7) 具有良好的沟通能力、学习能力、问题分析与解决能力; (8) 具有高度的责任心和团队合作精神。
  • 35k-50k·18薪 经验5-10年 / 本科
    企业服务 / 不需要融资 / 150-500人
    岗位职责: 1. 负责自建大数据计算与调度平台的运维、开发、监控 2. 负责大数据管理平台的运维、开发、监控,包括元数据管理、权限管控、血缘分析等 任职要求: 1. 本科以上学历,计算机相关专业优先,5年以上⼯作经验 2. 精通主流大数据批和流处理技术,如Hive、Spark、Flink、Tez、MapReduce等 3. 精通主流大数据管理与调度处理技术,如Ambari、CDH、Yarn、Atlas、Ranger、Hue、DolphinScheduler、Jenkins等 4: 扎实的计算机基础和算法数据结构功底,掌握Java或Scala,具备并发编程和JVM调优能力 5. 良好的团队沟通协调能力和英文阅读能力 加分项: 1. 对主流大数据中间件组件做过二次开发,参与过某些大数据组件的社区开发,附上Github地址或者Blog地址 2. 有 aws 平台运维经验