• 20k-30k·13薪 经验1-3年 / 大专
    金融业 / 不需要融资 / 500-2000人
    Hbase运维工程师 职责描述: 1、负责数据集群/Hadoop/hbase等运维保障; 2、负责hbase平台各组件服务的监控及故障处理; 3、对hbase平台运维不断优化,提升数据产品的质量和响应速度; 任职要求: 1、一年以上大数据平台的运维相关运维经验,精于容量规划、架构设计、性能优化; 2、具备一定的开发能力,精通一门以上脚本语言(shell/python等),有java 和 scala 基础尤佳; 3、对hadoop原理有深刻认识,具备相关产品(MapReduce、HDFS、Hbase、Flume、Zookeeper、ES、Kafka)的应用经验,具备底层hadoop集群实际搭建及运维经验。 4、精通hadoop相关生态圈系统的搭建、管理、配置优化。 5、有Lindorm运维经验优先。 6、此岗位为合作方岗位。
  • 短视频 / 上市公司 / 2000人以上
    职位描述 1、为快手百亿级广告变现平台提供通用的基础设施、研发框架、运维工具等; 2、保障广告系统的可用性及稳定性; 3、参与设计与实现百TB级别容量的通用存储平台,包括单机过百万的高性能存储引擎、可扩展的数据存储服务、元数据管理服务等; 4、业界前沿架构与技术的探索与落地。 任职要求 1、至少精通一门主流服务端开发语言,如:C++、Java、Golang;熟悉一门脚本语言,Shell、Python等; 2、有分布式系统开发经验,包括分布式存储服务,计算平台,高并发实时服务等;了解分布式系统理论; 3、较强的问题分析与解决能力,能够归纳抽象问题并能给出系统的解决方案; 4、具有良好的团队合作意识和沟通能力,责任心强。 加分项: 1、有主流存储引擎、数据处理框架(Rocksdb、MySQL、HBase、Flink、Storm等)使用或开发经验; 2、有基于Docker、Kubernetes的容器化运维经验; 3、开源社区活跃贡献者。
  • 15k-25k 经验3-5年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    岗位职责: 1、负责大数据设备部署、hadoop、MPPDB等常见商用平台的搭建、应用以及运维; 2、负责海量数据下精准营销平台流计算、实时计算的设计开发; 3、负责海量数据下可视化模块开发,依据业务需求和方案开发可视化品; 4、负责海量用户行为分析和预测,以及专家模型、分布式算法模型在精准营销方面的实现和应用等。 任职条件: 1、大学本科及以上学历,计算机、金融科技、应用数学、人工智能等相关专业,具有3年以上大数据相关工作经验; 2、精通至少一种编程语言,Java、Scala、Python; 3、熟悉hadoop、mppdb、hive、hbase、zookeeper、hue等中的多个,或者有相关工作经验优先; 4、熟悉spark streaming、storm、flink、redis、es中的多个,或者有相关工作经验优先; 5、熟悉spark mllib/GraphX、图计算、mahout中的多个,或者有相关工作经验优先; 6、具备数据挖掘、数据分析、机器学习知识背景,拥有反欺诈系统、推荐系统、精准营销、信息检索等方面的工作经验优先。
  • 25k-35k·14薪 经验5-10年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
  • 15k-25k·13薪 经验3-5年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
  • 25k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1、负责贝壳Hermes实时计算平台的开发和维护 2、参与Flink等实时技术调研及框架源码改造开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
  • 20k-35k·14薪 经验1-3年 / 本科
    移动互联网,广告营销 / 上市公司 / 2000人以上
    工作职责: 1.负责分布式存储平台的研发建设工作,包括对象存储/块存储/文件存储等系统的开发、优化; 2.持续推动公司存储技术栈的优化和演进、支撑业务在存储端的各类需求; 3.负责部分运维任务,高效定位,分析和解决线上问题。 任职资格: 1.*****本科及以上学历,计算机相关专业; 2.2年及以上云存储相关工作经验; 3.熟练掌握GO/JAVA等语言进行开发(至少熟练掌握一种); 4.有扎实的算法基础,能灵活应用各种常见的数据结构; 5.熟悉操作系统原理、Linux IO性能调优方法; 6.熟悉分布式系统的设计和应用,了解分布式常用技术原理 ; 7.熟悉一业界主流分布式存储产品,如AWS-S3、CEPH,HDFS,HBASE等; 8.有对象存储,块存储,NOSQL存储或其他大规模数据存储系统开发运维经验者优先考虑。
  • 25k-35k 经验3-5年 / 本科
    金融 / 上市公司 / 500-2000人
    岗位职责 : • 负责流批一体数仓规划、建设与维护以及OLAP建设 • 基于公司海量数据进行实时/离线等数据开发工作,包括但不限于数据清洗、数据治理、业务画像数据开发 • 保证大规模的离线、实时任务的正常平稳运行和相关优化工作 • 负责相关线上ETL任务的线上问题定位排查 • 负责基于Flink的相关Connector/LookUp组件优化和二次开发,以及Flink SQL 算子性能定制开发等 职位描述: • 熟悉主流开源大数据工具的使用和调优,包括但不限于Hadoop、ClickHouse、Kafka、HBase、Redis等 • 熟悉数据建模和数据报表的设计工作,能较好的归纳业务逻辑,设计出合理的数据和计算逻辑 • 有大数据处理分析经验,熟悉Flink/Spark/Hadoop等大数据处理引擎的原理和使用,有相关调优经验更优 • 有java开发相关经验,熟悉shell/scala/python/go等不少于2种语言的使用,掌握JVM、并发编程、网络编程等技术,熟悉JVM相关性能问题调优。
  • 15k-30k 经验3-5年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    大数据开发工程师,西安 岗位职责: 1.负责Hadoop管理平台/数据应用平台/图数据库的开发和维护; 2.负责Hadoop内核问题分析,定位,修改及开源社区的动态跟踪; 任职要求: 1.本科及以上学历,3年及以上工作经验; 2.精通Java/Scala/Python/C/C++/JavaScript/JSP中的一种或多种; 3.有完整的项目开发经验,系统核心模块看护经验者优先; 4.有大数据Hadoop/HBase/Flume/Kafka/Flink/Hive/Spark/ES等开源大数据技术相关经验者优先。
  • 短视频 / 上市公司 / 2000人以上
    职位描述 1、负责商业化风控数据仓库的建设,构建各垂直应用的数据集市; 2、定义并开发业务核心指标数据,负责垂直业务数据建模; 3、根据业务需求,提供大数据计算应用服务,并持续优化改进; 4、参与风控数仓应用数据开发工作,支持业务需求。 任职要求 1、有Hive、Kafka、Spark、Flink、HBase等两种以上两年以上使用经验; 2、熟悉数据仓库理论方法及ETL相关技术,对于数据的架构和设计有一定的思考,具备良好的数学思维和建模思维; 3、熟练使用Java、Python编程语言; 4、熟悉分布式计算框架,掌握分布式计算的设计与优化能力,了解流式计算; 5、有很强的学习、分析和解决问题的能力,良好的团队合作意识,较强的沟通能力; 6、有风控业务、画像业务背景优先。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: -电商场景下的策略平台建设 -电商场景下的流量分发体系建设 岗位要求: -计算机及相关专业本科及以上学历,具有扎实的代码功底,熟悉常用的算法和数据结构 -精通Java语言和框架,熟悉了解Python语言,具有良好的编程习惯,熟悉Linux开发环境,掌握设计模式 -掌握多线程及高性能的设计编码及性能调优,有高并发应用开发经验,对服务治理体系有充分的理解和应用 -熟悉Hadoop/Hive/HBase/Spark/Flink/ES等计算框架,熟悉Docker技术及Kubernetes容器调度系统 -具备推荐系统、广告系统、搜索系统后台开发经验者优先 -具备一定的架构能力,有大容量、高性能、分布式系统的设计开发经验优先 -有广告或者电商场景下的流量分发策略开发经验优先
  • 20k-35k 经验3-5年 / 本科
    移动互联网,金融 / 上市公司 / 2000人以上
    岗位职责: 1、负责Hadoop、Hive、Hbase、Spark等大数据平台的规划、部署、监控、优化; 2、负责大数据平台的运营管理、方案评审、组件优化; 3、负责大数据平台的异常与故障处理,应急响应,保障平台持续稳定运行; 4、持续跟踪业界技术发展动态,并结合业务发展需要,研究引入新兴技术。 任职要求: 1、熟悉Hadoop大数据生态圈,熟悉Hive、Hbase、Yarn、Spark、kafka等组件的工作原理,并且有实际部署运维经验; 2、深入理解Linux系统,熟悉运维体系架构; 3、熟悉shell脚本及Python编程; 4、具备良好的团队协作意识与主动意识。 优先考虑: 有自动化运维平台构建经验或Hadoop组件源码阅读与分析能力者。
  • 25k-40k·16薪 经验3-5年 / 本科
    旅游 / 不需要融资 / 2000人以上
    岗位职责: 1.参与数仓建设与规划 2.参与数据中台建设,打造智能化构建产品; 3.对接数据需求,高质量的为业务赋能; 任职资格: 1.本科及以上学历,有5年以上数据仓库工作经验; 2.熟练掌握 java、python、shell 等任意一门编程语言 3.熟练掌握 sql , 能够编写复杂语句查询,具备sql 调优能力 4.熟练掌握 数据仓库ETL过程,对维度建模有深刻的理解 5.熟悉掌握 Hadoop/Hive/Hbase/Kylin/Es/Kafka 大数据处理框架,有源码经优先; 6.熟悉数据分析、统计学基本概念; 7.有owner 意识、自驱力强。 8.有较强的沟通能力;
  • 18k-20k 经验3-5年 / 本科
    通讯电子 / 不需要融资 / 150-500人
    岗位职责:负责公司业务平台的日常维护、运行保障和技术支持工作,主要工作内容如下: 1、日常检查,执行作业计划、运行监控、运行分析等维护工作。 2、故障处理,平台故障响应、处理、事后分析及问题跟踪解决。 3、安全维护,漏洞加固、安全基线检查及加固;安全保障,执行公司下达的安全保障任务,网络安全事件的监控分析和应急响应。 4、针对平台运行存在的问题及隐患,提出优化改进建议;配合相关业务部门及研发部门进行业务运行质量的保障。 5、负责处理系统方面日常变更、控制突发情况,对疑难问题进行分析并解决,并对系统和应用进行性能调优和容量规划。 6、配合工程建设部门进行施工,协助进行业务平台现有网络及系统的操作,配合进行验收等工作。 任职条件: 1、具有过硬的责任心和职业道德,能严守企业秘密,无不良记录。 2、具有很好分析解决问题能力、主动学习能力,钻研和探索精神,具有良好的沟通表达能力和团队合作意识。 3、本科及以上学历,计算机相关专业; 4、具备3年以上,有运营商,大型互联网企业或IT企业的网络系统、数据中心、业务平台的规划、设计、实施、维护经验; 5、熟练使用和配置Linux、redis、rabbit MQ、Nginx 等系统或应用; 6、熟悉多种数据库 MySQL/Oracle/MongoDB安装、配置、调优,熟悉底层存储架构及工作原理,熟悉数据库逻辑/物理设计。有的数据库调优经验,MySQL/Oracle/MongoDB认证者优先。 7、熟悉主流的大数据软件的安装、配置及维护。如:Hadoop、Hbase、Seaweedfs、Apache Flume、 ZooKeeper等,具备相关证书者优先。 8、具有Python编程经验,熟练使用Python进行运维工具开发者优先。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动安全审核相关业务数据仓库的开发与优化; 2、基于Hive/Flink等平台建设数据仓库,实时数仓建设; 3、负责数据模型的设计,ETL实施,ETL性能优化以及相关技术问题的解决。 职位要求: 1、熟悉大数据相关技术:Kafka/Flink/Hadoop/Druid/HBase/Hive 等; 2、熟练使用 Java、Go、Python语言中的一种或者多种; 3、具备数据库系统理论知识,掌握主流数据库管理和应用,精通SQL; 4、有高性能分布式平台开发经验,有安全风控行业经验优先; 5、了解统计以及数据挖掘、机器学习、人工智能技术,会使用关联分析、分类预测、聚类分析等常用分析方法优先。