• 50k-80k·16薪 经验10年以上 / 本科
    新零售 / 不需要融资 / 2000人以上
    1、基于阿里及银泰集团大数据技术体系,负责大数据基础架构和技术体系的规划建设,包括数据采集平台、数据资产管理与治理平台、数据质量及稳定性保障体系、数据处理智能化和自动化体系的建设; 2、跟踪和调研大数据处理和分析的新技术,推动大数据平台技术持续演进; 3、构建大数据质量体系,持续提升数据质量; 4、促进跨业务线的数据融合,通过技术和业务场景的紧密结合,让数据发挥最大业务价值。 职位要求: 1、5年以上大数据处理研发经验; 2、扎实的JAVA开发能力,熟悉shell、python或其他脚本语言中的任意一门; 3、熟练使用数据库同步、日志采集工具; 4、精通hadoop、HDFS、Hbase、Hive等技术; 5、精通flink、storm或spark streaming等流式或流批一体处理框架中的一种或多种; 6、熟练掌握数据仓库建模和ETL设计方法论; 7、有基于数据分析推动业务提升或优化的实际案例; 8、有数据挖掘、机器学习经验者优先考虑; 9、有大型电商系统或者大型零售企业大数据分析经验者优先。
  • 13k-25k 经验1-3年 / 本科
    消费生活 / D轮及以上 / 500-2000人
    职责: 1. 参与数据仓库的长期架构规划与数据开发,建设大数据平台 2. 负责数据平台相关数据管理工作,元数据管理、研发规范、质量规范、保障规范的制定与推动实施落地 3. 对数据ETL任务进行性能调优及性能瓶颈分析 4. 负责业务功能数据开发,包括(数据统计实现、数据测试,发布上线等) 5. 学习新技术,提高整个平台的计算能力和效率 任职要求: 1. 计算机及相关专业毕业,本科及以上学历,数仓领域2年及以上工作经验 2. 熟悉数据建模、ETL设计与应用、报表开发等,并有实际模型设计及ETL开发经验 3. 熟悉数据仓库领域知识和管理技能,包括但不局限于:元数据管理、数据质量、性能调优等 4. 熟悉linux系统,熟练掌握python或java语言, sql语法 5. 熟悉HADOOP生态相关技术:HDFS, HBASE, HIVE,SPARK, PRESTO等 6. 有数据治理经验优先 7. 极强的上进心和求知欲, 良好的沟通能力、组织协调能力、抗压能力 。 有电商数仓项目经验者优先 有集群管理经验者优先
  • 20k-30k 经验1-3年 / 本科
    其他,金融 / 未融资 / 500-2000人
    岗位职责: 1、参与产品全流程研设,从数据治理、数据分析的角度,提供需求、设计的优化建议,保障各产品流程中数据完善、全面; 2、基于业务逻辑,建立业务数据模型、搭建业务运营指标体系,提供反映产品和运营状况的数据报表; 3、负责数据平台相关数据集市的设计开发,确保数据集市的设计符合相关规范和性能要求。 基本要求: 1、本科及以上学历,计算机,软件工程,电子信息,应用数学、信息安全专业; 2、3年以上从事分布式数据存储与计算平台应用开发经验,具有HADOOP、HIVE、HBASE等大数据平台开发经验; 3、具备较为丰富的数据仓库及数据平台的架构经验,熟悉数据仓库建模及ETL设计开发,具备较为系统的海量数据性能处理经验; 4、熟悉主流的数据存储产品,如mysql,ES,MongoDB,redis等;熟悉大数据平台实时处理开源组件,包括Kafka生态、Flink、Spark等。
  • 25k-50k·14薪 经验3-5年 / 本科
    物流|运输 / A轮 / 2000人以上
    岗位描述: 1.基于业界常用的大数据相关开源组件,包括调度、计算、存储、查询等,构建云原生的大数据平台。 2.提供统一的异构数据源接入集成,数据离线、实时计算,元数据管理和数据服务等全链路智能数据构建与管理的大数据能力,服务于京东物流内部业务和供应链垂直领域的外部商家。 3.持续对大数据系统技术架构进行优化,降低成本,提升系统的性能和用户体验,打造面向未来的批流一体的计算和存储,提升技术影响力。 岗位要求: 1.计算机、通信、数学等相关专业,具备良好的计算机技术基础。 2.熟悉java/c++/python/go等至少一种编程语言,具备扎实的数据结构和算法基础。 3.具备良好的沟通和团队协作能力,做事主动积极,有技术激情和激情面对挑战。 4.有相关的大数据任务调度系统使用、调优经验者优先,如DolphinScheduler、Airflow、Azkaban等。 5.有相关的OLAP引擎使用、调优经验者优先,如ClickHouse、Doris、Kylin等。 6.熟悉Hadoop、HDFS、Yarn、Hive、Tez、Spark、Flink、Kubernetes等大数据技术栈者优先,尤其是有二次开发经验或社区贡献经验者优先。
  • 25k-40k·14薪 经验5-10年 / 本科
    移动互联网,游戏 / 不需要融资 / 2000人以上
    岗位职责: 1、结合公司客户的业务场景,设计和研发公司大数据产品; 2、负责数据平台的设计、优化和维护; 3、系统性能优化,解决各类潜在系统技术风险,保证系统的安全、稳定、快速运行; 4、负责整个产品平台的搭建、多维数据库建设及管控流程设计; 5、带领组员完成项目,追踪整体项目过程及质量把控; 6、数据平台搭建、清洗、ETL、建模等; 7、自动化报表、图形开发等需求开发。 岗位要求: 1、精通Hadoop、Flink生态圈中的一项或多项技术,深入了解精通大数据技术包括但不限于:Hadoop/Hive/HBase,Spark,Flink及相关组件的部署及调优 2、具有较强的学习能力、逻辑分析、数据分析能力、问题排查能力、数据库优化能力 3、精通下列语言之一:Java/Python/Go;精通微服务相关框架:springboot 3、有协同AI算法实现大数据场景落地项目者优先 4、熟悉oracle、sql server、mysql等数据库及脚本语言 5、具备3年以上数据平台开发及线上运营经验,对数据平台业务有深入的理解 6、熟悉一项或多项数据分析工具 7、熟悉实时计算/流式计算系统,至少熟悉一项 Nosql 技术优先 8、设计或开发过大容量,高性能,高可用,易扩展的分布式系统优先 9、有优化hadoop,hive,hbase,flink 等底层源码者优先
  • 20k-40k 经验3-5年 / 本科
    软件服务|咨询,电商平台 / C轮 / 500-2000人
    岗位职责 1.负责数据平台搭建设计工作; 2.主导完成高可用、高可靠及扩展性良好的系统模块设计与编码 3.主导技术难题攻关,持续提升系统性能 4.负责输出技术标准、规范,保证高质量完成设计、开发任务; 5.对未来技术架构具有前瞻性和规划能力。 岗位要求 1.扎实的java编程基础,熟练掌握j2ee相关开发技术,熟悉IO、多线程、集合等基础库或框架,对JVM原理有较深入的了解,并有实际调优和排查问题经验 2.熟悉底层中间件、分布式技术(包括RPC框架、缓存、消息系统等); 3.熟练掌握MySQL数据库开发,具备大数据量关系型数据库优化的经验; 4.具有大型应用系统开发经验,熟练掌握spring等开源框架,深入了解框架的特性,具有多线程,高并发,大数据等架构经验优先; 5.了解Hadoop、hive、spark、datax、kafka、flink、es等大数据组件优先; 6.具有快速迭代和敏捷开发思维,能独立分析和解决问题,具备良好的沟通能力和组织协调能力
  • 30k-60k 经验不限 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、打造业界领先的通用数据平台,包括实时数据流、数据仓库、调度系统、查询引擎,用户行为分析,abtest 实验系统等,降低数据的使用门槛,实现数据的最大价值; 2、打造业界领先的存储、计算等分布式系统,为海量数据和大规模业务系统提供可靠的基础设施。 职位要求: 1、熟悉多项大数据领域的开源框架,e.g. Hadoop, Hive, Presto, Storm, Spark, Kafka, HBase, Redis, RocksDB, ElasticSearch, Druid, etc.; 2、强悍的编码和 troubleshooting 能力; 3、乐于挑战没有明显答案的问题,对新技术有强烈的学习热情。
  • 数据服务,移动互联网 / 上市公司 / 500-2000人
    工作职责: 1. 负责公司大数据集群的规划,部署,日常运维和维护,管理和优化等工作。 2. 参与各类大数据组件如Clickhouse/Kafka/Hbase 管理平台建设、周边工具的二次开发等; 3. 负责Hadoop生态大数据组件的维护和优化,包括但不限于HDFS,Hive,Yarn,Kafka,Spark,Flink,Presto,HBASE,MySQL等。 4. 负责大数据集群的性能分析和优化调整,提高集群的运行速度。 5. 负责大数据相关的日常任务的部署和维护。 6. 负责大数据运维相关文档的整理和操作规范制定。 任职资格: 1. 本科及以上学历,3年以上大数据运维经验,有大规模大数据集群建设经验者优先。 2. 熟悉大数据生态系统,熟悉CDH、HDP等生态体系。 3. 熟悉Linux操作系统的配置、管理及优化,能够独立排查及解决操作系统层面的问题。 4. 熟悉HDFS,Hive,Yarn,Kafka,Spark,Flink,Presto,HBASE,MySQL等大数据相关组件的基本工作原理。 5. 熟悉大数据各组件的高可用方案、性能监控指标,对集群有一定的调优经验。 6. 热爱学习,乐于学习和尝试新技术。
  • 数据服务,移动互联网 / 上市公司 / 500-2000人
    工作职责: 1、负责数据仓库的大数据架构、建模设计和落地; 2、深入理解业务逻辑,能够通过大数据专业角度提高业务收入; 3、负责数据仓库核心代码逻辑开发与推进落地; 4、负责数据仓库规范制定和规范监督实施; 5、推进部门数据整理、标准仓库规范制定,提高产研效率; 6、调研前沿技术,根据业务特性适时引入前沿技术。 任职资格: 1、本科及以上学历,计算机相关专业优先;5年以上数仓开发经验,熟练使用Hadoop、Hive和关系型数据库; 2、熟悉数据仓库各类模型建模理论,熟悉数据仓库数据分层架构,精通3NF和维度模型设计; 3、熟悉Spark、Hbase、Kafka、Flink、缓存技术等相关技术; 4、有较强的编程能力和编程经验,至少熟悉Java、Python其中一门编程语言; 5、对数据敏感,有较强的逻辑分析能力,对处理海量数据和分析有热情; 6、工作认真负责,具备主动推进业务的意识和能力,具备良好的团队协作能力。
  • 15k-25k·15薪 经验5-10年 / 本科
    居住服务 / 不需要融资 / 150-500人
    岗位职责: 1.负责大数据团队的管理工作 2.负责平台数据维护,包括数据采集、实时数据流、数据仓库、调度系统等 3.对数据质量负责,能够提供低延迟、高精准的数据 4.对全链路数据监控 职位要求: 1.计算机、数学相关专业本科及以上学历,5年以上开发经验。985、211毕业优先; 2.扎实的python开发功底,理解IO、多线程、并发; 3.有HDFS、Hive、HBase、Kafka的一项或多项开发经验; 4.有Spark、Flink、Storm、hadoop的一项或多项实战经验,主导过流计算方案落地者优先; 5.有爬虫开发经验者优先; 6.熟悉数据挖掘、机器学习的基本概念和流程,能够与开发同学无缝合作; 7.拥有优秀的团队沟通与协作能力; 特殊福利:对于高端技术人才,公司可为其申请成都购房资格。欢迎高端技术人才来蓉,加入房小团吧~
  • 18k-30k·14薪 经验5-10年 / 本科
    移动互联网,游戏 / 不需要融资 / 2000人以上
    1、结合公司客户的业务场景,设计和研发公司大数据产品; 2、负责数据平台的设计、优化和维护; 3、系统性能优化,解决各类潜在系统技术风险,保证系统的安全、稳定、快速运行; 4、负责整个产品平台的搭建、多维数据库建设及管控流程设计; 5、带领组员完成项目,追踪整体项目过程及质量把控; 6、数据平台搭建、清洗、ETL、建模等; 7、自动化报表、图形开发等需求开发。     1、精通Hadoop、Flink生态圈中的一项或多项技术,深入了解精通大数据技术包括但不限于:Hadoop/Hive/HBase,Spark,Flink及相关组件的部署及调优; 2、具有较强的学习能力、逻辑分析、数据分析能力、问题排查能力、数据库优化能力; 3、精通下列语言:Java/Python;精通微服务相关框架:springboot 、springcloud; 4、熟悉常用数据库及sql脚本语言; 5、具备3年以上数据平台开发及线上运营经验,对数据平台业务有深入的理解; 6、熟悉一项或多项数据分析工具; 7、熟悉实时计算/流式计算系统,至少熟悉一项 Nosql 技术优先; 8、设计或开发过大容量,高性能,高可用,易扩展的分布式系统优先; 9、有优化hadoop,hive,hbase,flink 等底层源码者优先; 10、有协同AI算法实现大数据场景落地项目者优先。
  • 金融 / 上市公司 / 2000人以上
    工作职责 1、基于Flink底层开发,支撑公司流式和批式数据传输场景。 2、深入理解业务场景,与业务部门合作,设计实现流式计算平台。 3、负责presto,clickhouse, kylin, druid, elasticsearch, greenplum, neo4j等分析计算引擎 的二次开发,优化,维护工作; 4、大数据新技术研究 任职要求 **个方向: 1、扎实的计算机基础和算法数据结构功底,对技术有热情,愿意不断尝试新技术和业务挑战。 2、精通Java/Scala语言,如并发编程和JVM等,追求高标准的工程质量。 3、熟悉常见设计模式,具备优秀的debug/profiling能力。 4、深入了解Flink,熟悉flink源码者优先。 5、熟悉HadoopEcoSystem常用开源框架,熟悉Hbase、Hdfs、Yarn等存储计算平台者优先 6、本科及以上学历,计算机或相关专业; 第二个方向: 1、本科及以上学历,计算机或相关专业; 2、有扎实的 Java 语言基础、优化经验; 3、精通多线程和网络编程,对高性能程序设计、架构有较多的工程经验; 4、有完整的 大数据组件项目经验; 5、具有较强的分析问题和解决问题的能力; 6、具备良好的团队协作能力、沟通能力和学习能力,有责任感。"
  • 15k-30k 经验5-10年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1. 负责CDN的Spark集群资源管理和优化,维护Spark引擎,有二次开发能力,解决线上各种问题; 2. 负责优化Spark集群,为海量数据及其上的大规模数据挖掘、数据分析提供可靠、高效的支持; 3. 负责Spark集群的存储、计算的设计、开发; 4. 快速理解业务场景,从具体问题中抽象出通用的解决方案。 工作地点:上海/北京 任职要求 1.有较强的编程能力和编程经验,至少熟悉JAVA\Scale其中之一; 2. 熟悉大数据领域的技术栈,如Spark/Hadoop/Hive等,熟练使用Flume、Hive、HDFS、Hbase、Redis、Kafka、mycat、mysql等组件; 3. 对spark执行原理及使用调优有深入见解者优先; 4. 有CDN业务经验优先; 5. 对数据敏感,有较强的逻辑分析能力,对处理海量数据和分析有热情。
  • 14k-28k 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 担任智能营销SAAS平台数据开发工程师(平台方向): 1、为智能营销平台,构建专用的大数据分析平台,包含Hadoop离线分析和Spark实时分析; 2、实现对营销活动全流程用户行为数据收集、清洗、分析、落地存储,支持大数据可视化,并为模型构建和训练提供标准化数据; 3、负责营销平台大数据模块的功能开发,包括客群选择、场景推荐、营销策略配置、智能预警等。 任职要求 1、熟练掌握至少一种编程语言:必须熟练掌握Java,Spark(scala语言)和脚本语言Shell命令,熟练使用SQL、HQL,以上几种必须掌握,HQL和Java需现场手写代码; 2、熟悉数据仓库各类建模理论,以及数据仓库数据层级关系,精通多维数据模型设计,具备大型数据仓库架构设计/模型设计和处理性能调优等相关经验 3、熟悉 Hadoop技术平台的生态圈:Hdfs,Yarn,HBase,Hive, Zookeeper,Oozie,Sqoop,Kafka等; 4、熟悉 分布式计算框架(如map/reduce),Spark; 5、熟悉Spark Streaming,Storm ,Flink流计算;Flume日志收集框架; 6、熟悉Lucene,Elasticsearch分布式搜索框架,有过性能优化的项目经验; 7、能够设计实时数据、离线数据处理架构并搭建实现框架。
  • 20k-40k 经验不限 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、负责公司大数据产品的交付与运维; 2、参与大数据运维工具和平台的设计和开发,持续提升运维效率; 3、负责发现大数据产品维护过程中存在的问题并及时跟踪解决。 职位要求: 1、本科及以上学历,1年以上相关工作经验; 2、熟悉Linux环境,熟练使用一种以上脚本语言,有良好的计算机网络基础; 3、熟悉Ansible、SaltStack、Puppet、Terraform等自动化部署和编排工具开发和使用; 4、熟悉主流开源大数据系统,熟练掌握 Hdfs/Yarn/Flink/Spark/Hive/HBase 中的任意一种,了解大数据周边生态,如 Kafka/ClickHouse/ElasticSearch 等; 5、务实、自我驱动、自主学习能力强。有较好的问题分析与解决能力、较强的责任感、良好的沟通与协调能力。 具备以下条件之一者优先: 1、有大规模大数据系统问题排查,性能调优,故障恢复,定制开发实战经验者优先; 2、有大数据、运维系统、分布式系统等任一方向研发经验者优先; 3、有客户现场交付部署经验,有良好用户导向,能与用户建立良好的沟通关系,及时发现客户的需求。