• 25k-50k 经验3-5年 / 本科
    工具类产品 / A轮 / 150-500人
    岗位职责: 1. 负责公司大数据服务应用平台建设,数据仓库建设; 2.负责公司AB平台的建设搭建,为算法提供数据支持; 3. 参与配合数据经理设计大数据服务应用,为应用场景建立合适的数据模型; 4. 对重大项目的数据架构分析和设计,提供端到端的解决方案。 岗位要求: 1.计算机等相关专业,3-5年大数据开发经验; 2.熟悉Hadoop集群的部署、优化和维护; 3.具有Linux系统环境下的开发经验,掌握Python、Java、Scala等开发语言; 4.精通离线和实时计算,熟悉常用大数据组件:Hive、Spark、Flink等; 5.熟悉常见的数据库:MySQL、PostgeSQL、MongoDb、Redis等; 6.了解常见的OLAP数据库,例如:clickhouse、doris等。
  • 30k-50k 经验不限 / 本科
    区块链 / 上市公司 / 2000人以上
    大数据开发工程师(浏览器  岗位职责:  1、制定数据仓库设计与开发规范,推动落地;  2、设计并实现链上全域业务(地址信息,defi业务信息,标签)的数据仓库模型;  3、重点建设链上标签体系和特征工程;  4、数据治理相关的规划和建设,提高数仓数据质量;  5、与合作部门共同建设实时数仓和落地应用;  6、日常告警监控运维。  任职要求:  1、大学本科及以上学历,计算机、软件、信息等相关专业;  2、相对丰富的数据开发或数据仓库经验;  3、精通Hive Sql;  4、熟悉数据仓库建模、ETL过程、ETL和BI工具、技术和开发流程,一定的调优经验;  5、熟悉常用的shell命令,掌握java语言,能够开发udf/udtf等简单程序者优先;  6、熟悉阿里云大数据产品MaxCompute、DataWorks、Flink等经验优先;  7、熟悉AWS大数据产品经验优先;  8,了解机器学习(决策树、随机森林、聚类、逻辑回归)者优先
  • 20k-40k·14薪 经验3-5年 / 本科
    数据服务|咨询 / C轮 / 150-500人
    岗位职责: 1. 负责分布式大数据平台架构建设、数据建模和数据应用后端开发; 2. 负责大数据相关组件OLAP引擎、实时计算,文件存储等相关研究和开发; 3. 负责大数据系统及组件的性能、效率、稳定性分析与优化。 岗位要求: 1. 熟悉Hadoop/Kafka/Presto/Kudu等大数据技术和组件,有3年以上大数据组件的使用和二次开发经验; 2. 具备扎实的计算机基础,熟悉分布式系统开发,熟悉云原生技术; 3. 精通Java开发语言,具有良好的编程开发能力; 4. 对新技术敏感,有一定独立分析,技术研究能力,具有良好的团队合作精神; 5. 能够深刻理解业务,善于利用技术实现相关业务价值; 6. 具备一定云原生技术经验(kubernetes ,Docker)者优先。
  • 25k-35k·14薪 经验3-5年 / 本科
    数据服务|咨询 / C轮 / 150-500人
    职责描述: 1. 负责分布式大数据平台架构建设、数据建模和数据应用后端开发。 2. 负责大数据相关组件OLAP引擎、实时计算,文件存储等相关研究和开发。 3. 负责大数据系统及组件的性能、效率、稳定性分析与优化。 任职要求: 1. 熟悉Hadoop/Kafka/Presto/Kudu等大数据技术和组件,有5-7年大数据组件的使用和二次开发经验。 2. 具备扎实的计算机基础,熟悉分布式系统开发,熟悉云原生技术。 3. 精通Java开发语言,具有良好的编程开发能力。 4. 对新技术敏感,有一定独立分析,技术研究能力,具有良好的团队合作精神。 5. 能够深刻理解业务,善于利用技术实现相关业务价值。 6. 具备一定云原生技术经验(kubernetes ,Docker)者优先
  • 30k-50k·15薪 经验1-3年 / 本科
    旅游|出行 / 上市公司 / 2000人以上
    岗位职责: 1、在数仓负责人带领下,针对BI,算法,数据产品的需求,负责公司多业务数据仓库建设与模型设计,制定和落实数据仓库规范以及数据治理工作; 2、进行ETL设计,数据集市建设,落地及后续的运维; 3、负责各条业务线的数据整合方案设计及日志规范,数据分析指标体系建设及元数据管理; 4、稽查和监控数据质量,数据报表系统及相关数据产品的研发和数据需求的沟通及数据开发项目管理。 岗位要求: 1、掌握数据仓库(DW)商业智能(BI)理论知识,具备2年以上数据仓库建设经验,有数据中台、数据治理呼吁等相关经验优先; 2、精通SQL,熟悉mapreduce原理,有hive调优经验,具备一定的python和java开发能力,有Hadoop, Spark, Flink等大数据开发相关经验优先 3、具有高度的责任感,思路清晰,有良好的沟通能力; 4、本科以上学历,计算机、信息管理等相关专业
  • 30k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、 负责电商、生活服务、直播、抖音等业务的离线与实时数据仓库的构建; 2、负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3、负责指标体系建设与维护; 4、深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 5、参与大数据应用规划,为数据产品、挖掘团队提供应用指导; 6、参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1、熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1. 负责抖音直播业务的离线与实时数据仓库的构建; 2. 负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3. 负责指标体系建设与维护; 4. 深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 5. 参与大数据应用规划,为数据产品、挖掘团队提供应用指导; 6. 参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1. 熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2. 熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 3. 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
  • 20k-40k·14薪 经验1-3年 / 本科
    游戏 / 不需要融资 / 150-500人
    岗位职责: 1、Hadoop大数据平台架构及组件的优化; 2、数据分析平台的开发和优化; 3、数据展示系统的开发和优化; 4、大数据集群的监控、管理、性能优化; 5、数据计算性能瓶颈的定位及优化。 这样的你是我们的理想型: 1、国家**本科及以上学历; 2、熟练使用C/C++/Java; 3、熟练掌握计算机数据结构和算法; 4、熟悉Hadoop架构,有大数据、分布式存储及计算等相关经验者优先。
  • 15k-30k 经验1-3年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据组件开发。 2. 基于Python 体系下的数据质量引擎开发; 3. 基于Java及Linkis开源框架的质量引擎开发; 4. 大数据资产应用的开发、部署、调优; 5. 数据稽核引擎开发,数据共享交换能力对接。 任职要求: 1. 本科及以上学历,计算机相关专业; 2. 3年以上互联网或软件行业工作经验,熟悉Linux环境;熟悉Linux和Python开发; 3. 熟悉Spring,Spring boot,Spring Cloud等框架、熟悉Eclipse或IntelliJ IDEA开发工具等使用 以下满足其一即可: 4. 熟悉Hadoop,MapReduce,Hbase,Flink等大数据部署、运维、开发; 5. 熟悉数据治理理论概念、架构,有元数据、数据质量、数据标准、主数据等相关数据治理经验; 6. 有分布式相关项目(分布式存储/分布式计算/高性能并行计算/分布式cache)经验; 7. 对数据库的架构、扩展特点非常熟悉,能熟练进行SQL优化、集群部署、数据同步等。
  • 25k-35k 经验3-5年 / 本科
    金融 / 上市公司 / 500-2000人
    岗位职责 : • 负责流批一体数仓规划、建设与维护以及OLAP建设 • 基于公司海量数据进行实时/离线等数据开发工作,包括但不限于数据清洗、数据治理、业务画像数据开发 • 保证大规模的离线、实时任务的正常平稳运行和相关优化工作 • 负责相关线上ETL任务的线上问题定位排查 • 负责基于Flink的相关Connector/LookUp组件优化和二次开发,以及Flink SQL 算子性能定制开发等 职位描述: • 熟悉主流开源大数据工具的使用和调优,包括但不限于Hadoop、ClickHouse、Kafka、HBase、Redis等 • 熟悉数据建模和数据报表的设计工作,能较好的归纳业务逻辑,设计出合理的数据和计算逻辑 • 有大数据处理分析经验,熟悉Flink/Spark/Hadoop等大数据处理引擎的原理和使用,有相关调优经验更优 • 有java开发相关经验,熟悉shell/scala/python/go等不少于2种语言的使用,掌握JVM、并发编程、网络编程等技术,熟悉JVM相关性能问题调优。
  • 25k-50k 经验5-10年 / 本科
    智能硬件,人工智能服务,IT技术服务|咨询 / 不需要融资 / 2000人以上
    岗位职责: 1.负责顺丰集团B端客户系统的全链路算法研发工作,运用统计建模、数据挖掘、机器学习方法,助力公司在B端业务上的降本增收; 2.对B端数据算法业务场景进行抽象,提取工具和框架,提炼易拓展、高复用性的策略算法场景化打法,持续提升算法迭代效率和技术深度; 3.深入挖掘顺丰集团内部数据,提炼B端客户域(企业)核心优势数据,孵化对外数据API服务,提升顺丰对外商业化能力; 4.探索业界前沿技术和行业解决方案,引入业内最好的技术和架构并落地,输出专利和期刊论文,提升团队业界影响力; 5.不断挑战自己,深度思考算法效果及研发流程上存在的缺陷,持续输出迭代优化方案,沉淀算法和业务能力,让自己成为B端行业一流算法技术人才。 任职要求: 1、***硕士及以上学历,计算机或数学相关专业; 2、3年及以上数据分析、数据挖掘、搜索推荐、自然语言处理等相关工作经验; 3、熟悉大数据处理技术,对hive、spark等大数据组件有实际使用经验;4、具有优秀的数据分析能力,对数据敏感,能快速理解业务,发掘业务细节和数据之间的联系; 5、数据驱动,善于从海量数据提炼核心结果,有出色的结构化思维能力; 6、有企业画像挖掘、企业知识图谱搭建相关背景优先;
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等),具备编写优化能力; 5.负责过大型数据平台或数据仓库设计优先。
  • 20k-30k 经验3-5年 / 本科
    智能硬件,人工智能服务,IT技术服务|咨询 / 不需要融资 / 2000人以上
    工作职责: 1、负责安全数据的清洗、关联、打标等大数据研发工作; 2、负责安全日志接入、报警对接工单的研发工作; 3、参与风控模型的性能优化。 岗位要求: 1、本科及以上学历,三年以上大数据领域工作经验; 2、掌握C/C++、Java、Objective-C语言之中一个或多个; 3、熟悉hadopp组件,如:datax、hive,flink,hbase、es等; 4、熟悉数仓建设方法论,熟悉数仓分层架构及模型设计; 5、熟练掌握hive sql使用及sql优化,精通ETL开发; 6、具备责任心强,良好的沟通,及良好的抗压能力; 7、有大型互联网数据中台项目者优先。
  • 15k-25k 经验1-3年 / 本科
    科技金融,金融业 / C轮 / 500-2000人
    岗位描述: 1、负责公司大数据平台的整体架构的规划,以及相关的设计、实现、优化与演进,为公司业务发展提供支持 2、负责公司大数据平台的选型、平台建设和运行维护 3、参与各类大数据组件如Clickhouse/Kafka/HBase管理平台的建设、以及工具的二次开发 3、负责Hadoop生态大数据组件的维护,包括但不限于HDFS、Hive、Yarn、Kafka、Flink、HBase等 5、负责大数据集群的性能分析和优化调整,提高大数据集权的处理能力 6、结合公司各业务场景,持续分析并改进数据服务的需求和质量 7、负责大数据组件的各类文档的整理和操作规范制定 任职资格: 1、***本科及以上学历,具备1年以上java、数据、数据仓库或ETL开发设计工作经验 2、熟练掌握 Java, Python, Scala等**开发语言 3、熟悉大数据组件的高可用架构、性能监控指标,有一定的集群优化经验 4、熟悉大数据的技术生态环境,掌握Hadoop,Hive,Kafka、Redis、Flink等大数据技术栈 5、熟练掌握至少一种主流的关系型数据库,如MySQL、Oracle或是Postgresql,具有一定的SQL优化经验 6、数联掌握 Java, Python, Scala等**开发语言 7、熟悉Unix及Linux操作系统,以及shell脚本编程 8、工作积极主动, 思路清晰,具有扎实的独立分析问题、沟通协调能力和团队合作精神; 具有高度的责任感和耐心细致的工作态度,积极向上,乐观进取
  • 20k-25k 经验3-5年 / 本科
    营销服务|咨询,软件服务|咨询 / 不需要融资 / 2000人以上
    岗位职责: 1、负责云服务器资源分配、环境搭建、网络规划等工作。 2、大数据相关组件的安装、集群部署、性能调优 3、服务器资源监控、应用监控与预警。 4、快速响应报警信息,快速处理和分析故障原因 任职资格: 1、计算机相关专业,2年以上大数据运维相关经验。 2、熟悉HADOOP生态,具有CLICKHOUSE、CDH、HDFS、YARN、HIVE、Hbase、Kafka、Spark等大数据系统的部署运维经验; 3. 熟悉linux操作系统,熟悉基本的操作命令,精通Shell、Python等至少一种脚本语言,能熟练脚本来完成日常系统运维等工作; 4. 熟练业界主流技术架构,Nginx、Tomcat、MySQL、Redis、微服务架构等; 5. 对网络及服务器有一定了解; 6. 有系统故障排查和解决经验,突出的分析和解决问题能力;