• 30k-50k·14薪 经验5-10年 / 本科
    移动互联网,企业服务 / 不需要融资 / 500-2000人
    职位描述 1、负责数据模型设计、数仓建设,维护和优化工作; 2、负责对接部门内数据采集、数据治理、数据分析需求,参与制定和执行对应大数据开发开发工作和对应计划文档输出; 3、负责对接部门外数据需求,参与制定和执行对应大数据开发开发工作和对应文档输出; 4、主导数据经营分析领域项目的实施,推进项目的实施与落地。 任职要求 1、5年以上大数据开发经验,有金融数据开发经验优先; 2、了解常用数据挖掘的原理,有数据建模经验优先; 3、有较为丰富SQL、ETL开发及调优等数据开发经验,至少熟悉Java,Scala,Python,R一种编程语言; 4、熟悉Hadoop、Hive、Sqoop、Kylin、Hbase、Spark等大数据架构经验; 5、能够独立负责数据平台子模块的设计、开发、及部分管理工作。
  • 30k-50k·16薪 经验5-10年 / 本科
    移动互联网,企业服务 / 不需要融资 / 500-2000人
    1. 负责复杂业务场景下数据体系构建,赋能业务数字化运营,保障数据的质量和数据生产的稳定性; 2. 负责基于大数据技术平台基础上的数据仓库建设,包括数据模型设计、离线/实时计算、性能优化以及相关技术问题的解决; 3. 负责数据质量、稳定性、数据资产管理等数据治理工作,构建全链路数据质量监控治理体系; 4. 参与数据产品的需求沟通、架构设计、数据开发以及系统优化。 任职要求: 1. 扎实的代码编程能力,具备良好的数据结构基础,熟悉常见设计模式,熟练使用Java/Scala/Python等至少一种语言; 2. 熟练掌握Hadoop生态,包括但不限于Hive/Spark/Flink等一种或几种大数据计算框架; 3. 熟悉数仓原理和实施,有实时数仓、离线数仓设计与开发经验; 4. 熟悉SpringCloud,SpringBoot等常用的开源框架优先 5. 熟悉OLAP平台建设或有过经验、熟悉业务指标设计且熟练掌握OLAP的维度建模设计方法优先 6. 熟悉常见数据挖掘、用户画像、搜索推荐、知识图谱、自然语言理解等相关算法及模型优先
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 飞书企业应用专注于泛财务领域。我们致力于建设基于大数据,搭建智能化、业财一体的财务中台,为互联网生态业务提供合规可控、效能卓越、业务洞察强的平台化能力,让经营者看清现状、预见未来。以技术中台的形式支撑财务税务,提供一站式产品能力,包括应收应付、发票、计税、付款,以及海量数据的清算、核算、报表、风控、分析。 欢迎对技术有孜孜追求的你,加入我们,一起探索和研究互联网时代的企业应用产品! 1、负责财务数据全链路质量保障和治理,包括但不限于数据同步、数据加工(离线+实时)、数据资产化(指标、标签等)、数据业务支撑(财报、管报、应用服务数据等); 2、负责数据类产品的质量保障方案设计及执行落地; 3、通过数据资产审计、制定准入准出机制、设计及执行数据校验核对、资产巡检、变更防控、仿真预演、监控应急等方式保障数据资产及数据产品的质量; 4、通过测试流程标准、方法和技术创新、自动化工具化等方式提升业务数据资产质量、数据产品质量、研测效率; 5、不断探究和建设一流的大数据领域技术风险保障体系和技术风险保障平台。 职位要求: 1、数据或数据产品相关的开发或测试4年以上经验,对数据仓库、数据挖掘、数据平台、数据引擎领域知识有较好储备; 2、熟练掌握一门或多门编程语言,如Java、SQL、Python、go等;有测试框架或质量平台开发经验、大型项目开发编码经验者优先; 3、熟悉数据仓库模型设计、ETL开发,维度建模设计方法,具备海量数据处理经验者优先;具备数据研发平台、数据服务等数据产品开发测试经验者优先;具备分布式数据存储与计算平台应用开发经验,熟悉Hadoop生态相关技术者优先; 4、具备大型项目的整体质量保障经验者优先;具备性能、异常、稳定性、用例自动生成等专业测试领域经验者优先; 5、具备较强的逻辑思维能力,谈判能力和冲突管理能力;良好的沟通能力和团队协作能力;快速适应变化、结果导向、追求上进。
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、参与海量的数据资源处理与整合,服务隐私与安全等多种场景应用; 2、基于Hive/Flink等平台建设离线数据仓库,实时数仓; 3、善于理解并合理抽象业务需求,发挥数据价值,精通数据分析和数据模型开发的技术解决方案; 4、不断创新,推动建设画像平台,血缘平台等数据基建,持续扩展平台的支撑场景和应用范围。 职位要求: 1、熟悉多项大数据处理/分析相关的工具/框架,e.g. Hadoop、Mapreduce、 Hive、Storm、Spark、 Flink etc; 2、熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 3、优秀的理解沟通能力,能快速理解业务背景,强的业务和数据理解能力,对数据敏感,崇尚数据说话,深信数据在驱动业务、支撑决策上的价值; 4、具备扎实的数据结构和算法基础,熟悉至少一门编程语言,包括但不限于Java、Python、Go等; 5、对新技术有强烈的学习热情,了解业界技术发展动向; 加分项: 1、参与过画像平台、数据血缘、特征工程等数据建设; 2、对隐私合规领域有相关经验。
  • 15k-25k·13薪 经验3-5年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
  • 15k-30k 经验3-5年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    大数据开发工程师,西安 岗位职责: 1.负责Hadoop管理平台/数据应用平台/图数据库的开发和维护; 2.负责Hadoop内核问题分析,定位,修改及开源社区的动态跟踪; 任职要求: 1.本科及以上学历,3年及以上工作经验; 2.精通Java/Scala/Python/C/C++/JavaScript/JSP中的一种或多种; 3.有完整的项目开发经验,系统核心模块看护经验者优先; 4.有大数据Hadoop/HBase/Flume/Kafka/Flink/Hive/Spark/ES等开源大数据技术相关经验者优先。
  • 金融 / 未融资 / 2000人以上
    职责描述: 1、负责大数据运维体系搭建及大数据平台各个组件的运维; 2、负责大数据平台及相关组件的部署和维护,保证其稳定运行; 3、负责完善大数据平台运维监控工作。 任职要求: 1、本科或本科以上学历,计算机相关专业,3年以上大数据系统运维经验; 2、熟悉Windows/Linux操作系统; 3、熟悉Hadoop、Hive、Hbase、Yarn、Spark等组件的原理及运维方式; 4、熟悉中间件工作原理,对Tomcat/Redis/Nginx/Kafka有一定了解,具备一定的操作能力; 5、至少熟悉Java/PHP/Python/Bash/Shell一种或多种语言,可独立编写维护及监控; 6、工作细致、善于思考,有很强的问题分析和推进解决的能力; 7、有强烈的责任心、良好的沟通协调能力、极强的业务推动能力,勇于接受挑战; 8、良好的英文听说读写交流能力,能使用英语作为工作语言。
  • 12k-18k·14薪 经验3-5年 / 本科
    科技金融,人工智能服务 / 不需要融资 / 150-500人
    【岗位职责】  1、负责公司大数据产品的测试工作,把好质量关 2、负责根据需求利用xmind等工具进行测试方案的指定,编写测试用例 3、熟悉使用各类测试工具高效执行测试用例,并提交测试报告 4、善于发现并定位问题、协助研发人员解决问题,能从测试角度提供优化建议  【岗位要求】  1、计算机相关专业毕业,本科及以上学历,2年以上大数据测试经验 2、熟悉阿里云平台,至少一种分布式计算/存储系统的基本操作和原理 3、熟练使用常见的数据库,较强的sql基础 4、熟练使用excel进行数据分类汇总 5、有大数据产品测试经验;有基于大数据平台的数据仓库产品测试经验更加 6、有解决问题、钻研新技术的兴趣和能力,善于交流和表达,有良好的团队合作意识、抗压能力,能接受临时突发性的工作安排
  • 15k-25k 经验3-5年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    岗位职责: 1、负责大数据设备部署、hadoop、MPPDB等常见商用平台的搭建、应用以及运维; 2、负责海量数据下精准营销平台流计算、实时计算的设计开发; 3、负责海量数据下可视化模块开发,依据业务需求和方案开发可视化品; 4、负责海量用户行为分析和预测,以及专家模型、分布式算法模型在精准营销方面的实现和应用等。 任职条件: 1、大学本科及以上学历,计算机、金融科技、应用数学、人工智能等相关专业,具有3年以上大数据相关工作经验; 2、精通至少一种编程语言,Java、Scala、Python; 3、熟悉hadoop、mppdb、hive、hbase、zookeeper、hue等中的多个,或者有相关工作经验优先; 4、熟悉spark streaming、storm、flink、redis、es中的多个,或者有相关工作经验优先; 5、熟悉spark mllib/GraphX、图计算、mahout中的多个,或者有相关工作经验优先; 6、具备数据挖掘、数据分析、机器学习知识背景,拥有反欺诈系统、推荐系统、精准营销、信息检索等方面的工作经验优先。
  • 18k-30k·16薪 经验1-3年 / 硕士
    其他,人工智能 / 不需要融资 / 150-500人
    岗位职责: 1. 负责大数据实时、离线、异构数据的同步和传输生态的研发,提供灵活高效的接入能力; 2. 负责大数据接入组件的性能、效率、稳定性分析与优化。 任职要求: 1. 熟悉Flume/DataX/Logkit/Kafka等大数据接入技术和相关组件,有1年以上大数据接入研发经验; 2. 具备扎实的计算机基础,熟悉分布式系统研发,有云原生技术经验优先; 3. 精通Java/Scala研发语言,具有良好的编程研发能力; 4. 能够深刻理解业务,善于利用技术实现相关业务价值;
  • 25k-50k·16薪 经验5-10年 / 本科
    广告营销 / 上市公司 / 500-2000人
    工作职责 1、负责负责大数据离线、实时处理需求的开发工作; 2、负责通用数据仓库的规划、实施,以及优化迭代; 3、负责大数据计算引擎的性能调优、资源调度优化和大数据处理任务的性能优化; 任职资格 1、计算机相关专业,本科以上学历,有三年以及以上大数据分析和数据仓库等相关业务的开发经验; 2、熟练掌握Flink主流实时大数据计算系统原理;熟悉数仓模型,有离线和实时数仓建设实战经验; 3、熟悉Spark、Hadoop、hive、HBase、clickhouse等数据平台的基本原理和开发、使用调优经验; 4、具备扎实的Java/Python语言基础,对技术有热情,愿意尝试新技术; 5、良好的沟通、团队合作、主动思考、学习能力和强烈的责任心;具备持续集成、持续交付、质量保障的经验; 6、有互联网BI相关产品的开发经验,有用户数据分析、电商数据分析和互联网广告等相关业务经验优先;
  • 25k-40k·14薪 经验5-10年 / 本科
    软件服务|咨询,营销服务|咨询,数据服务|咨询 / B轮 / 150-500人
    if (your_passions.includes('BigData')) { switch(your_stacks) { case 'Java': case 'Scala': case 'Python': console.log('Join AfterShip'); break; } } 岗位职责 1、参与 CDP 数据应用平台建设,负责核心功能模块的技术方案设计以及研发; 2、与产品、算法和数仓团队等等密切合作,理解业务需求,快速响应并交付高质量数据产品或服务; 3、不断优化数据处理流程,提高数据质量和处理效率,优化系统架构和性能。 岗位要求 1、本科及以上学历,五年以上的大数据开发的经验; 2、精通 Java / Scala / Python 等编程语言之一,熟练掌握 Hadoop、Spark、Flink 等大数据处理框架; 3、熟悉实时链路的搭建、具备实时计算场景开发以及实时任务性能优化的经验; 4、熟悉大数据常用 OLAP 引擎的使用以及调优,如 ClickHouse、Doris 等; 5、熟悉广告、画像标签系统的方案设计以及项目的研发经验; 6、具备较强的团队合作精神和沟通能力,能够独立思考、快速学习和解决问题。 加分项 1、有 DMP / CDP 或大数据广告平台开发经验者优先; 2、有写 Blog 的习惯,活跃技术社区,参与开源项目等; 3、有使用 Docker、Kubernetes、AWS 或 GCP 云计算经验; 4、有英语听说能力,以及海外电商、SaaS 服务项目开发经验优先。 为什么加入我们 1、高速发展:公司处于快速发展期,规模及营收每年持续快速增长; 2、朝阳行业:国际电商 SaaS 服务赛道,国际一线投资机构加持,行业大佬背书; 3、多元文化:团队来自全球 20 多个不同城市,国际化视角、扁平化管理; 4、极客氛围:拥抱开源技术,实践敏捷开发,崇尚通过工具和自动化来解决问题; 5、特色福利:学习基金、 一对一帮带、内部商城、提供 MacBook 及可升降办公桌。
  • 25k-35k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    职位描述 1、负责贝壳一站式机器学习平台的设计研发与迭代改进,为业务提供稳定易用、高性能、高性价比的解决方案; 2、业内机器学习系统与平台前沿技术进展跟进与调研、落地; 3、参与模型训练,模型服务,模型管理,资源调度等机器学习相关问题的开发。 任职要求 1、计算机基础知识与编程基本功扎实,熟悉Go/Python/C++至少一种; 2、参与过大规模分布式系统的开发和维护; 3、良好的沟通能力和团队协作精神,严谨的工作态度与高质量意识 ; 4、善于学习新的知识,动手能力强,有进取心。 加分项: 1、有CUDA C/C++编程经验,有GPU并行计算编程基础(NCCL)经验优先; 2、了解分布式系统、容器相关领域技术,熟悉Kubernetes/docker等优先; 3、熟悉机器学习框架(Tensorflow/Pytorch/Jax)优先。
  • 企业服务 / 未融资 / 15-50人
    岗位职责 1、设计、开发和维护企业级大数据平台和解决方案,包括数据采集、数据存储、数据处理和数据分析等。 2、使用Flink等流式计算引擎,实现实时数据处理和流式分析,提供实时的业务洞察和决策支持。 3、针对OLAP需求,设计和实现数据立方体、多维数据模型和数据聚合查询,以支持复杂的联机分析处理。 4、编写高效且可扩展的大数据处理和分析代码,提高数据处理和分析的效率和质量。 5、与数据科学团队合作,开发和实现数据处理和分析的需求和解决方案。 6、进行数据模型设计和数据架构优化,提高数据存储和计算的性能和可扩展性。 7、负责数据质量和数据安全的管理和监控,确保数据的合规性和机密性。 8、研究和探索新的大数据技术和解决方案,以不断提高大数据处理和分析的效率和质量。 9、建立和维护技术文档和标准,确保大数据开发的规范和一致性。 任职要求 1、本科及以上学历,计算机科学、软件工程或相关领域。 2、3年以上大数据开发经验,熟悉大数据技术栈和工具,如Hadoop、Spark、Kafka、Hive等。 3、熟悉流式计算引擎Flink,具备在实时数据处理和流式分析方面的经验。 4、了解OLAP(联机分析处理)的概念和技术,具备数据立方体和多维数据模型的设计和开发经验。 5、熟练掌握编程语言,如Java、Python或Scala,具备良好的编码和调试能力。 6、熟悉大数据处理和分析的各种技术和工具,如数据流处理、批处理、数据仓库等。 7、具备良好的数据库和SQL技能,熟悉关系型数据库和NoSQL数据库。 8、具备良好的沟通和团队合作能力,能够与不同背景和专业的人合作,解决技术和业务问题。 9、具备较强的学习能力和自我驱动能力,热爱技术研究和创新。 10、有较好的英文阅读和写作能力,能够阅读和编写英文技术文档。 必备条件 1、在Flink和流式计算领域有深入的研究和实践经验。 2、在OLAP(联机分析处理)领域有相关项目经验。 3、有大数据架构设计和优化经验,能够提供有效的解决方案和建议。 4、具备数据挖掘和机器学习的基础知识和经验。
  • 企业服务 / 未融资 / 15-50人
    岗位职责: 1、负责HDFS、HBase、Hive、Yarn、Flume,Kafka、ES等大数据平台的规划、部署、监控和系统优化等工作; 2、负责Hadoop平台的用户管理、权限分配、资源分配; 3、负责Flink集群的部署维护、资源调度及任务上线等; 4、负责Airflow、Azkaban等大数据任务调度平台的部署、维护、开发支持等; 5、处理大数据平台各类异常和故障,确保系统平台的稳定运行; 6、研究业界前沿的大数据运维技术,负责各种运维工具和系统的设计开发; 任职要求: 1、本科以上学历,计算机或相关专业,具备至少3年以上hadoop及相关组件的运维经验; 2、掌握HDFS、HBase、Kafka、Hive、Yarn、Flink、ES等组件的工作原理; 3、熟练掌握至少一种脚本语言(Shell、Python、Java); 4、对Hadoop各组件的权限、安全、Kerberos有一定的经验; 5、熟悉MapReduce算法,能够编写和提交分布式计算任务; 6、对分布式开源项目有技术兴趣,能跟踪Hadoop开源社区的发展方向,自学能力较强,不断改进和优化集群; 7、具备高度的责任心,较强的故障分析及排除能力; 8、具备良好的团队合作精神,工作认真、细心、虚心好学、沟通能力好。