• 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、参与字节跳动搜索业务离线和实时数据仓库建设工作; 2、参与数据ETL流程的优化并解决海量数据ETL相关技术问题; 3、参与复杂数据链路依赖和多元数据内容生态下的数据治理工作; 4、背靠字节跳动强大的中台架构和产品体系,在业务快速落地数据解决方案。 职位要求: 1、精通数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、具备较强的编码能力,熟悉sql,python,hive,spark,kafka,flink中的多项,有TB以上大数据处理经验; 3、对数据敏感,认真细致,善于从数据中发现疑点; 4、善于沟通,具备优秀的技术与业务结合能力。
  • 20k-40k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责数据仓库架构设计、建模和ETL开发; 2、参与数据ETL流程的优化并解决海量数据ETL相关技术问题; 3、参与复杂数据链路依赖和多元数据内容生态下的数据治理工作; 4、背靠字节跳动强大的中台架构和产品体系,在业务快速落地数据解决方案。 职位要求: 1、精通数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、具备较强的编码能力,熟练掌 SQL/Python/Java/Hive/Spark/Kafka/Flink中的多项; 3、对数据敏感,认真细致,善于从数据中发现疑点; 4、善于沟通,具备优秀的技术与业务结合能力; 5、较好的英文沟通能力是加分项。
  • 15k-25k 经验3-5年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    工作职责: 1.数据同步与ETL开发: 负责设计、开发、测试和维护数据同步、抽取、转换和加载(ETL)流程,确保数据高效、准确、稳定地从源系统流向目标系统。 2.数据同步通道部署与运维: 负责使用OGG、DSG等数据同步工具进行通道的部署、配置、监控、调优和故障处理,保障数据同步通道的稳定运行。 3.日常数据开发与运维: 使用Python、Java等编程语言进行日常数据开发任务(如脚本编写、自动化任务开发)和数据运维工作(如数据质量检查、任务监控、问题排查)。 4.数据库开发与操作: 熟练编写和优化SQL脚本,基于Greenplum、Oracle、MySQL、PostgreSQL等主流数据库进行数据查询、分析、转换和存储过程开发等。 5.数据运维程序开发:根据业务需求,开发数据清洗、转换、入库等相关的运维程序和工具,提升数据处理效率和自动化水平。 6.数据质量保障:参与数据清洗规则的制定与实施,确保入库数据的准确性、完整性和一致性。 任职资格: 1.工作经验: - 3年以上数据开发相关工作经验。 - 具备以下经验优先: 1)有使用 OGG (Oracle GoldenGate) 或 DSG 等数据同步工具的实际部署、配置或运维经验。 2)了解ETL工具(如 Informatica, DataStage, Kettle 等)或调度工具(如 Airflow, DolphinScheduler 等)。 2.技术能力: - 熟练掌握 Python 和 Shell 脚本编程,能够独立完成开发任务。 - 精通 SQL 语言,具备复杂查询、性能调优、存储过程编写等能力。 - 熟练使用至少两种主流数据库(Greenplum, Oracle, MySQL, PostgreSQL)进行开发、管理和优化,理解其核心架构与特性。 - 了解至少一种国产或新兴数据库(如 OceanBase, TiDB, 人大金仓(KingbaseES))的基本原理和使用方式。 - 熟悉 Linux 操作系统(如 CentOS, RedHat, Ubuntu 等),掌握常用命令、系统管理、环境配置和脚本执行。 - 加分项 (非必需,但优先考虑): 1)具备一定的 Java 开发能力。 2)熟悉数据仓库建模理论(如维度建模)。 3)有大数据生态组件(如 Hive, Spark, HDFS 等)的使用经验。 4)了解容器化技术(Docker, Kubernetes)。 3.其他要求: - 具备良好的学习能力、分析问题和解决问题的能力。 - 工作认真负责,有较强的责任心和团队协作精神,能承受一定的工作压力。 - 具备良好的沟通能力,能够清晰表达技术方案和问题。
  • 20k-40k·14薪 经验5-10年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
  • 25k-45k·16薪 经验5-10年 / 本科
    旅游|出行,生活服务,居住服务 / 上市公司 / 2000人以上
    职位描述 1、加入高德地图的商业智能BI团队,深入理解高德核心业务,为决策层评估业务价值、进行业务决策等提供数据支撑; 2、数据研发:参与高德地图打车、搜索等核心业务的数据仓库、数据产品建设,参与数据治理并沉淀业务数据资产; 3、数据挖掘:基于高德地图的海量日志,通过算法模型挖掘有价值的业务信息,指导高德地图的产品迭代。 职位要求 1、计算机、数学、统计或者相关专业本科以上学历; 2、熟悉Java/Python,精通SQL,具有5年以上数据研发经验; 3、熟悉HADOOP大数据平台架构:HDFS/HBase/Hive/MapReduce,熟练掌握MapReduce程序开发,了解实时计算,有使用过Flink、Spark Streaming等开源实时流引擎的优先; 4、对数据仓库系统架构具有良好的认知,理解数据分层、数据倾斜、错峰调度等理念,并具有相关实战经验。
  • 20k-35k·14薪 经验5-10年 / 本科
    软件服务|咨询 / B轮 / 150-500人
    if (your_passions.includes(‘coding’)) { switch(your_stacks) { case ‘Java’: case ‘Python’: case ‘Kubernetes’: case ‘Serverless’: console.log(‘Join AfterShip’); break; } } 岗位职责 1、负责建设商家端关键业务模块数据建设工作, 包括退货, 履约, 保险, 包裹查询等业务; 2、负责售后产品业务线数据仓库建设,承接端到端的业务需求以及交付物的质量提升; 3、参与制定数据采集规范和流程,统筹实施,建设数据指标体系数据模型,提升数据文化、实现数据价值; 4、设计开发业务数据服务体系,不断优化数据计算和访问性能,保证服务高质量稳定运行; 5、和产品经理一起推进项目需求落地,将业务和产品需求转变成为技术实现方案,控制项目风险以及完成任务拆解。 岗位要求 1、本科及以上学历,具备基本的英语读写能力; 2、5 年及以上数仓开发相关经验,熟练掌握 Python/Java/Scala; 3、精通基于 SQL 的数据建模,熟练设计和实现复杂的数据结构,考虑多个用户的需求并持续进行优化; 4、了解实时框架 (Flink, Spark) 的使用与调优,对某项数据库技术有深入理解,如 Clickhouse, Doris, MySQL, HBase; 5、对代码质量有追求,具备良好的面向对象编程经验,熟悉常用的设计模式,具有较强的架构设计能力; 6、积极主动、责任心强,具备优秀的逻辑分析和问题解决能力,具备良好的学习能力和团队协作能力。 加分项 1、具有 AWS、GCP 等云平台的使用经验; 2、熟悉大数据 SaaS 平台产品与技术体系,有复杂业务系统从 0 到1 的构建经验; 3、熟悉数据产品端到端研发经验,有 CDP、DMP、CRM 等数据产品研发经验; 4、英语可作为工作语言。 为什么加入我们 1、朝阳行业:国际电商 SaaS 服务赛道,国际一线投资机构加持; 2、稳健发展:团队稳健扩张,业务规模及营收每年持续稳健增长; 3、多元文化:团队来自全球 20 多个不同城市,国际化视角、扁平化管理; 4、极客氛围:拥抱开源技术,实践敏捷开发,崇尚通过工具和自动化来解决问题; 5、特色福利:AI 学习基金、 一对一帮带、内部商城、提供 MacBook 及可升降办公桌。
  • 10k-13k·17薪 经验1-3年 / 本科
    移动互联网,金融 / 不需要融资 / 150-500人
    职责描述: 1、对上游数据进行清洗、清理、加工、转换、加载至目标数据库 2、分析源数据结构,设计数据入库规则,构建数据模型,开发实现等 3、对系统涉及到的业务知识有一定的理解,并从数据层面合理规划系统架构 4、熟练编写存储过程,能对存储过程及SQL查询进行运行性能优化处理 5、对产品进行实施与测试等相关工作 任职要求: 1.计算机、信息管理相关专业***大学本科及以上学历; 2.精通SQL语言,熟悉linux/unix基本原理和操作,熟悉主流的大数据处理架构(消息队列、Hadoop、Spark,Hbase),具备分布式系统数据处理经验; 3.3年以上在元数据管理、数据质量管理、数据标准化、数据治理、ETL、数据仓库开发、数据集市开发、前端数据可视化开发和第三方数据源管理至少2个领域的相关经验,并有项目实施经验; 4.具备较强的数据系统(数据仓库、数据集市、质量管理流程、数据报表等)开发能力和相关经验,熟悉各类结构化和非结构化数据ETL,熟悉主流的系统平台开发工具和语言; 5、了解银行/证券基础金融业务知识或者有相关项目开发经验,或者公司财务系统的开发经验优先 6、良好的沟通和逻辑思维能力,有强烈的责任心、抗压能力和良好的团队协作精神
  • 15k-18k 经验3-5年 / 本科
    其他 / 不需要融资 / 50-150人
    岗位职责: 1、负责海量数据的ETL; 2、为业务部门提供数据支撑; 3、负责数据治理,推进数据标准化。 任职要求: 1、重点本科或以上学历,计算机、数学、通信等相关专业; 2、具备3年以上开发经验,编程、数据结构、算法功底扎实,要求熟悉Java、Scala、Python、SQL中至少两门开发语言,其中Java和SQL为必须熟悉的; 3、熟悉常用大数据技术,包括Hadoop、Hive、Spark、Flink、Kafka、Hbase、Kylin等,有实际项目经验; 4、熟悉数据仓库体系架构、建模理论和模型设计思路,有实际项目经验; 5、熟悉ETL设计、调度、监控、算法等,能够熟练的进行事实表、维度表ETL工作; 6、有海量数据处理和数据治理经验者优先;有阿里云或华为云大数据产品使用经验优先。
  • 7k-8k 经验1-3年 / 本科
    移动互联网,企业服务 / A轮 / 15-50人
    职责描述: 负责数据采集、数据模型设计和 ETL 设计、开发和文档编写; 负责离线/实时数据同步和清洗; 负责分析和解释产品试验,为公司数据清洗产品改进、推广试验等提供数据支持; 负责建立数据清洗规则,为数据治理项目的实施落地提供支撑。 任职要求: 本科及以上学历(***公办本科大学,学历可在学信网验证),计算机相关专业,2年以上相关工作经验,有医疗或教育领域数据治理经验者优先; 1-2年的数据ODS、数据集市、数据仓库等数据类项目实施开发经验; 熟悉oralce、db2或mysql等常用数据库; 熟悉使用taskctl、control-m、datastage或kettle等常用一种etl工具; 熟悉使用Shell、Python或Perl等常用脚本开发语言; 熟悉使用shell脚本及Linux命令; 良好的沟通、理解能力,工作细致、耐心、负责。
  • 6k-8k 经验1-3年 / 大专
    企业服务 / 不需要融资 / 50-150人
    岗位职责: 1、完成项目实施交付任务,负责业务调研、需求分析、培训、上线、维护等工作任务; 2、负责数据仓库开发工作; 3、编写和整理项目中的相关项目文档。 任职资格: 1、本科以上学历,计算机或相关专业,1年以上的政府相关项目的实施经验; 2、熟悉关系型数据库原理和精通ORACLE数据库,熟练使用PL/SQL工具; 3、熟练使用主流的数据库分析、设计工具,能独立完成数据仓库的架构设计优先; 4、有数据库的ETL、建模、报表开发的能力优先; 5、富有责任感、执行力强,有良好的团队协作精神及优秀的沟通技巧,良好的表达能力、组织、协调能力。 6、能够在压力下工作,适应出差工作,自我管理能力强,工作态度端正,做事扎实、勤奋。
  • 10k-15k 经验1-3年 / 本科
    电商 / 不需要融资 / 150-500人
    职责描述: 1、负责数据仓库和ETL任务的开发、调优、运维等工作; 2、参与数据治理,提升数据易用性及数据质量; 3、理解并合理抽象业务需求,与业务团队紧密合作,发挥数据价值; 5、协助处理数据项目设计与开发工作; 6、协助处理数据采集、清洗、建模、加工等数据开发工作 7、协助处理数据需求的需求理解、数据开发, 岗位要求: 1、大专及以上学历,计算机相关专业,有电商经验 2、精通 SQL,有较好的 SQL 性能调优经验,了解 hive/MySQL 的基本原理和调优策略 3、熟悉常用的数据处理方法和工具,精通Python/shell语言的一种或多种,编码基本功扎实 4、熟悉Hadoop数据开发工具使用及其原理,括Hive, Spark SQL等 5、精通主流数仓及BI平台,熟悉分布式、缓存、消息、NoSQL技术及其生态圈 6、具有良好的沟通能力,有团队合作精神,工作积极主动,抗压能力强
  • 25k-50k 经验3-5年 / 本科
    电商,移动互联网 / 上市公司 / 2000人以上
    岗位职责:1、参与建设具体业务统一的数据体系,能独立完成项目的系统分析,根据开发规范和数据模型设计实现数据开发任务,保证数据质量;2、参与数据仓库的设计和研发,进行海量数据模型设计、数据ETL开发;3、参与数据产品及应用的数据研发,发觉数据业务价值,助力数据化运营业务,构建丰富多样的BI应用。任职要求:1、从事数据仓库领域至少3年以上,本科及以上学历;熟悉数据仓库模型设计与ETL开发经验 ,有较为系统的海量数据性能处理经验;2、有从事分布式数据存储与计算平台上数据开发经验,熟悉Hadoop生态相关技术并有相关实践经验,包括HDFS、MapReduce、Hive、HBase,有Spark/Flink的开发经验尤佳;3、具备一定的JAVA、Python语言的开发能力,对数据挖掘和机器学习有所了解,包括常用的机器学习算法和数据建模过程的优先; 4、有业务sense,责任心强,做事细致,具备较强的沟通协作能力、自我驱动能力,能够通过梳理设计业务模型发现业务问题,并驱动业务目标实现;5、有电商经验优先。
  • 14k-22k 经验3-5年 / 本科
    金融,其他 / 上市公司 / 2000人以上
    1、熟悉使用Informatica、Hadoop等ETL开发工具; 2、掌握数据库存储过程开发经验; 3、有人寿保险相关项目经验优先: 4、有人身险反洗钱相关实施经验优先; 5、需要具备优化和搭建大数据处理系统能力,数据仓库相关经验优先;具有海量数据处理、互联网从业背景者优先; 6、善于沟通、 认真踏实、思维灵活。 本科以上学历,有3年以上数据相关开发经验。
  • 11k-16k·13薪 经验3-5年 / 本科
    移动互联网 / 不需要融资 / 50-150人
    职责描述: 1.参与数据仓库架构与数据开发,设计ETL流程、日志等数据 2.负毒数据平台相关数据工作,如研发、质量、保障与实施落地 3.参与实时数据流的数据处理、查询统计和分析预测等计算 4.日常数据监控以及数据预警,异常数据解读挖掘,并与业务沟通解决方案 5.管理数据类项目并如期实施交付 任职要求: 1.从事数据仓库领域工作1-3年或3年以上,实际参与模型设计及ETL开发经验,能独立完成相关的开发工作 2.做过2年以上bi项目经验 3.sql 精通 4. etl工具精通至少1种(ssis) 加分项: 1.会dax优先 2.精通ADF优先
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、以抖音系全域数据为依托,参与构建海量数据下符合房产业务特性的数据仓库建设; 2、负责数据模型的架构设计、开发以及海量数据下的性能调优、复杂业务场景下的需求交付; 3、参与构建围绕安全、质量、效率、成本等方向的数据管理能力建设,并推动某细分横向场景的落地; 4、深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉数据仓库体系架构、数据建模方法、数据治理等知识,有较强的SQL/ETL开发能力; 2、对数据价值探索充满热情,较强的业务理解和抽象能力,能快速分析和理解问题; 3、掌握大数据技术栈,包括Hadoop/Hive/Spark/OLAP引擎等; 4、思维逻辑清晰,良好的自驱力、沟通能力和解决问题能力; 5、扎实的数据结构、数据库原理等基础知识,理工科本科以上学历,3年以上数据仓库建模经验; 6、具备流量数据体系建设&实时数据体系建设经验优先; 7、具备房产服务相关行业经验优先。
展开