• 30k-50k 经验3-5年 / 本科
    科技金融 / 上市公司 / 500-2000人
    岗位名称:数据仓库高级开发工程师 工作职责: 1.    负责Shopee商家数据仓库,深入理解跨境电商与东南亚本土电商的业务模式后进行数据建模,有效支撑上层业务的业务开发 2.    负责Shopee商家数据ETL流程的优化,跨数据中心的数据接入流程优化,包括跨机房跨集群的数据准实时同步作业优化,高并发下的批量同步优化等等 3.    需要参与跨境电商业务相关数据指标的设计与计算,并抽象出指标的底层相似逻辑,沉淀成数仓维度,定时对数仓进行更新以满足业务最新需求 4.   需要对数据质量进行负责以及相应的配套开发,包括不局限于数据血缘关系管理,脚本依赖关系解析,SQL性能分析等等 任职要求: 1.    本科及以上学历,计算机等理工科相关专业,3年以上工作经验 2.    熟悉数据仓库理论,具备企业级数据仓库开发经验,日增量数据达到TB级 3.    熟练掌握SQL开发,熟练掌握Hive等数据仓库中的一种或几种 4.    熟练掌握Hadoop及Map-Reduce应用开发,熟练掌握HBase、Storm、Spark、Kafka、Druid等大数据开发工具中一种或几种 5.    熟悉Linux系统,具备shell、python等脚本和Java语言开发能力 6.    有Golang语言开发经验者优先
  • 金融 / 上市公司 / 2000人以上
    工作职责 1. 负责数据的监控、质量管理、数据治理,确保数据使用的合规性 2. 进行数据体系规划和数据治理,及数据仓库的架构设计、建模和ETL开发(包括但不限于MDM,ODS, Meta-data, 数据指标体系,血缘关系,数据资产管理) 3. 建设数据仓库及其服务(包括元数据管理、数据接入标准设计、数据服务流程制定、数据分析平台等) 4. 负责搭建数据平台、数据仓库平台、物联网数据平台、AI数据平台,负责数据平台架构的整合、优化、开发、部署实施、运维相关工作,确保数据平台稳定运行 5. 主导搭建数据平台(EDW平台等),具备数据接口对接、存储、提取、处理、清洗、逻辑解析、规范化、IoT设备互联互通能力 6. 进行数据平台的性能调测,开源代码商业化,底层基础架构搭建 7. 运用Hadoop/SparkSQL/Hive 或者其它数据分析技术,进行包括需求分析,平台选择,技术构架涉及等技术支持工作 8. 负责用户画像、用户推荐, 场景化营销,核保核赔,信保的规则建模 9. 对数据资源进行挖掘、分析、展现,深度获取数据价值 任职要求 以下条件至少具备3项: 1. 精通传统企业级数据仓库,至少三年以上数据仓库开发、构建、运维经验,熟练使用EA/TOGAF为框架的数据主题域的分类建模,并进行过指标体系建设 2. 精通至少一种DBMS,有DBA证书及DB性能调优经验,有数据仓库性能优化经验 3. 精通SQL语言,有复杂存储过程和调度的开发经验,熟练使用INFORMATICA、KETTLE等调度工具 4. 独立完成过报表业务需求分析,有报表开发经验,如Tableau/SmartBI 5. 两年以上基于HDFS/Spark SQL/Hbase/Hive/Kafka/Stream等分布式数据计算应用开发和运维经验 6. 有Hadoop/Spark 架构经验,有Hadoop计算集群在实际项目上的性能优化经验 7. 熟悉数据平台数据同步技术,如:OGG,CDC,Sqoop等,并有实际debug经验 8. 熟练进行数据清洗、数据处理、特征工程 9. 主导过互联网业务运营的相关分析工作,例如:价值客户染色、群组/聚类分析、离散/连续用户行为分析、用户挽留等 10. 主导过用户画像系统建设,及公司线上线下用户的个性化推荐系统研发和优化
  • 18k-35k·14薪 经验5-10年 / 不限
    软件服务|咨询,营销服务|咨询,数据服务|咨询 / B轮 / 150-500人
    if (your_passions.includes('coding')) { switch(your_stacks) { case 'Java': case 'Python': case 'Kubernetes': case 'Serverless': console.log('Join AfterShip'); break; } } 岗位职责 1、基于对业务的需求对业务数据进行数据仓库建模,并确保数据易于访问、可靠和精确; 2、与其他数据仓库工程师进行协调,以确保数据仓库环境的整体运行状况和性能,设计,开发, 测试,监视,管理和验证数据仓库活动,包括为数据仓库定义标准以及对 ETL 流程进行故障排除并有效解决问题; 3、调研新兴工具以及方法论提高团队的技能与效率; 4、主动推进外部用户了解数据仓库和 ETL 最佳实践,与他们一起将业务问题与需求转换为数据模型,提高业务团队的数据技能; 5、与业务团队合作通过数据分析解答基本业务问题。 岗位要求 1、熟悉数据建模,习惯于设计和实现复杂的数据结构,考虑多个用户的需求并持续进行优化; 2、具有处理非结构化数据和复杂的 ELT 流程的经验;能够调整流式处理和批处理应用程序以数据管道性能; 3、了解或者熟悉敏捷开发流程与原理,完整经历从需求到部署的整个生命周期; 4、熟练的编写 SQL 代码,并有能力优化其查询性能; 5、至少具有 Python/Java/Scala 其中之一的编写经验; 6、具有数据管道编排工具的使用经验,例如 Airflow(**)、Luigi 等; 7、能够较熟练的使用英文,并渴望在多元文化的国际环境中工作。 加分项 1、具有 AWS、GCP 等云平台的使用经验; 2、具有流量分析以及跟踪的经验; 3、对数据工程、数据科学愿意付诸实践; 4、具有在 SaaS /电商 行业工作的丰富经验; 5、在数据工程或者商业智能领域有所精通。 为什么加入我们 1、公司处于高速增长期,规模及营收每年持续翻倍中,10w+ 客户,盈利可观; 2、出海电商、SaaS 企业服务赛道,国际一线投资机构加持,行业大佬背书, 3、硅谷办公文化,高自由度、扁平化管理、强数据驱动,开放透明三观正; 4、有竞争力的薪资、福利和广阔的上升空间,各式人才培养计划与支持。
  • 20k-40k 经验不限 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、了解内部客户和外部客户对于数据仓库的需求; 2、构建面向内外部的产研路线并落地; 3、实现商务团队和技术团队之间的有效沟通,拆解复杂问题并推动产品改进,以满足客户需求; 4、关于我们:我们的使命是构建下一代云原生数据仓库,帮助客户实现高效、实时且准确的数据驱动决策;加入具备全球视野的团队,与**人才协作,打造下一个带来变革的产品。 职位要求: 1、计算机科学/计算机工程或相关领域本科(或同等水平的工作经历); 2、在数据分析领域有2年或以上的产品经理经验,(例如Presto, Druid, Kylin, SparkSQL等)或数据仓库领域(Snowflake, Teradata, Redshift, ADB等); 3、有参与制订GTM策略并实现的经历; 4、理解基于大规模并行处理(MPP)的数据系统的优势和挑战; 5、能理解企业客户的需求,并且主动推动问题解决; 6、可以接受外派到海外研发中心; 7、加分项:1年或以上的企业产品管理经验,有与开源社区协同工作的经历。
  • 15k-30k·16薪 经验3-5年 / 本科
    企业服务,数据服务 / A轮 / 150-500人
    岗位职责: 1、负责业务数据仓库模型设计和开发; 2、进行ETL设计,数据集市建设落地; 3、负责数据集成融合,元数据管理,数据指标体系等研发。 任职要求: 1、计算机相关专业本科及以上学历(特别优秀的专科学历也可),3年以上数据仓库建设经验,有数据治理等相关经验优先; 2、熟悉数据仓库模型和数据中台模型设计方法论,有实际搭建公司层级数仓的经验,数据仓库性能优化的实战经验; 3、精通SQL,有Hive, Kudu、Spark, Flink等大数据开发相关经验; 4、有较强的数据敏感性,能快速对接BI工具; 5、具有高度的责任感,思路清晰, 有良好的沟通能力。 6、面向能力优秀者提供leader职位。
  • 15k-30k 经验1-3年 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、收口并深入理解字节跳动游戏业务各团队的数据需求场景,并对需求响应的效率负责; 2、与数据工程师协作,持续完善游戏业务数仓,并通过中台完善的产品体系输出给业务; 3、抽象游戏业务通用的分析框架,并推动相关技术或产品方案在中台团队落地; 职位要求: 1、对业务敏感,能够全面理解业务并用深入浅出的语言对业务作抽象; 2、掌握常用统计分析方法,能够理论结合实践,有业务数据分析经验者优先; 3、了解常用的数据仓库建模方法,有过快节奏下业务数据支撑经验者优先。
  • 15k-20k 经验5-10年 / 本科
    金融业 / 上市公司 / 2000人以上
    工作职责 1、 负责公司数据中台的各层次数据模型设计,包括概念模型、逻辑模型与物理模型 2、 负责公司主题模型、指标与标签模型、业务领域模型的设计,保证模型设计的规范性、合理性、可复用性,并具有良好的落地实施性能 任职要求 1、本科及以上学历。计算机、软件工程等相关专业。 2、5年及以上数据建模经验,熟悉建模理论与方法,具备范式建模、维度建模经验,能按需求划分主题域,产出概念模型、逻辑模型等。 3、熟悉SQL。熟悉Oracle、MySQL、Hive等常见数据库的原理与使用,具备物理模型设计与优化能力。 4、具有较强的数据敏感度与数据逻辑,业务理解能力强,具有快速学习能力,具备一定的数据架构能力;较强的团队协作能力和沟通能力。 5、熟悉寿险行业,有数据中台、数据仓库、大数据平台建模经验,熟悉数据建模体系,如FS-LDM、FSDM、OneData等相关思维体系的优先。
  • 15k-30k 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1、独立对接产险业务系统开发,完成数据探索和梳理,能够根据实际生产情况为数据使用方设计合理可落地的离线数据仓库模型和分层架构,并设计在Hive上的落地方案; 2、制定较为通用的实时数据仓库方案,并进行落地; 3、指导数仓开发人员实施,持续跟进设计的调整和优化,对代码进行评审; 4、负责产险数据平台数据架构优化,代码评审,并且能够根据业务需求不断优化数据架构,持续保证数据产品的可靠性、稳定性; 5、根据业务需求梳理指标,并把指标通过数据仓库建模理论转化为数仓相关的分层和模型; 任职要求 1、本科及以上学历,计算机或相关专业,5年以上数据建模 ,擅长复杂业务,数据问题处理以及海量数据(TB级别)处理相关经验; 2、熟悉数据仓库建设生命周期流程规范,熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构掌握范式建模,维度建模等主流建模理论,能够根据用户需求做到点到面的扩展,制定在实际生产场景中合理和可落地的技术方案,并为客户的提供长期稳定的数据服务支持; 3、具备数据仓库架构设计,模型设计,ETL设计的相关经验,性能调优经验; 4、熟悉hadoop生态圈常用的技术及底层原理,精通hive sql的开发和优化; 5、有完整指标体系建设和数据标准化建设项目优先考虑; 6、了解金融业务知识,并且能够给用户的数据需求提出合理的建议,从事保险行业优先; 7、具有较强的分析问题和解决问题的能力; 8、具备良好的团队协作能力、沟通能力和学习能力,有责任感;
  • 25k-40k 经验1-3年 / 本科
    文娱丨内容 / 上市公司 / 2000人以上
    岗位职责: 1、负责爱奇艺广告变现核心业务模块标准化cube数据的开发建设; 2、负责数据模型的设计、etl实施、etl性能优化、etl数据监控以及相关技术问题的解决; 3、负责面向业务的olap、报表、数据提取等工作; 4、深度分析PB级别的流量数据特征,挖掘数据价值; 5、有数据平台/数据应用相关工作经验优先。 任职要求: 1、本科及以上学历,精通至少一门编程语言,如Java、Python;具有很强的开发与动手能力; 2、2年以上etl开发经验,熟悉数据仓库产品,对数据处理、维度建模、数据分析等有深刻认识和实战经验,如Hadoop/Hive,Storm/Spark,Impala,MPP等的数据应用开发; 3、对大数据平台的构建和实现机制有深刻的理解,有大数据平台运维和开发经验; 4、深入理解常用的数据建模理论,可独立把控数据仓库的各层级设计;有数据挖掘,机器学习,推荐相关经验优先。 温馨提醒: 如果7天内您没有收到爱奇艺的面试邀请,那么目前我们不会安排您参加后续的面试环节,感谢您的理解和对爱奇艺的关注与认可。
  • 30k-50k 经验3-5年 / 本科
    文娱丨内容 / 上市公司 / 2000人以上
    岗位职责: 1、负责短视频推荐团队数据报表开发,与分析师、产品经理,PM协同挖掘数据价值; 2、基于海量数据建设数据仓库,负责数据仓库的设计、建模、研发等; 3、负责数据仓库流程的优化及解决相关技术问题; 4、负责业务相关数据开发和管理工作,如研发规范、质量规范、服务保障的制定与实施; 5、对推荐业务的商业模式和数据具有较强敏感性,能够发觉数据价值,使数据驱动业务。 任职要求: 1、本科及以上学历,计算机或数理统计相关专业,3年以上相关领域工作经验,有数据挖掘,机器学习,推荐相关经验优先; 2、熟练掌握大数据相关技术Hadoop、hive、hbase、spark、Flink、Elasticsearch等生态圈相关技术实际使用和调优经验; 3、对大数据基础架构和平台有深刻理解,对基于Hadoop的大数据体系有深入认识; 4、洞察力强,敏锐,踏实肯干、乐观向上、团结他人,能够自我指导与激励。 温馨提醒:如果 7 天内您没有收到爱奇艺的面试邀请,那么目前我们不会安排您参加后续的面试环节,感谢您的理解和对爱奇艺的关注与认可。
  • 15k-30k·13薪 经验3-5年 / 本科
    人工智能服务 / B轮 / 50-150人
    岗位职责 : 1、负责公司数据仓库设计和开发,包括理解业务、数据仓库设计、清洗建模,并支撑数据应用需求 2、深入了解业务背景,能抽象业务需求,负责数据模型架构的构建,建立数据抽取、清洗、校验等数据加工流程设计; 3、负责对接业务报表需求,业务核心指标体系建设,并完成落地和数据跟踪、问题分析和排除; 4、对现有数据体系和报表体系进行数据治理,脚本优化,存储优化,架构优化等,以提升数据稳定性及时性,数据质量,数据一致性等,同时提升数据存储和计算资源利用率. 任职资格: 1、本科及以上学历,计算机相关专业毕业;1年及以上大数据经验。 2、熟悉Hadoop大数据生态系统如Hive、Impala、Spark、Flink、Flume等多种组件和技术 3、熟悉数据仓库和数据模型建设的相关技术细节,负责公司数据仓库的设计、优化、建模以及ETL开发,熟悉BI报表开发; 4、熟悉MySQL、Oracle等多种关系型数据库设计、开发经验,深入掌握数据库及SQL等优化, 5、有数据开发规范制定和实施,元数据/血缘管理,数据质量管理、任务调度等经验者优先 6、有Java或Scala语言编程能力,熟悉在liunx下进行操作并且有shell编程能力。 7、对技术有强烈爱好,良好的团队协助能力,抗压能力强 工作地址
  • 30k-50k 经验5-10年 / 本科
    移动互联网,消费生活 / 不需要融资 / 500-2000人
    岗位职责: 1.负责公司离线数据仓库的建设。 2.解决数据仓库建设过程中遇到的各类技术问题。 3.深入公司各产品线,从全局出发,负责主题域和业务域的划分。 基本要求: 1. 5年以上工作经验。 1. 至少精通Scala或Java中的一种。 2. 精通Hadoop生态、Spark、Flink。 3. 深入理解kimball数据仓库设计模式。 4. 熟悉Hbase、mysql、hive。 5. 熟悉kylin或druid者优先考虑。
  • 40k-80k·16薪 经验5-10年 / 本科
    短视频 / 上市公司 / 2000人以上
    岗位描述: 1、负责公司内部业务数据数仓建设,包括数据同步、数据分层建设、数据集市构建等工作; 2、数据分析应用开发,包括:业务需求报表数据开发、临时数据需求支撑等。 3、数据平台业务系统报表数据开发,包括数据需求梳理、维度指标设计、应用层模型设计,应用数据开发等。 4、与数据PM、后端、前端团队密切合作,确保项目的进度和质量。 任职要求: 1、**本科及以上学历,五年及以上数据仓库及数据开发相关工作经验; 2、精通hive SQL编写及调优,掌握Hive、Druid、Hbase、Elasticsearch等数仓工具的使用; 4、熟悉数据仓库建模理论,较强的数据建模能力,产品需求转换为数据模型的能力; 5、具备独立分析和解决问题的能力,积极主动,认真踏实的工作态度,有与产品、BI、前端、后端等多方密切配合的经验和意识。
  • 30k-45k·14薪 经验5-10年 / 不限
    移动互联网 / D轮及以上 / 150-500人
    工作职责: - 全面负责建设蜻蜓FM数据仓库建设,包括不限于架构设计、建模、优化、采集和ETL工作等,基于大数据仓库对业务提供有效且深入的支持 - 负责大数据模型业务理解、需求分析、设计开发、模型推广,并能够追踪和评估使用效果,持续迭代优化,建设完善、高效、合理的数据仓库底层模型,扩大化数据仓库能力开放 - 建立数据仓库使用、建模、开发规范,落地数据治理方案、数据安全等 - 能够基于一致性、及时性、准确性等要求不断提升数仓质量,并且有量化指标追踪 - 协助大数据平台建设,包括大数据分析平台、数据中台、实时平台、调度系统等 - 负责数据仓库开发团队的管理工作 任职要求: - 一流大学计算机、数学、统计学等相关专业领域本科及以上学历,5年以上大数据开发经验,3年以上数仓开发数据建模经验,1年以上团队管理经验 - 具备较强的业务理解和沟通能力,丰富的数据建模经验,能够带领团队理解业务、分析需求、设计方案和落地 - 精通Hive SQL开发,有较丰富的Hive SQL(on Tez)性能调优经验,能开发Hive UDF等 - 有大数据分析挖掘、统计学等理论知识和相关经验者优先 - 具备良好的沟通能力和团队协作意识,对业务有一定的理解能力,有强烈的责任心,稳重踏实,学习能力强,对大数据技术和发展有强烈的热爱
  • 科技金融 / 上市公司 / 500-2000人
    工作职责: 1. 负责支付、信贷、生活服务等金融业务的数据集市与报表开发,包括多维指标视图加工、用户画像、计算任务管理、元数据构建与维护、数据质量保证等; 2. 建设必要的工具组件和平台,提供便捷高效的数据接入、清洗和统计能力; 3. 与产品和运营团队一起设计和构建准确、完善、深入的指标体系,对数据进行深入分析和洞察,为业务规划和运营提供参考; 任职要求: 1. 本科及以上学历,2年以上数据仓库开发经验; 2. 熟练掌握SQL语法,熟悉Hive、Oracle、MySQL常规数据库使用和性能调优技巧,熟悉数据仓库层次模型和数据集市理论,有TB级数据仓库使用经验优先; 3. 熟练掌握Kafka、Pulsar等消息队列,熟练掌握Storm、Spark Streaming、Flink等流式计算框架的使用; 4. 熟悉HBase、Cassandra等常见分布式数据存储读写及其性能优化; 5. 熟悉Kylin、Druid、ClickHouse等OLAP系统的架构和使用场景; 6. 熟悉Python和Shell开发,掌握Java、Scala、Golang等开发语言者优先; 7. 较好的业务理解和洞察能力,熟悉支付、信贷、财务等数据分析和模型者优先;
展开