-
职位职责: 1、负责飞书项目产品线业务离线&实时数据仓库构建; 2、负责维度模型的设计和大数据开发,解决数据任务性能优化、质量提升等技术问题; 3、负责自研检索DSL解析执行引擎,做实时数据加工计算系统。 职位要求: 1、计算机、数学相关专业本科及以上学历,三年及以上大数据开发实际工作经验; 2、深入理解常用的维度建模理论,可独立把控数据仓库的各层级设计,有OLAP分析应用经验;有数据挖掘,数据分析相关经验优先; 3、熟练掌握HSQL,熟悉Spark/Hive/Flink分布式计算框架,熟悉大数据的离线和实时处理,可以进行海量数据模型的设计、开发; 4、有产品意识,主动思考基于业务场景下的数据体系建设; 5、工作认真负责,有良好的团队合作精神和解决问题分析能力,钻研技术克服困难,勇于挑战。
-
职位职责: 1、负责飞书People产品线业务离线&实时数据仓库构建; 2、负责维度模型的设计和大数据开发,解决数据任务性能优化、质量提升等技术问题; 3、负责打通不同业务线数据内容,形成统一数据模型; 4、负责全产品线数据治理,提升数据资产质量。 职位要求: 1、计算机、数学相关专业本科及以上学历,三年以上大数据开发实际工作经验; 2、深入理解常用的维度建模理论,可独立把控数据仓库的各层级设计,有OLAP分析应用经验;有数据挖掘,数据分析相关经验优先; 3、熟练掌握HSQL,熟悉Spark/Hive/Flink分布式计算框架,熟悉大数据的离线和实时处理,可以进行海量数据模型的设计、开发; 4、有产品思维,主动思考基于业务场景下的数据体系建设,而不单单只会做执行; 5、工作认真,负责,良好的团队合作精神和解决问题分析能力,钻研技术克服困难,勇于挑战。
-
岗位职责: 1、对接并梳理业务需求,开发数据仓库模型,设计相关主题的事实表和维度表等; 2、负责数据仓库开发相关技术文档、技术标准、编码规范的制定; 3、负责数据治理、数据资产建设、模型集市建设等,并基于大数据平台完成各类统计和开发任务。 任职要求: 1、具有2年以上数据仓库(DW)、商务智能(BI)、大数据等方面的软件或项目开发经验; 2、精通SQL编程,熟悉Shell; 3、熟悉数据仓库模型和数据中台模型设计方法论,有实际搭建公司层级数仓的经验,有数据仓库性能优化的实战经验; 4、熟悉Flink或者阿里Blink框架,并有实际实时数仓开发经验; 5、具有扎实的数据库知识,熟悉关系型数据库; 6、需求理解能力强,拥有良好的分析和技术能力,并具备解决问题的能力; 7、有使用Hadoop生态有关大数据组件(Hive, Hbase, Spark等)经验,了解相关技术原理的优先; 8、有互联网公司或者保险金融相关行业数仓建设经验优先; 9、熟悉阿里云数据中台Dataworks、MaxCompute等产品,并有实际开发经验者优先。
-
工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
-
岗位职责: 1、带领部门数据中台数仓开发成员,负责太保寿险内部数仓各层逻辑模型的设计、建设与维护,构建可扩展的数据仓库公共模型; 2、负责数据处理流程的优化、定位并解决有关技术问题; 3、对接公司个险、团险、运营等业务团队,协调满足业务团队对于各维度数据的需求; 4、参与制定公司与事业部数仓规划、数据研发规范、以及数据治理与指标的管理方案。 任职要求: 1、5年以上数据仓库工作经验,熟悉数据仓库模型设计方法论,有实际搭建公司层级数仓的经验; 2、精通数据仓库有关领域知识,例如元数据管理、主数据管理、ETL工作流、SQL性能调优等; 3、精通SQL、熟悉Shell、具备海量数据加工经验; 4、熟悉Flink或者阿里Blink等实时计算框架,并有实际实时数仓开发经验; 5、有阿里云数据中台产品DataWorks、MaxCompute工作经验优先、熟悉Hive/Flink/Spark等开源大数据工具优先; 6、有较强的问题抽象、概括、总结能力,独立思考并能以产品的思路提出解决方案; 7、具有较好的沟通理解能力,团队协作和创新能力; 8、有互联网公司或者保险金融企业数仓建设经验者优先; 9、有一定团队管理经验。
-
if (your_passions.includes(‘coding’)) { switch(your_stacks) { case ‘Java’: case ‘Python’: case ‘Kubernetes’: case ‘Serverless’: console.log(‘Join AfterShip’); break; } } 岗位职责 1、负责建设商家端关键业务模块数据建设工作, 包括退货, 履约, 保险, 包裹查询等业务; 2、负责售后产品业务线数据仓库建设,承接端到端的业务需求以及交付物的质量提升; 3、参与制定数据采集规范和流程,统筹实施,建设数据指标体系数据模型,提升数据文化、实现数据价值; 4、设计开发业务数据服务体系,不断优化数据计算和访问性能,保证服务高质量稳定运行; 5、和产品经理一起推进项目需求落地,将业务和产品需求转变成为技术实现方案,控制项目风险以及完成任务拆解。 岗位要求 1、本科及以上学历,具备基本的英语读写能力; 2、5 年及以上数仓开发相关经验,熟练掌握 Python/Java/Scala; 3、精通基于 SQL 的数据建模,熟练设计和实现复杂的数据结构,考虑多个用户的需求并持续进行优化; 4、了解实时框架 (Flink, Spark) 的使用与调优,对某项数据库技术有深入理解,如 Clickhouse, Doris, MySQL, HBase; 5、对代码质量有追求,具备良好的面向对象编程经验,熟悉常用的设计模式,具有较强的架构设计能力; 6、积极主动、责任心强,具备优秀的逻辑分析和问题解决能力,具备良好的学习能力和团队协作能力。 加分项 1、具有 AWS、GCP 等云平台的使用经验; 2、熟悉大数据 SaaS 平台产品与技术体系,有复杂业务系统从 0 到1 的构建经验; 3、熟悉数据产品端到端研发经验,有 CDP、DMP、CRM 等数据产品研发经验; 4、英语可作为工作语言。 为什么加入我们 1、朝阳行业:国际电商 SaaS 服务赛道,国际一线投资机构加持; 2、稳健发展:团队稳健扩张,业务规模及营收每年持续稳健增长; 3、多元文化:团队来自全球 20 多个不同城市,国际化视角、扁平化管理; 4、极客氛围:拥抱开源技术,实践敏捷开发,崇尚通过工具和自动化来解决问题; 5、特色福利:学习基金、 一对一帮带、内部商城、提供 MacBook 及可升降办公桌。
-
工作职责: 1、负责业务离线&实时数据仓库构建; 2、负责维度模型的设计和大数据开发,解决任务性能优化、数据监控等技术问题; 3、负责业务数据治理,提升数据资产质量。 任职要求: 1、计算机、数学相关专业,电商相关经验优先,具备三年以上大数据开发工作经验; 2、深入理解常用的维度建模理论,可独立把控数据仓库的各层级设计; 3、熟练掌握HiveSQL,熟悉Spark/Hive/Flink分布式计算框架,熟悉大数据的离线和实时处理,可以进行海量数据模型的设计、开发; 4、有OLAP产品设计调优经验,熟悉Doris/Clickhouse等场景OLAP引擎; 5、工作认真,负责,良好的团队合作精神和解决问题分析能力,钻研技术克服困难,勇于挑战; 6、有数据挖掘,机器学习,推荐相关经验优先。
-
工作职责: 1.业务流梳理,依据业务流进行及业务域进行主题建模,模型优化。 2.基于数仓规范进行数据开发。 3.进行数据验证,保证数据质量。 4.进行作业流配置,持续运营。 5.参与模型评审,参与数据质量提升相关事项。 任职资格: 1.本科及以上学历,5年以上数仓开发经验,熟悉数据仓库分层设计 (ODS、DWD、DWS、ADS)建设方法。 2.熟悉主题建设方法,能基于业务沉淀维度和事实,能独立抽象主题、建设模型、物理化并调整效率和性能。 3.熟悉常用的Bl系统建设方法,熟练使用主流BI工具,理解其实现原理及使用什么技术解决什么问题,有帆软BI/PowerBI 的经验更佳。 4.具备较强的编码能力,熟练掌握 SQL, Hive,Python,Spark等中的多项,有独立处理大规模数据/日志的经历。 5.具备sql优化能力,有过sparksql优化经验优先。
-
1、熟悉数据应用系统分析、设计和开发流程; 2、熟悉hadoop、hive和Gauss等开发技能,三年以上的数据开发经验 3、熟悉 linux 常用命令,shell 脚本的编写 4、熟悉ETL设计开发,对数据仓库、数据平台等有深刻的理解,具备丰富的海量数据加工处理和优化经验 5、精通SQL编程,具备MPP数据库性能优化、SQL调优等能力 6、熟悉数据仓库分层以及数据库模型 备注:一定要有银保监会监管报送项目相关的经验
-
职位描述 1、 负责数据仓库架构设计、建模和ETL开发; 2、 参与数据ETL流程的优化并解决海量数据ETL相关技术问题; 3、 参与复杂数据链路依赖和多元数据内容生态下的数据治理工作; 4、 背靠字节跳动强大的中台架构和产品体系,在业务快速落地数据解决方案。 职位要求 1、 精通数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、 具备较强的编码能力,熟练掌 SQL/Python/Java/Hive/Spark/Kafka/Flink中的多项; 3、 对数据敏感,认真细致,善于从数据中发现疑点; 4、 善于沟通,具备优秀的技术与业务结合能力; 5、 较好的英文沟通能力是加分项。
-
工作地点:北京、西安、深圳、杭州、武汉 岗位职责: 1、负责数据库领域的需求分析、设计、开发等工作; 2、负责业界领先的云端到终端各层次内核数据库研发,基于操作系统内核技术构建数据库高性能高可用等核心竞争力; 3、负责数据库内核相关领域的新技术探索。 岗位要求: 1、计算机相关专业,本科及以上学历:熟练掌握C/C++/JAVA语言; 2、熟悉Linux操作系统、数据库应用,熟悉代码优化的规则与技巧; 3、拥有数据库领域编码经验,熟悉SQL和存储引擎的优先。
-
工作地点:北京、西安、深圳、杭州、武汉 岗位职责: 1、负责数据库领域的需求分析、设计、开发等工作; 2、负责业界领先的云端到终端各层次内核数据库研发,基于操作系统内核技术构建数据库高性能高可用等核心竞争力; 3、负责数据库内核相关领域的新技术探索。 岗位要求: 1、计算机相关专业,本科及以上学历:熟练掌握C/C++/JAVA语言; 2、熟悉Linux操作系统、数据库应用,熟悉代码优化的规则与技巧; 3、拥有数据库领域编码经验,熟悉SQL和存储引擎的优先。
-
岗位职责:在需求清晰的情况下,能独立完成项目级的交付任务 1、针对源系统完成数据调研,模型设计,文档产出等工作 2、完成海外数据调研,整理,模型设计,文档产出等工作 3、按照模型分解模块开发任务,并跟踪任务的交付 3、根据业务和需求,制定造数方案,结合产品检查造数数据质量 4、保证数仓产出物质量,包含数据,文档,流程 5、产出数仓开发测试规范,完善现有开发测试流程 6、配合产出行业模型 7、定期进行个人总结分享 硬性条件:具备英语口语交流能力,能接受3个月左右海外出差 任职要求: 1、有过完整的数仓项目的实施经验,并在项目中承担模型设计,架构设计和整体交付等重要工作 2、善于沟通,有极强的跨团队协作能力和执行力 3、对数据仓库架构,模型设计理论、数据处理流程有清晰理解,并具备很强的数据分析能力和很强的表达能力 4、有很强的技术基础,具备Java,Python,SQL,Shell一种或多种语言编程能力 5、有流数据处理架构设计经验,精通流式数据处理流程的设计、开发和调优 6、有很强的团队领导和任务跟踪能力,极强的执行力和责任感,文档能力出色 7、有海外数据项目实践经验者优先
-
岗位职责: 1、负责海量数据的ETL; 2、为业务部门提供数据支撑; 3、负责数据治理,推进数据标准化。 任职要求: 1、重点本科或以上学历,计算机、数学、通信等相关专业; 2、具备3年以上开发经验,编程、数据结构、算法功底扎实,要求熟悉Java、Scala、Python、SQL中至少两门开发语言,其中Java和SQL为必须熟悉的; 3、熟悉常用大数据技术,包括Hadoop、Hive、Spark、Flink、Kafka、Hbase、Kylin等,有实际项目经验; 4、熟悉数据仓库体系架构、建模理论和模型设计思路,有实际项目经验; 5、熟悉ETL设计、调度、监控、算法等,能够熟练的进行事实表、维度表ETL工作; 6、有海量数据处理和数据治理经验者优先;有阿里云或华为云大数据产品使用经验优先。
-
岗位职责:1、参与建设具体业务统一的数据体系,能独立完成项目的系统分析,根据开发规范和数据模型设计实现数据开发任务,保证数据质量;2、参与数据仓库的设计和研发,进行海量数据模型设计、数据ETL开发;3、参与数据产品及应用的数据研发,发觉数据业务价值,助力数据化运营业务,构建丰富多样的BI应用。任职要求:1、从事数据仓库领域至少3年以上,本科及以上学历;熟悉数据仓库模型设计与ETL开发经验 ,有较为系统的海量数据性能处理经验;2、有从事分布式数据存储与计算平台上数据开发经验,熟悉Hadoop生态相关技术并有相关实践经验,包括HDFS、MapReduce、Hive、HBase,有Spark/Flink的开发经验尤佳;3、具备一定的JAVA、Python语言的开发能力,对数据挖掘和机器学习有所了解,包括常用的机器学习算法和数据建模过程的优先; 4、有业务sense,责任心强,做事细致,具备较强的沟通协作能力、自我驱动能力,能够通过梳理设计业务模型发现业务问题,并驱动业务目标实现;5、有电商经验优先。