-
职位职责: 1、参与字节跳动搜索业务离线和实时数据仓库建设工作; 2、参与数据ETL流程的优化并解决海量数据ETL相关技术问题; 3、参与复杂数据链路依赖和多元数据内容生态下的数据治理工作; 4、背靠字节跳动强大的中台架构和产品体系,在业务快速落地数据解决方案。 职位要求: 1、精通数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、具备较强的编码能力,熟悉sql,python,hive,spark,kafka,flink中的多项,有TB以上大数据处理经验; 3、对数据敏感,认真细致,善于从数据中发现疑点; 4、善于沟通,具备优秀的技术与业务结合能力。
-
职位职责: 1、负责数据仓库架构设计、建模和ETL开发; 2、参与数据ETL流程的优化并解决海量数据ETL相关技术问题; 3、参与复杂数据链路依赖和多元数据内容生态下的数据治理工作; 4、背靠字节跳动强大的中台架构和产品体系,在业务快速落地数据解决方案。 职位要求: 1、精通数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、具备较强的编码能力,熟练掌 SQL/Python/Java/Hive/Spark/Kafka/Flink中的多项; 3、对数据敏感,认真细致,善于从数据中发现疑点; 4、善于沟通,具备优秀的技术与业务结合能力; 5、较好的英文沟通能力是加分项。
-
工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
-
if (your_passions.includes(‘coding’)) { switch(your_stacks) { case ‘Java’: case ‘Python’: case ‘Kubernetes’: case ‘Serverless’: console.log(‘Join AfterShip’); break; } } 岗位职责 1、负责建设商家端关键业务模块数据建设工作, 包括退货, 履约, 保险, 包裹查询等业务; 2、负责售后产品业务线数据仓库建设,承接端到端的业务需求以及交付物的质量提升; 3、参与制定数据采集规范和流程,统筹实施,建设数据指标体系数据模型,提升数据文化、实现数据价值; 4、设计开发业务数据服务体系,不断优化数据计算和访问性能,保证服务高质量稳定运行; 5、和产品经理一起推进项目需求落地,将业务和产品需求转变成为技术实现方案,控制项目风险以及完成任务拆解。 岗位要求 1、本科及以上学历,具备基本的英语读写能力; 2、5 年及以上数仓开发相关经验,熟练掌握 Python/Java/Scala; 3、精通基于 SQL 的数据建模,熟练设计和实现复杂的数据结构,考虑多个用户的需求并持续进行优化; 4、了解实时框架 (Flink, Spark) 的使用与调优,对某项数据库技术有深入理解,如 Clickhouse, Doris, MySQL, HBase; 5、对代码质量有追求,具备良好的面向对象编程经验,熟悉常用的设计模式,具有较强的架构设计能力; 6、积极主动、责任心强,具备优秀的逻辑分析和问题解决能力,具备良好的学习能力和团队协作能力。 加分项 1、具有 AWS、GCP 等云平台的使用经验; 2、熟悉大数据 SaaS 平台产品与技术体系,有复杂业务系统从 0 到1 的构建经验; 3、熟悉数据产品端到端研发经验,有 CDP、DMP、CRM 等数据产品研发经验; 4、英语可作为工作语言。 为什么加入我们 1、朝阳行业:国际电商 SaaS 服务赛道,国际一线投资机构加持; 2、稳健发展:团队稳健扩张,业务规模及营收每年持续稳健增长; 3、多元文化:团队来自全球 20 多个不同城市,国际化视角、扁平化管理; 4、极客氛围:拥抱开源技术,实践敏捷开发,崇尚通过工具和自动化来解决问题; 5、特色福利:AI 学习基金、 一对一帮带、内部商城、提供 MacBook 及可升降办公桌。
-
岗位职责:在需求清晰的情况下,能独立完成项目级的交付任务 1、针对源系统完成数据调研,模型设计,文档产出等工作 2、完成海外数据调研,整理,模型设计,文档产出等工作 3、按照模型分解模块开发任务,并跟踪任务的交付 3、根据业务和需求,制定造数方案,结合产品检查造数数据质量 4、保证数仓产出物质量,包含数据,文档,流程 5、产出数仓开发测试规范,完善现有开发测试流程 6、配合产出行业模型 7、定期进行个人总结分享 硬性条件:具备英语口语交流能力,能接受3个月左右海外出差 任职要求: 1、有过完整的数仓项目的实施经验,并在项目中承担模型设计,架构设计和整体交付等重要工作 2、善于沟通,有极强的跨团队协作能力和执行力 3、对数据仓库架构,模型设计理论、数据处理流程有清晰理解,并具备很强的数据分析能力和很强的表达能力 4、有很强的技术基础,具备Java,Python,SQL,Shell一种或多种语言编程能力 5、有流数据处理架构设计经验,精通流式数据处理流程的设计、开发和调优 6、有很强的团队领导和任务跟踪能力,极强的执行力和责任感,文档能力出色 7、有海外数据项目实践经验者优先
-
岗位职责: 1、负责海量数据的ETL; 2、为业务部门提供数据支撑; 3、负责数据治理,推进数据标准化。 任职要求: 1、重点本科或以上学历,计算机、数学、通信等相关专业; 2、具备3年以上开发经验,编程、数据结构、算法功底扎实,要求熟悉Java、Scala、Python、SQL中至少两门开发语言,其中Java和SQL为必须熟悉的; 3、熟悉常用大数据技术,包括Hadoop、Hive、Spark、Flink、Kafka、Hbase、Kylin等,有实际项目经验; 4、熟悉数据仓库体系架构、建模理论和模型设计思路,有实际项目经验; 5、熟悉ETL设计、调度、监控、算法等,能够熟练的进行事实表、维度表ETL工作; 6、有海量数据处理和数据治理经验者优先;有阿里云或华为云大数据产品使用经验优先。
-
岗位职责:1、参与建设具体业务统一的数据体系,能独立完成项目的系统分析,根据开发规范和数据模型设计实现数据开发任务,保证数据质量;2、参与数据仓库的设计和研发,进行海量数据模型设计、数据ETL开发;3、参与数据产品及应用的数据研发,发觉数据业务价值,助力数据化运营业务,构建丰富多样的BI应用。任职要求:1、从事数据仓库领域至少3年以上,本科及以上学历;熟悉数据仓库模型设计与ETL开发经验 ,有较为系统的海量数据性能处理经验;2、有从事分布式数据存储与计算平台上数据开发经验,熟悉Hadoop生态相关技术并有相关实践经验,包括HDFS、MapReduce、Hive、HBase,有Spark/Flink的开发经验尤佳;3、具备一定的JAVA、Python语言的开发能力,对数据挖掘和机器学习有所了解,包括常用的机器学习算法和数据建模过程的优先; 4、有业务sense,责任心强,做事细致,具备较强的沟通协作能力、自我驱动能力,能够通过梳理设计业务模型发现业务问题,并驱动业务目标实现;5、有电商经验优先。
-
工作内容 1.负责金融大数据采集,计算,分析处理等相关开发工作,设计各层数据模型(ODS/DWD/DWS/ADS等) ; 2.负责金融业务的数据仓库设计与开发等工作,包括支付、理财、证券、小贷等业务 ; 3.负责金融大数据治理相关的设计与开发工作,包括资产管理、质量效能等。 任职要求 1.本科及以上学历,3年以上工作经验,熟悉数据仓库建设及常用建模理论; 2.熟悉ETL过程与模型设计,包括数据链路流转、星形模型与雪花模型等; 3.熟悉Hadoop,Spark,Flink,Kafka等相关平台和组件; 4.熟悉Java,shell,Python,SQL等至少两种开发语言; 5.良好的沟通表达能力,执行力强,对待工作认真严谨负责; 6.具备以下经验者将优先考虑:; 7.有大型数仓模型落地经验者,具备模型性能优化,链路优化等经验者; 8.熟悉大数据引擎原理者,比如spark、hive、flink、clickhouse等; 9.熟悉金融领域业务知识,并熟悉金融数据资产应用者。
-
岗位职责: 1、在数仓负责人带领下,针对BI,算法,数据产品的需求,负责公司多业务数据仓库建设与模型设计,制定和落实数据仓库规范以及数据治理工作; 2、进行ETL设计,数据集市建设,落地及后续的运维; 3、负责各条业务线的数据整合方案设计及日志规范,数据分析指标体系建设及元数据管理; 4、稽查和监控数据质量,数据报表系统及相关数据产品的研发和数据需求的沟通及数据开发项目管理。 岗位要求: 1、掌握数据仓库(DW)商业智能(BI)理论知识,具备2年以上数据仓库建设经验,有数据中台、数据治理呼吁等相关经验优先; 2、精通SQL,熟悉mapreduce原理,有hive调优经验,具备一定的python和java开发能力,有Hadoop, Spark, Flink等大数据开发相关经验优先 3、具有高度的责任感,思路清晰,有良好的沟通能力; 4、本科以上学历,计算机、信息管理等相关专业
-
职位描述 1、负责离线、实时数据建模以及数据仓库应用产品的设计和开发; 2、负责数据仓库ETL流程的优化及解决ETL相关技术问题; 3、数据仓库和业务数据集市建设、日常数据治理,保障数据质量; 4、数据驱动业务应用落地。 任职资格 1、**本科及上学历 2、计算机、电子、数学、统计等相关专业 3、精通数据仓库理论和数据模型设计、数据治理,有实际项目经验; 4、了解hadoop/spark基本原理,有MR或Spark的开发经验优先考虑; 5、精通SQL,具备海量数据开发能力,至少熟悉一种主流数据库(比如Oracle/MySQL等),有Hive使用、实时数仓开发经验; 6、对数据敏感,有数据分析、挖掘经验优先; 7、良好的团队合作精神,体系化思维能力,对解决挑战型问题充满激情。
-
职位描述 1、负责Aliexpress国际化电商业务的商家数据体系建设,通过数据建模和数据挖掘能力,为业务迅速发展保驾护航; 2、建立灵活、易用、高效、标准的国际商家数据中间层,为数据服务和产品提供稳定、准确的数据; 4、能从业务视角,深刻理解数据和业务,洞察机会与风险。 职位要求 1、本科以上学历,1年以上数据相关工作经验; 2、较为丰富的数据仓库及数据平台的架构经验,精通数据仓库建模及ETL设计开发;有较为系统的海量数据性能处理经验; 3、对数据挖掘和机器学习有所了解,包括常用的机器学习算法和数据建模过程的优先; 4、良好的沟通表达能力和团队合作精神,有一定的组织协调能力,学习能力强有责任心,不断挑战自己;
-
岗位职责(工作要求、业务要求、工作权限等) 1,主导数据仓库模型设计。 2,参与元数据调研与应用系统原始数据分析。 3,参与ETL、调度、集群、数据处理的设计与开发,文档撰写。参与ETL平台建设,数据流调优,保障系统高效稳定。 4,参与数据仓库/数据集市/ODS/ADS等的设计与数据建模。 5,参与数据挖掘,行为预测等数据开发工作,参与海量数据的数据挖掘与价值探索。 6,参与数据标准和数据质量控制制定。 7,参与定义离线数仓质量模型,从计算性能、存储性能、ETL任务质量等层面进行优化。 任职要求(学历、专业、行为能力等) 1,计算机,软件工程,信息技术,统计学,应用数学等相关专业本科及以上学历(必须)。 2,互联网金融行业或泛金融系数仓建模背景优先 3,熟悉SQL。熟悉MYSQL、HIVE、DorisDB、Clickhouse等常规数据库,能够编写高效SQL、存储过程。熟悉数据库调优(必须)。有基于HIVE/SPARK/HBASE等应用开发优先。 4,熟悉以下任意一种ETL开发工具:DolphinScheduler、Airflow、Kettle尤佳。 5,熟悉LINUX操作系统,SHELL脚本。熟悉PYTHON,Java语言优先。 6,熟悉基本算法与数据结构(必须)。 7,熟悉建模理论与方法,熟悉维度建模,熟悉不同行业的模型主题域,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等。(必须)。 8,良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责(必须)。 9, 熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程(必须)。
-
岗位职责: 1、负责公司离线及实时数据仓库架构设计. 2、负责数据仓库建模、数据开发,解决数据开发中的技术问题。 3、负责公司现有数据仓库优化及维护。 4、支持公司各部门数据提取及报表服务。 5、培养指导团队成员。 任职要求: 1、精通数据仓库各类建模理论,具备大型数据仓库架构设计经验。 2、熟悉HADOOP生态环境,精通hive、spark、MapReduce、presto开发。 3、熟练mysql、greenplum、hbase、clickhouse、kylin、ES一种以上存储引擎。 4、具备金融行业、新零售行业数据仓库落地经验。 5、了解数据治理相关理论。 6、985/211计算机相关专业。
-
职位描述: 1. 负责阿里拍卖数据方向的规划和建设,共同构建阿里拍卖数据资产 2. 负责离线数仓和实时数仓工作,包括但不限于数据开发、性能优化、数据运维、数据治理,为下游使用方提供可靠、统一的离线+实时数据 3. 沉淀分析思路与框架,提炼数据产品需求,沉淀用户画像、投资人、商品库等数据产品,与BI、算法、产品、运营等团队合作,实现数据精细化运营,实现数据驱动业务增长 任职要求 1. 计算机相关专业,本科及以上学历,1~6年大数据开发相关工作经验 2. 精通Java/Python/Scala等至少一门语言,熟悉Hadoop/Spark/Hive/HBase/Flink等大数据研发工具 3. 熟悉数仓建设方法论,精通ETL设计开发,对数据仓库、数据平台、数据分析有深刻理解,具备对PB级数据的加工处理和性能优化 4. 有ClickHouse/Druid/Kylin/Superset等OLAP和数据可视化相关经验者优先,有源码阅读经验者优先 5. 良好的沟通表达能力和团队合作精神,有一定的组织协调能力,学习能力强有责任心,不断挑战自己
-
岗位职责: 1.基于对业务的需求对业务数据进行数据仓库建模,并确保数据易于访问、可靠和精确; 2.完成数据实时分析业务指标,构建实时数仓 3.与其他数据仓库工程师进行协调,以确保数据仓库环境的整体运行状况和性能,设计,开发,测试,监视,管理和验证数据仓库活动,包括为数据仓库定义标准以及对 ETL 流程进行故障排除并有效解决问题; 4.调研新兴工具以及方法论提高团队的技能与效率; 5.探索ETL 最佳实践,将业务问题与需求转换为数据模型,提高业务团队的数据技能; 6.与业务团队合作通过数据分析解答基本业务问题。 岗位要求: 1.熟悉数据建模,习惯于设计和实现复杂的数据结构,考虑多个复合需求的通用性并持续进行优化; 2.具有处理非结构化数据和复杂的 ETL 流程的经验;能够调整流式处理和批处理应用程序,及数据管道性能; 3.了解或者熟悉敏捷开发流程与原理,完整经历从需求到部署的整个生命周期; 4.熟练的编写 SQL 代码,并有能力优化其查询性能; 5.熟悉spark streaming或者flink等实时分析框架 6.至少具有 Java/Scala/Python 其中之一的编写经验; 7.具有数据管道编排工具的使用经验,例如 Airflow等; 加分项: 1. 有企业级云计算的使用经验,如GCP,AWS,Azure,阿里云等 2. 具有流量分析以及跟踪的经验; 3. 对数据工程、数据科学愿意付诸实践; 4. 具有在 SaaS 行业工作的丰富经验; 在数据工程或者商业智能领域有所精通。


