-
职位职责: 1、负责风控数据集市建设,包括业务数据宽表、图数仓、知识图谱等数据研发工作,全面支撑业务发展; 2、负责对自有数据、三方数据进行分层管理和加工,结合数据仓库生产用户画像宽表; 3、负责风控特征库建设,对数据挖掘产出的离线特征和实时特征,进行分层管理并进行指标监控; 4、参与数据治理、数据质量、数据服务及数据产品等基础数据平台和设施建设。 职位要求: 1、本科及以上学历,计算机相关专业; 2、熟悉Hadoop生态相关技术并有相关实践经验,包括但不限于hadoop/hive/hbase/spark/kafka/flink/presto/kylin等; 3、有丰富的数据开发经验,有HiveSQL/SparkSQL/MapReduce调优经验,对数据处理、数据建模、数据治理等有深刻认识和实战经验; 4、对数据敏感,能够快速理解业务并独立完成业务数据模型设计及开发,对金融风控、机器学习等领域有了解的优先; 5、具有较好的沟通能力、学习能力和团队合作精神,乐于挑战自我,有进取心和求知欲。
-
职位职责: 1、根据不同的业务场景,构建业务指标体系,建立和完善日常业务报告体系,能够及时、准确、完整的披露公司整体及各项目的运作情况; 2、参与数据仓库架构设计与数据开发,建设共享数据仓库; 3、参与数据底层的工具、平台、部署流程等技术体系建设的研发工作。 职位要求: 1、**本科以上学历; 2、熟悉数据仓库模型设计方法论,并有实际模型设计及ETL开发经验; 3、思维活跃,熟悉 Hadoop, spark等大数据基础设施。
-
岗位职责: 1、在数仓负责人带领下,针对BI,算法,数据产品的需求,负责公司多业务数据仓库建设与模型设计,制定和落实数据仓库规范以及数据治理工作; 2、进行ETL设计,数据集市建设,落地及后续的运维; 3、负责各条业务线的数据整合方案设计及日志规范,数据分析指标体系建设及元数据管理; 4、稽查和监控数据质量,数据报表系统及相关数据产品的研发和数据需求的沟通及数据开发项目管理。 岗位要求: 1、掌握数据仓库(DW)商业智能(BI)理论知识,具备2年以上数据仓库建设经验,有数据中台、数据治理呼吁等相关经验优先; 2、精通SQL,熟悉mapreduce原理,有hive调优经验,具备一定的python和java开发能力,有Hadoop, Spark, Flink等大数据开发相关经验优先 3、具有高度的责任感,思路清晰,有良好的沟通能力; 4、本科以上学历,计算机、信息管理等相关专业
-
岗位职责: 1、对接并梳理业务需求,开发数据仓库模型,设计相关主题的事实表和维度表等; 2、负责数据仓库开发相关技术文档、技术标准、编码规范的制定; 3、负责数据治理、数据资产建设、模型集市建设等,并基于大数据平台完成各类统计和开发任务。 任职要求: 1、具有2年以上数据仓库(DW)、商务智能(BI)、大数据等方面的软件或项目开发经验; 2、精通SQL编程,熟悉Shell; 3、熟悉数据仓库模型和数据中台模型设计方法论,有实际搭建公司层级数仓的经验,有数据仓库性能优化的实战经验; 4、熟悉Flink或者阿里Blink框架,并有实际实时数仓开发经验; 5、具有扎实的数据库知识,熟悉关系型数据库; 6、需求理解能力强,拥有良好的分析和技术能力,并具备解决问题的能力; 7、有使用Hadoop生态有关大数据组件(Hive, Hbase, Spark等)经验,了解相关技术原理的优先; 8、有互联网公司或者保险金融相关行业数仓建设经验优先; 9、熟悉阿里云数据中台Dataworks、MaxCompute等产品,并有实际开发经验者优先。
-
岗位职责: 1、带领部门数据中台数仓开发成员,负责太保寿险内部数仓各层逻辑模型的设计、建设与维护,构建可扩展的数据仓库公共模型; 2、负责数据处理流程的优化、定位并解决有关技术问题; 3、对接公司个险、团险、运营等业务团队,协调满足业务团队对于各维度数据的需求; 4、参与制定公司与事业部数仓规划、数据研发规范、以及数据治理与指标的管理方案。 任职要求: 1、5年以上数据仓库工作经验,熟悉数据仓库模型设计方法论,有实际搭建公司层级数仓的经验; 2、精通数据仓库有关领域知识,例如元数据管理、主数据管理、ETL工作流、SQL性能调优等; 3、精通SQL、熟悉Shell、具备海量数据加工经验; 4、熟悉Flink或者阿里Blink等实时计算框架,并有实际实时数仓开发经验; 5、有阿里云数据中台产品DataWorks、MaxCompute工作经验优先、熟悉Hive/Flink/Spark等开源大数据工具优先; 6、有较强的问题抽象、概括、总结能力,独立思考并能以产品的思路提出解决方案; 7、具有较好的沟通理解能力,团队协作和创新能力; 8、有互联网公司或者保险金融企业数仓建设经验者优先; 9、有一定团队管理经验。
-
岗位职责: 1.参与数仓建设与规划 2.参与数据中台建设,打造智能化构建产品; 3.对接数据需求,高质量的为业务赋能; 任职资格: 1.本科及以上学历,有5年以上数据仓库工作经验; 2.熟练掌握 java、python、shell 等任意一门编程语言 3.熟练掌握 sql , 能够编写复杂语句查询,具备sql 调优能力 4.熟练掌握 数据仓库ETL过程,对维度建模有深刻的理解 5.熟悉掌握 Hadoop/Hive/Hbase/Kylin/Es/Kafka 大数据处理框架,有源码经优先; 6.熟悉数据分析、统计学基本概念; 7.有owner 意识、自驱力强。 8.有较强的沟通能力;
-
岗位职责: 1、参与建设拼多多商业化数据体系,持续集成相关工具产品,满足多方业务需要; 2、参与拼多多商业化数据仓库的架构设计和研发,挖掘数据价值,建设与管理百PB级的公共数据平台和服务系统,实现高质量数据的互通与共享; 3、助力数据化运营业务,构建丰富多样的BI应用; 4、对数据采集、数据融合、数据质量、数据应用链路有深入理解。 任职要求: 1、熟悉数据仓库模型设计,具备ETL开发经验 ,掌握Kimball的维度建模设计方法,具备海量数据加工处理经验; 2、有从事分布式数据存储与计算平台应用开发经验,熟悉Hadoop生态相关技术并有相关实践经验着优先,重点考察HDFS、MapReduce、Hive、HBase; 3、熟悉数据仓库领域知识和技能者优先,对数据质量管理有独到的见解; 4、具有商业化领域经验或者电商行业经验,有业务sense,能够通过梳理设计业务模型发现业务问题,并驱动业务目标实现; 5、熟悉各种数据库产品,对分布式架构熟悉者优先;具有图数据库开发经验者优先; 6、对数据挖掘和机器学习有所了解,包括常用的机器学习算法和数据建模过程的优先。
-
工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
-
岗位职责: 1. ***本科,5年以上银行信息化领域工作经验,3年以上银行数据仓库/集市项目经验;以核心成员参与,主导过模型设计的国有银行,或全国股份制银行数据仓库&数据集市项目不少于2个,每个项目时间不少于6个月; 2. 工作严谨、踏实肯干、积极进取,良好的团队合作意识; 3. 熟悉银行存款、信贷、支付结算、信用卡、金融市场业务中的一种或多种; 4. 熟悉银行数据仓库整体逻辑架构,如数据仓库&集市的分层设计,各层的职能定位,以及相应的模型设计特点; 5. 熟悉数据仓库&数据集市的范式建模、维度建模理论,并具有相关的实践经验和落地能力; 6. 熟练使用SQL语言,ERWIN等建模工具,能够基于银行的实际环境,独立进行业务和数据的调研;进行主题域模型、概念模型、逻辑模型、物理模型的构建;以及进行数据映射的设计等工作,并对后续的开发及测试工作进行全程指导、支持;
-
岗位职责: 1、负责小红书集团整体基础数据建设(涵盖社区、电商、广告等业务方向),提供通用、 稳定、丰富、高效的公共数据能力,提升数据支持业务的效率,探索数据的增量价值; 2、面向社区、电商、广告等业务方向,建设专题数据,提供丰富易用的数据服务,直接支持公司业务决策分析,赋能业务; 3、建设公司全站数据治理和管理体系,结合业务+元数据+技术,推进资源成本的优化,提高数据服务的数据质量,保障数据产出的稳定性。 任职要求: 1、本科及以上学历,3年以上数据研发经验; 2、有较为丰富的数据仓库研发经验,熟悉数据仓库、数据体系和数据价值的建设及优化; 3、掌握数据管理治理的相关理论,熟悉数据治理、数据标准、企业级数据建模、主数据、元数据管理等方法论; 4、熟悉大数据架构,具备实时或离线数据研发能力,熟悉Hive, Kafka, Spark, Storm, Hbase, Flink等相关技术并有相关开发经验; 5、具备快速学习能力、跨团队沟通协作能力,有较强的逻辑思维能力和解决问题能力。
-
岗位职责: 1、负责小红书集团整体基础数据建设(涵盖社区、电商、广告等业务方向),提供通用、 稳定、丰富、高效的公共数据能力,提升数据支持业务的效率,探索数据的增量价值; 2、面向社区、电商、广告等业务方向,建设专题数据,提供丰富易用的数据服务,直接支持公司业务决策分析,赋能业务; 3、建设公司全站数据治理和管理体系,结合业务+元数据+技术,推进资源成本的优化,提高数据服务的数据质量,保障数据产出的稳定性。 任职要求: 1、本科及以上学历,3年以上数据研发经验; 2、有较为丰富的数据仓库研发经验,熟悉数据仓库、数据体系和数据价值的建设及优化; 3、掌握数据管理治理的相关理论,熟悉数据治理、数据标准、企业级数据建模、主数据、元数据管理等方法论; 4、熟悉大数据架构,具备实时或离线数据研发能力,熟悉Hive, Kafka, Spark, Storm, Hbase, Flink等相关技术并有相关开发经验; 5、具备快速学习能力、跨团队沟通协作能力,有较强的逻辑思维能力和解决问题能力。
-
工作时间:9.00-18.00 周末双休,公司目前在罗湖区世界金融中心大厦办公(1号线老街地铁附近),年底会搬到龙岗区平湖街道招商银行金融创新大厦(深圳地铁10号线的途经),后续根据调研可能会提供相关住房补贴,请仔细查看通勤位置后再投递简历噢~ 一、岗位职责: 1、根掘业务需求,建立相应的数票仓库模型; 2. 数据仓库数损整合、ETL及接口开发: 3.根据项目需求编写各种脚本、联体模板,优化开发流程: 4.数合系统维护和生产问题处理,批量优化。 二、岗位要求: 1.计算机相关专业熟悉Linux环境(必须) ; 2、熟练Python. Shell. Java. Per任一 脚本的编写(必须) ; 3、熟悉Teradata ETLA、 ABU、DSU. VP等相关工具的使用优先; 4、熟悉Sq|脚本编写(必须),有高斯数据库使用和GSQL编写经验优先; 5.有数仓运维或实施经验,对数仓架构有一 定了解,招行数仓经验优先; 6.较强的责任心和解决问题的能力。 三、福利待遇 1、节假日福利:端午(300)、中秋(300),春节(500)、年后开工利是(500)均有过节费 2、入职满一年享受一个月年终奖(未满一年按照入职时间折算,如半年则半个月) 3、团队每月两次下午茶活动,每年公司会组织一次外出团建旅游活动,每周定期组织篮球活动,加班不多,团队氛围非常好 4、办公环境优秀,若加班1:1调休,提供加班餐补交通补,管理人性化; 5、入职后表现优秀,提供转入永隆银行内部员工编制的机会: 入职满一年后表现优秀可申请职级晋升,职级晋升后薪资涨幅情况可观,持续表现优秀有机会转入招商永隆银行正编。
-
if (your_passions.includes(‘coding’)) { switch(your_stacks) { case ‘Java’: case ‘Python’: case ‘Kubernetes’: case ‘Serverless’: console.log(‘Join AfterShip’); break; } } 岗位职责 1、基于对业务的需求对业务数据进行数据仓库建模,并确保数据易于访问、可靠和精确; 2、与其他数据仓库工程师进行协调,以确保数据仓库环境的整体运行状况和性能,设计,开发,测试,监视,管理和验证数据仓库活动,包括为数据仓库定义标准以及对 ETL 流程进行故障排除并有效解决问题; 3、调研新兴工具以及方法论提高团队的技能与效率; 4、主动推进外部用户了解数据仓库和 ETL 最佳实践,与他们一起将业务问题与需求转换为数据模型,提高业务团队的数据技能; 5、与业务团队合作通过数据分析解答基本业务问题。 岗位要求 1、熟悉数据建模,习惯于设计和实现复杂的数据结构,考虑多个用户的需求并持续进行优化; 2、具有处理非结构化数据和复杂的 ELT 流程的经验;能够调整流式处理和批处理应用程序以数据管道性能; 3、了解或者熟悉敏捷开发流程与原理,完整经历从需求到部署的整个生命周期; 4、熟练的编写 SQL 代码,并有能力优化其查询性能; 5、至少具有 Python/Java/Scala 其中之一的编写经验; 6、具有数据管道编排工具的使用经验,例如 Airflow、Luigi 等; 7、能够较熟练的使用英文,并渴望在多元文化的国际环境中工作。 加分项 1、具有 AWS、GCP 等云平台的使用经验; 2、具有流量分析以及跟踪的经验; 3、对数据工程、数据科学愿意付诸实践; 4、具有在 SaaS /电商 行业工作的丰富经验; 5、在数据工程或者商业智能领域有所精通。 为什么加入我们 1、高速发展:公司处于快速发展期,规模及营收每年持续快速增长; 2、朝阳行业:国际电商 SaaS 服务赛道,国际一线投资机构加持,行业大佬背书; 3、多元文化:团队来自全球 20 多个不同城市,国际化视角、扁平化管理; 4、极客氛围:拥抱开源技术,实践敏捷开发,崇尚通过工具和自动化来解决问题; 5、特色福利:学习基金、 一对一帮带、内部商城、提供 MacBook 及可升降办公桌。
-
工作内容: 1.业务数据建模,数仓任务开发; 2.数据治理,口径管理; 3.数据集开发; 任职资格: 1、具备较强的数据敏感度以及数据抽象能力 2、精通SQL,具备海量数据处理和ODPS/Hive性能调优经验 3、熟练掌握Java/Scala/Python之一,具备良好的coding素养和习惯 4、熟悉Hadoop, Hive,具备ETL开发经验, 5、优秀的逻辑思维能力和业务需求分析能力,较好的沟通交流能力,学习能力强 6、强烈的责任心和主动Push能力 加分项目: 1、有互联网行业基础数据建设经验者 2、研究过Hive源码 3、对多维分析、数据建模有较为深刻的理解
-
岗位职责: 1、负责数据分析/画像产品的架构设计和系统开发; 2、负责各游戏工作室数仓实时/离线建设; 3、负责数据工具建设以及流程优化,完善数据应用系统的建设。 任职要求: 1. 一年以上大数据经验。 2. 深刻理解计算机原理,有良好的数据结构和算法基础,扎实的编程能力。 3. 具备较强编码能力,熟练掌握Java、Scala、Python中至少一种编程语言。 4. 熟悉大数据生态体系,不限于Hadoop,Impala, Flink, Spark, Kudu,ClickHouse, kafka等。 5. 能够主动思考基于业务场景下的数据体系建设,乐于帮助客户实现数据驱动。 6.有游戏、风控、流量、海外数据建设经验者优先