-
职位职责: 1、深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 2、负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3、负责指标体系建设与维护; 4、参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1、数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言;了解数据湖,并有相应落地经验可以成为加分项; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、业务上有财务背景可以成为加分项。
-
职位职责: 1、负责抖音电商数据治理工作,包括不限于成本、质量、效率,提升数据易用性、安全性及稳定性; 2、深入理解数据业务,发现并总结数据研发、数据成本、数据质量、数据安全等方面数据问题,提炼数据治理方法论,推动数据治理方法实施; 3、孵化并持续迭代优化数据治理产品,以系统化、智能化能力高效支撑数据业务快速发展。 职位要求: 1、熟练使用SQL、Python、Java等工具进行大型数据分析及建模; 2、熟练使用Hadoop、Hive、Spark、Flink等组件进行大数据场景数据开发; 3、有较强的逻辑分析、沟通及工作推进能力,具备优秀的技术与业务结合能力; 4、对数据治理有一定的实践经验,有良好业务意识,对数据业务场景敏感,能够横向协同、跨团队整合资源,形成完整的方案解决业务/产品的问题; 5、有良好数据治理产品经验者、有实时数据研发经验者优先。
-
公司介绍: 我们是一家专注于金融科技服务的创新公司,致力于通过技术手段推动金融行业的进步。我们拥有优秀的团队,注重员工发展和企业文化建设。 职位详情: 1. 职位职责: * 负责银行数据仓库的架构设计、开发和维护工作; * 负责数据平台的优化和改进,提高数据质量和性能; * 参与数据治理和数据安全相关的工作。 2. 任职要求: * 本科及以上学历,计算机、数学或相关专业; * 3-5年相关工作经验,有银行背景优先; * 熟练掌握数据结构和算法,熟悉至少一种主流数据库; * 具备出色的架构设计能力,能够独立完成复杂系统的设计; * 具备良好的沟通能力和团队协作精神; * 对数据敏感,具备较强的分析问题和解决问题的能力。 3. 福利待遇: * 五险一金,带薪年假,节日福利,定期团建活动; * 优秀的培训体系和职业发展机会; * 舒适的工作环境和便利的交通。 4. 工作地点:杭州市拱墅区(需要能接受远程面试) 5. 简历请发送至邮箱:****************(注意在邮件主题中注明应聘职位) 以上职位是我们正在招聘的数据开发工程师,希望有相关工作经验和符合我们要求的人才加入我们的团队。我们期待着你的加入,共同推动公司的技术进步。 公司文化:我们重视创新、协作和团队精神,鼓励员工持续学习和进步。我们的团队由一群热爱工作、充满激情的人组成,我们相信只有优秀的团队才能创造出卓越的成果。
-
工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
-
工作职责: 1、充分理解业务需求及痛点,利用数据挖掘、数据分析、机器学习等技术挖掘业务价值,解决业务需求; 2、负责风控、定价等板块具体的数据挖掘项目,包括但不限于数据加工、数据分析、特征工程、构建模型等工作,并就对应项目阶段性成果进行汇报与分享,为业务发展提供支持; 3、参与构建用户全生命周期营销管理,构建以用户运营为核心的高质量的标签体系; 4、与业务团队构建良好的合作关系,积极沟通交流,推动合作项目成功。 任职资格: 1、3年以上数据分析/数据挖掘/机器学习等相关领域经验;**本科或以上学历;熟悉保险业务优先考虑; 2、熟练使用Python/Scala/Java中一门或多门语言;熟悉Spark/Hadoop/Hive等大数据处理技术,有阿里大数据生态Maxcompute、Dataworks、PAI项目经验的优先考虑;熟练使用Sql进行数据处理; 3、熟悉机器学习基本理论、数据分析常用方法论等相关理论知识,了解概率论与统计学基础; 4、有多类数据挖掘项目的实施落地经验,全链路打通并工程化部署,且能不断优化,进而产生业务效果; 5、自我驱动,能主动深入了解业务,适应业务变化;有良好的个人表达和组织沟通能力,推进项目开展。
-
(此岗位需要在南京或者深圳办公) 岗位职责: 1.大数据新技术规划、调研、选型及推广落地。 2.负责大数据组件内核开发优化,推进组件容器化,进行组件二次开发与适配等工作。 3.日常负责大数据框架组件的性能优化,稳定性保障,异常监控及线上问题对接解决。 4.参与平台功能研发,提供业务系统化的解决方案。 任职标准: 1.至少6年以上相关经验,有扎实的计算机编程基础,精通java/scala,熟悉jvm的原理和调优。 2.精通spark/hive/flink组件原理和内核优化,有超大规模数据计算的架构设计和优化经验。 3.掌握大数据行业趋势,熟悉Kubernetes/Docker,有组件容器化相关经验。 4.具备较强的问题解决能力,能独立分析和攻坚复杂的技术难题。 5.有公有云使用经验者优先。 6.有良好的服务意识、沟通能力和团队协作精神。
-
岗位职责: 1. 深入理解公司的核心业务,为决策层评估业务价值、进行业务决策等提供数据支撑; 2. 数据研发:负责跨境电商的各类数据体系建设,包括市场数据、运营、供应链、财务等,参与数据治理并沉淀业务数据资产; 3. 数据挖掘:基于海量数据日志,结合业务场景挖掘数据价值,指导产品迭代。 任职要求: 1. 3年以上数仓建设经验; 2. 对hadoop、hive、阿里云maxcompute等大数据系统深入理解; 3. 有JAVA基础,具备UDF及接口服务相关开发经验; 4. 有flink、spark等实时数据架构经验加分; 5. 有类olap,clickhouse、druid、时序数据等相关经验加分。 公司福利: 1、工作弹性打卡(30分钟区间),环境优雅舒适,提供下午茶及丰富的团建旅游活动 2、入职缴纳六险一金,公积金缴存比例12%,试用期全额薪酬,表现优异可提前转正 3、专职导师带教,配备顾问团队提供专职技能与管理培训,关注每一位员工的成长 4、 年度按季提供4次调薪机会,始终保持高效、平等、坦诚、透明的工作文化 5、按需提供交通、租房、团建等多项补贴,部分岗位配备苹果Macbook air,入职即享
-
1、熟悉掌握Mysql、DB2、Oracle或者Sqlserver等数据库之一; 2、熟悉掌握大数据平台hiveCDH或者阿里云MaxCompute等平台之一 3、熟悉掌握SQL、SPARK语言,写过大量数据处理脚本或者存储过程,懂得进行SQL语句调优。 4、熟悉银行相关业务,做过银行数据仓库或者公司数据集市、零售数据集市、反洗钱数据集市或者EAST等监管报送数据集市项目。 5.学信网可查本科,工作年限3年以上。
-
岗位职责: 1、 负责数据产品需求分析、数据建模,主导完成相关设计及编码; 2、 完善现有数据产品,优化现有产品数据体系; 3、 深入理解业务需求,能从数据角度推动业务发展,开发相应数据产品及工具。 岗位要求 1. 计算机、数据等相关专业本科以上学历; 2. 熟悉数据仓库和数据集市的框架结构,具备数据仓库与数据集市的架构设计能力; 3. 熟悉SQL,熟悉Oracle、MySQL等关系型数据库的优先; 4. 熟悉HiveSQL/MapReduce/Spark等数据开发技术; 5. 有一定的Java/python开发能力,熟悉linux/Shell的优先; 6. 对实时flink一定基础的优先; 7. 沟通与交流能力强,业务理解能力强,具有一定的业务建模能力的优先; 8.实习4个月以上,每周出勤至少4天。
-
岗位职责: 1.对各产品线的数据收集、集成、传输、清洗、数据加工和落地数仓; 2.高效支撑数据任务开发,赋能数据能力,保障数据质量; 3.参与数据仓库模型的设计,为上层应用提供优质的数据;参与数据项目的开发。 任职要求: 1.熟悉hadoop、hdfs、hive、hbase,clickhouse,flink等开源工具的架构; 2.了解数据仓库建设理论与方法、具备丰富的实践经验;精通SQL;熟悉python或者java编程语言其中一个 3.熟悉flink的运行原理和特性,有实时开发的经验 3.具有大数据平台、数据仓库相关领域项目开发实施经验,熟悉但不限于数据采集/数据处理/数据分析/报表开发; 4.了解大数据产品datawork特性和原理; 5.对数据敏感,有较强的逻辑分析能力,良好的团队协作,乐于沟通交流和分享。
-
岗位职责: 1.参与企业级数据仓库建设; 2.参与海量数据ETL的流程优化并解决相关的技术问题; 3.和分析师紧密配合,沉淀公司各个业务线的指标体系,发展面向不同角色的数据产品 4.依托酷家乐的数据中台架构,在业务侧快速落地数据解决方案. 岗位要求: 1.计算机、数学或相关专业本科及以上学历,具有3年及以上的大数据相关岗位工作经历; 2.具备较强的编码能力,熟练掌握 Java; 3.熟练掌握常见的大数据开源技术栈的一项或者多项,包括但不限于 Hive、Spark、Trino、Flink、Kafka、Starrocks等; 4.熟练掌握数据仓库方案论,深入了解数据仓库体系,独立负责过BU或更高级别的数据仓库设计和开发者优先; 5.对数据敏感,善于从数据角度发现问题; 6.具备业务思维,善于沟通,具备技术和业务的结合能力.
-
工作职责: 1)、数据ETL工作; 2)、参与数据产品设计工作:数据分析挖掘:与医疗业务专家配合,承担数据仓库构建、模型构建、数据标签、知识库、画像分析等相关数据产品等设计工作; 3)、数据挖掘分析工作; 4)、数据产品研发工作。 任职要求: 1)、具有深厚的统计学、数据挖掘等相关知识,熟悉数据仓库和数据挖掘的相关技术,精通建模方法并有过独立的建模实践; 2)、熟悉软件产品研发流程:精通SAS,R,SPSS等统计分析软件,具有海量数据挖掘、分析相关项目实施经验,参加过完整的数据挖掘项目并有成功案例; 3)、精通Kettle、pentaho等工具的使用或开发; 4)、熟悉Python、TIDB、关系型数据库、大数据Hadoop生态编程及数据库操作者优先录用。
-
岗位职责: 1)负责电池云端安全预警算法开发及性能优化,包括但不限于电池状态估计、电池异常检测及热失控预警等,实现电池全生命周期安全监控和远程诊断; 2)运用机器学习、深度学习进行电池大数据挖掘和性能预测,预估电池剩余可用容量和老化趋势等; 3)负责电池大数据的数据清洗、特征提取及算法实现; 4)负责电池算法部署的整体框架设计 岗位要求: 1)本科或以上学历,数学/电化学/软件工程/自动控制/汽车等相关专业; 2)2年及以上大数据分析/机器学习算法开发经验; 3)熟练SPARK/Hadoop等大数据分布式平台,熟练使用Python/R/SQL等开发工具、数据分析工具; 4)熟悉大数据分析、机器学习、数据统计的基本方法; 5)具备较强的沟通协作能力、逻辑分析能力和持续学习能力
-
1.负责公司的离线数仓和实时数仓的设计、建模和开 发,参与数据模型评审; 2. 负责数据仓库建设,离线任务和实时任务开发,海 量数据下的性能调优,以及复杂业务场景下的需求交 付; 3. 参与制定离线和实时大数据处理流程,负责数据模 型的性能优化,提供统一、可靠的离线和实时数据服 务; 4. 参与大数据平台相关管理工作,如数据开发规 范、优化数据链路、数据质量及稳定性保障等建设; 5. 通过数据仓库的建设和治理,沉淀数据仓库建设标 准,能够针对业务场景探索提供大数据解决方案; 任职要求 计算机相关专业,本科及以上学历; 2.3年以上数据仓库或大数据开发,丰富的离线或者 实时数据体系建设经验; 3. 熟悉Linux平台,精通Java/Python等至少一门语 言,熟练掌握Hive/Hadoop/Spark/Flink/HBase等 大数据研发工具; 4.了解各种不同类型数据库的内部原理,如mysql,es, mongodb, hive, hbase等; 5.熟练掌握一门或多门编程语言,并有大型项目建设 经验者优先,重点考察Java、Python;熟悉Linux系 统常规shell处理命令,灵活运用shel做的文本处理和 系统操作; 6.熟悉数据流调度的常用方法,并有相关产品的使用 7. 精通数据建模及ETL设计开发,对数据仓库、数据 平台、数据分析等有深刻理解,具备丰富的海量数据 加工处理和优化经验; 8. 能根据业务需求进行高效的数据建模和逻辑抽象, 输出合理的数据建设解决方案;
-
职位描述: 1. 基于信贷风控领域特定数据的处理和应用需求,参与公司数据仓库的设计与搭建,主导数据建模标准制定和实施; 2. 负责公司数据应用项目的开发、SLA制定与数据治理,统一数据口径和数据血缘管理; 职位要求: 1. 从事数据仓库领域3年以上,熟悉数据仓库模型设计与ETL开发经验,掌握维度建模设计方法,具备海量数据加工处理相关经验; 2. 熟悉数据仓库领域知识体系和技能,对数据采集、数据融合、数据质量、数据应用链路有深入理解; 3. 具备一定数据模型和数据架构的基础,熟悉大数据生态、包括但不限于Hadoop/Hive/Hbase/Spark/Kafka/Flink/Presto/Doris/ES等; 4. 精通SQL,有一定的SQL性能调优经验,熟悉SQL开发; 5. 精通Python语言,熟悉常用的numpy/pandas数据分析处理类库; 6. 具有信贷或大数据风控相关经验者优先,有业务sense,能够通过梳理设计业务模型发现业务问题,并驱动业务目标实现; 7. 对数据挖掘和机器学习有所了解,包括常用的机器学习算法和数据建模过程的优先; 8. 有较强的责任心和owner意识,较好的学习和适应能力,积极乐观并有良好的团队协作能力。


