-
职位描述 1、加入高德地图的商业智能BI团队,深入理解高德核心业务,为决策层评估业务价值、进行业务决策等提供数据支撑; 2、数据研发:参与高德地图打车、搜索等核心业务的数据仓库、数据产品建设,参与数据治理并沉淀业务数据资产; 3、数据挖掘:基于高德地图的海量日志,通过算法模型挖掘有价值的业务信息,指导高德地图的产品迭代。 职位要求 1、计算机、数学、统计或者相关专业本科以上学历; 2、熟悉Java/Python,精通SQL,具有5年以上数据研发经验; 3、熟悉HADOOP大数据平台架构:HDFS/HBase/Hive/MapReduce,熟练掌握MapReduce程序开发,了解实时计算,有使用过Flink、Spark Streaming等开源实时流引擎的优先; 4、对数据仓库系统架构具有良好的认知,理解数据分层、数据倾斜、错峰调度等理念,并具有相关实战经验。
-
工作职责: 1.数据同步与ETL开发: 负责设计、开发、测试和维护数据同步、抽取、转换和加载(ETL)流程,确保数据高效、准确、稳定地从源系统流向目标系统。 2.数据同步通道部署与运维: 负责使用OGG、DSG等数据同步工具进行通道的部署、配置、监控、调优和故障处理,保障数据同步通道的稳定运行。 3.日常数据开发与运维: 使用Python、Java等编程语言进行日常数据开发任务(如脚本编写、自动化任务开发)和数据运维工作(如数据质量检查、任务监控、问题排查)。 4.数据库开发与操作: 熟练编写和优化SQL脚本,基于Greenplum、Oracle、MySQL、PostgreSQL等主流数据库进行数据查询、分析、转换和存储过程开发等。 5.数据运维程序开发:根据业务需求,开发数据清洗、转换、入库等相关的运维程序和工具,提升数据处理效率和自动化水平。 6.数据质量保障:参与数据清洗规则的制定与实施,确保入库数据的准确性、完整性和一致性。 任职资格: 1.工作经验: - 3年以上数据开发相关工作经验。 - 具备以下经验优先: 1)有使用 OGG (Oracle GoldenGate) 或 DSG 等数据同步工具的实际部署、配置或运维经验。 2)了解ETL工具(如 Informatica, DataStage, Kettle 等)或调度工具(如 Airflow, DolphinScheduler 等)。 2.技术能力: - 熟练掌握 Python 和 Shell 脚本编程,能够独立完成开发任务。 - 精通 SQL 语言,具备复杂查询、性能调优、存储过程编写等能力。 - 熟练使用至少两种主流数据库(Greenplum, Oracle, MySQL, PostgreSQL)进行开发、管理和优化,理解其核心架构与特性。 - 了解至少一种国产或新兴数据库(如 OceanBase, TiDB, 人大金仓(KingbaseES))的基本原理和使用方式。 - 熟悉 Linux 操作系统(如 CentOS, RedHat, Ubuntu 等),掌握常用命令、系统管理、环境配置和脚本执行。 - 加分项 (非必需,但优先考虑): 1)具备一定的 Java 开发能力。 2)熟悉数据仓库建模理论(如维度建模)。 3)有大数据生态组件(如 Hive, Spark, HDFS 等)的使用经验。 4)了解容器化技术(Docker, Kubernetes)。 3.其他要求: - 具备良好的学习能力、分析问题和解决问题的能力。 - 工作认真负责,有较强的责任心和团队协作精神,能承受一定的工作压力。 - 具备良好的沟通能力,能够清晰表达技术方案和问题。
-
岗位职责: 1、负责数据仓库或者数据湖ETL设计开发; 2、负责与业务部门数据需求的沟通与确认。 岗位要求: 1、3-5年数据仓库、数据平台或者数据湖的ETL开发工作经验,具有ETL业务逻辑设计经验优先; 2、具有 AWS EMR、AWS Redshift、AWS Glue等亚马逊云上数据服务开发经验; 3、有AXURE开发经验 4、熟练掌握 Hive 和 Spark 大数据计算框架,具有HiveQL(HQL)或SparkSQL相关ETL和数据处理的开发经验; 5、具有Azure开发经验 6、熟练掌握Python,shell,JAVA等代码开发 7、清晰的逻辑思维能力、良好的沟通能力和独立的ETL过程设计能力; 8、工作认真仔细,积极主动,具备较强的自主学习、自我总结能力。
-
"1,数据清洗入库:将日志数据解析入库到oracle、hive等数据库。 2,数据报表统计:利用Hadoop yarn Hive/Spark进行开发、存储、分布式计算应用的代码实现。 3,算法模型实现:对所给的算法模型进行开发实现。 4,数据实时接入开发与实现。 5,数据分析需求的模型开发和实现。" "1、计算机相关专业,本科以上学历,有较好的英文阅读能力; 2、3年以上Hadoop/Spark/Hive/Kafka/Flink开发经验,对分布式、并行计算理论有深刻理解; 3、熟悉hadoop,linux等环境,精通java/perl/python/Scala中至少一种语言; 4、熟悉主流数据库技术,如oracle、Sql server、mysql、hive等; 5、熟悉数据开发流程,了解日常作业的部署和调度; 6、有很好的服务意识、技术敏感性,抗压力强,沟通能力强,具备良好的学习能力和吃苦耐劳能力。"
-
职责描述: 负责数据采集、数据模型设计和 ETL 设计、开发和文档编写; 负责离线/实时数据同步和清洗; 负责分析和解释产品试验,为公司数据清洗产品改进、推广试验等提供数据支持; 负责建立数据清洗规则,为数据治理项目的实施落地提供支撑。 任职要求: 本科及以上学历(***公办本科大学,学历可在学信网验证),计算机相关专业,2年以上相关工作经验,有医疗或教育领域数据治理经验者优先; 1-2年的数据ODS、数据集市、数据仓库等数据类项目实施开发经验; 熟悉oralce、db2或mysql等常用数据库; 熟悉使用taskctl、control-m、datastage或kettle等常用一种etl工具; 熟悉使用Shell、Python或Perl等常用脚本开发语言; 熟悉使用shell脚本及Linux命令; 良好的沟通、理解能力,工作细致、耐心、负责。
-
职责描述: 1、负责数据仓库和ETL任务的开发、调优、运维等工作; 2、参与数据治理,提升数据易用性及数据质量; 3、理解并合理抽象业务需求,与业务团队紧密合作,发挥数据价值; 5、协助处理数据项目设计与开发工作; 6、协助处理数据采集、清洗、建模、加工等数据开发工作 7、协助处理数据需求的需求理解、数据开发, 岗位要求: 1、大专及以上学历,计算机相关专业,有电商经验 2、精通 SQL,有较好的 SQL 性能调优经验,了解 hive/MySQL 的基本原理和调优策略 3、熟悉常用的数据处理方法和工具,精通Python/shell语言的一种或多种,编码基本功扎实 4、熟悉Hadoop数据开发工具使用及其原理,括Hive, Spark SQL等 5、精通主流数仓及BI平台,熟悉分布式、缓存、消息、NoSQL技术及其生态圈 6、具有良好的沟通能力,有团队合作精神,工作积极主动,抗压能力强
-
1、熟悉使用Informatica、Hadoop等ETL开发工具; 2、有人寿保险相关项目经验; 3、掌握数据库存储过程开发经验 4、有人身险EAST实施经验优先。
-
1. 5年以上数据相关经验,特别优秀的条件可放宽; 2. 熟悉SQL、Python,熟悉ETL开发过程,了解大数据开发端到端的完整技术栈; 3. 有Azure或者AWS上完整的数据项目经验,Azure优先; 4. 熟悉Azure或者AWS数据产品的选型、实践、管理及开发,Azure优先; 5. 良好的沟通能力以及对客户数据业务需求的快速理解和把控能力; 6. 有开发团队管理经验者优先; 7. 熟悉数据集成技术(HTTP Restful、SFTP、数据库同步等)的优先; 岗位职责: 1. 与客户沟通,确保业务需求顺利完成; 2. 项目相关开发团队的人员管理与工作分配; 3. 参与项目打单,编写项目技术方案; 4. 解决开发人员技术问题。
-
**本科,学信网可查 1、熟悉使用Informatica、kettle等ETL工具 2、有保险相关项目经验 3、掌握常用数据库存储过程开发和shell开发经验 4、有dataworks开发或I17实施经验优先。
-
岗位职责: 1、负责数据抽取、转换、加载、维护等工作; 2、根据项目要求,负责ETL程序设计、开发、优化、维护; 3、负责数据库的配置及运维等工作; 4、参与ETL调度架构的开发优化工作; 5、参与数据采集流程梳理和需求调研等工作。 任职要求: 1、本科及以上学历,计算机相关专业, 2、熟悉数据库理论; 3、熟悉数据库的开发与应用; 4、熟悉常用ETL工具; 5、熟悉Linux常用命令;
-
工作内容: 1.参与银行数据仓库相关应用系统需求分析、开发、测试; 2.参与其他数据分析类项目相关应用系统需求分析、开发、测试。 岗位要求: 1、本科及以上学历,计算机相关专业,8年以上ETL开发经验; 2、熟练运用SQL,熟练编写存储过程,有海量数据处理经验优先(具备调优能力); 3、熟悉ETL流程和工具,对ETL开发实施有清晰的认识; 4、有强烈的责任心、抗压能力和良好的团队协作精神。 福利待遇: 1、补贴奖金:享受员工的餐补、项目补贴、出差补贴;项目奖金,年终绩效奖金; 2、休假制度:周末双休、法定节假日正常休假,带薪年假,5-10天/年; 3、带薪培训:系统化培训体系,新员工带薪培训; 4、社会保险:按照规定缴纳五险一金; 5、健康体检:每年享受年度员工体检; 6、拓展旅游:定期员工拓展活动及旅游奖励。
-
岗位职责: 1、负责编写ETL映射; 2、根据业务需求及数据仓库模型进行ETL开发。 任职要求: 1、计算机或相关专业本科以上学历; 2、熟悉ETL架构,有三年以上丰富的ETL、数据处理相关开发经验; 3、了解数据仓库模型,有数据仓库开发、实施的经验,有3年银行业相关经验;有监管经验优先; 4、精通datastage等主流ETL工具的优先考虑; 5、精通Shell或python或perl语言的优先考虑; 6、精通SQL语言,精通DB2、Oracle等主流数据库开发的一种,有DB2开发经验者优先; 7、具备很强的责任心、良好的沟通能力、积极的工作态度和团队合作意识; 8、 CDH、TDH等大数据平台开发经验的优先。 注:接受江浙出差
-
岗位职责: 1、负责编写ETL映射; 2、根据业务需求及数据仓库模型进行ETL开发。 任职要求: 1、计算机或相关专业本科以上学历; 2、熟悉ETL架构,有三年以上丰富的ETL、数据处理相关开发经验; 3、了解数据仓库模型,有数据仓库开发、实施的经验,有3年银行业相关经验;有监管经验优先; 4、精通datastage等主流ETL工具的优先考虑; 5、精通Shell或python或perl语言的优先考虑; 6、精通SQL语言,精通DB2、Oracle等主流数据库开发的一种,有DB2开发经验者优先; 7、具备很强的责任心、良好的沟通能力、积极的工作态度和团队合作意识; 8、CDH、TDH等大数据平台开发经验的优先。
-
岗位职责: 1、负责编写ETL映射; 2、根据业务需求及数据仓库模型进行ETL开发。 任职要求: 1、计算机或相关专业本科以上学历; 2、熟悉ETL架构,有三年以上丰富的ETL、数据处理相关开发经验; 3、了解数据仓库模型,有数据仓库开发、实施的经验,有3年银行业相关经验;有监管经验优先; 4、精通datastage等主流ETL工具的优先考虑; 5、精通Shell或python或perl语言的优先考虑; 6、精通SQL语言,精通DB2、Oracle等主流数据库开发的一种,有DB2开发经验者优先; 7、具备很强的责任心、良好的沟通能力、积极的工作态度和团队合作意识; 8、CDH、TDH等大数据平台开发经验的优先。
-
1、4年以上ETL开发经验 2、熟悉databricks或者Informatica, 3、有azure或者大数据云经验,有管理经验优先; 4、英语4级以上,听说读写熟练,英语口语流利
热门职位


