• 8k-14k 经验1-3年 / 本科
    数据服务,其他 / 未融资 / 500-2000人
    工作职责: 1.负责ETL设计与开发; 2.负责业务数据的分析、转换和处理,根据规则分析和排查错。 任职资格: 1.掌握业务系统关键数据实体关系,具备独立进行数据探查和分析能力优先; 2.有数据处理、使用ETL工具开发数据转换经验; 3.掌握Oracle、Sybase、Vertica等一种及以上主流数据库软件的使用和编程; 4.熟悉informatic、datastage、微软BI、Talend等ETL工具的设计和优化、Kettle相关知识的优先; 5.有制造、医药、零售快消行业数据仓库项目经验优先; 6.具备一定的沟通和协调能力,能够有效与客户、项目团队成员进行沟通协调,较好地完成需开发任务,对数据处理工作认真仔细。
  • 25k-35k 经验5-10年 / 本科
    电商,其他 / 上市公司 / 2000人以上
    岗位职责: 1、负责沃尔玛中国数据治理整体方案的推进和落地; 2、带领各个domain数据管家完成数据治理项目; 3、根据CSL/DSL/PIPL,和相关核心团队建立沃尔玛中国数据治理的核心能力; 4、和Global团队沟通协调完成政策落地,KPI,评估等工作。 5、数据治理意识培训和文化建设。 岗位要求: 1、8年以上IT工作经验,至少3年数据治理相关经验; 2、熟悉数据治理的架构模型和方法论,有零售企业数据治理成功经验; 3、了解并使用过常用的数据治理相关工具平台,比如Collibra,BigID,OneTrust,MITI,Cloudera等; 4、有数据治理解决方案落地经验,比如Data Subject Right, Consent Management; 5、跨团队合作和领导力,跨文化交流沟通能力强。 地点:深圳
  • 15k-30k·15薪 经验3-5年 / 本科
    移动互联网,教育 / 不需要融资 / 500-2000人
    岗位职责: 1、负责数据治理体系建设、数据资产目录梳理、数据分类分级、元数据管理、数据标准管理、数据质量管理、血缘关系管理、数据安全管理、数据运营; 2、参与公司变革项目,负责推动数据标准的使用及遵从,管理不符合点; 3、负责识别数据标准涉及的IT系统,提出数据标准 IT系统整改需求并跟踪落实; 4、负责与其他数据管家合作,解决跨领域数据标准问题; 任职要求:(包括不限于:学历、专业、工作年限、素质能力要求、专业知识、技能要求) 1、 本科以上学历,计算机、软件工程、通信等相关专业; 2、 具备3年以上大中型公司数据治理相关项目实施经验,具备数据相关项目变革的成功经验; 3、 具有优秀的学习能力、沟通表达能力、组织协调能力; 4、 熟悉数据治理理论体系(理论、方法和工具),能够规划数据治理体系并实施; 5、 熟练掌握如Hadoop、HBase、Kafka等组件,熟练使用常见 ETL工具如ODI、Kettle或类似产品; 6、熟悉培训、教育、咨询等行业业务流程优先。
  • 12k-20k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    技能要求: 1.参与银行数据迁移开发工作,进行ETL实施,ETL性能优化以及相关技术问题的解决。 2.参与梳理用户数据模型,提供数据设计文档。 3.熟悉数据仓库的ETL的开发和数据建模,有大规模数据迁移经验。 4.熟悉ORACLE 数据库,有一定的ORACLE数据库开发和维护经验。  5.精通ORACLE PL/SQL编程,熟悉ORACLE存储过程的设计,开发和调试,具备良好的编程习惯和风格。  6.熟悉linux系统,具备shell,python等脚本开发能力; 7.学信网可查本科学历,双证,毕业3年以上工作经验。
  • 7k-14k 经验不限 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1、参与ETL及存储过程开发,有一定的需求分析能力; 2、有报表开发基础优先; 3、能在开发及后期测试中进行BUG定位及诊断分析; 4、有一定的SQL优化能力; 任职要求: 1.计算机相关专业本科及以上学历; 2.了解日常作业的部署和调度,且熟练使用相关etl开发工具(如Informatica,Kettle等); 3.熟悉BI报表工具,如Cognos, 帆软,SmartBI等,优先考虑; 4.熟悉Oracle 、DB2、SQL Server 等BI行业主流数据库的一种或多种,熟悉存储过程开发技术,具有一定的调优能力; 5.有较强的业务理解能力,能快速将业务问题转化成具体的技术解决方案,有保险行业相关开发经验者可优先考虑; 6.有较强的学习能力和自我驱动动力,主动学习钻研新的工具与技术; 7.有良好的沟通能力,能与团队共同进步
  • 12k-23k·13薪 经验不限 / 本科
    企业服务 / 上市公司 / 2000人以上
    Job Description We are looking for a Software Engineer in Data Integration. Being a part of the China Delivery team, you will be working on projects where we provide data solutions for our clients in multiple industries. As a Data Integration professional, you’ll contribute to delivery success as a developer role by collaborating with multi-functional roles/teams utilizing agile methodologies. Responsibilities • Design and implement Cloud or Hybrid Data Integration solutions, databases, and data platforms using Data technologies and tools such as Databases, ETL/ELT technology & tools, MDM tools, etc. without direct supervision • Perform detailed analysis of business problems and technical environments, ensure the quality of deliverables following data solution development principles and best practices • Participate and contribute to Data Analytics Engineering activities, including requirement clarification, feature evaluation, code review and solution testing, knowledge sharing, etc. Requirements • Bachelor's degree or above in Computer Science, Software Engineering, Statistics, or related disciplines • Minimum 1 year of data solution development experience in data integration, data management, data storage, data modeling, and database design • Theoretical knowledge of Data Integration concepts, batch integrations, database technologies such as SQL optimization, Relations, Stored Procedures, Transactions, Isolation Levels etc. • Practical experience with at least one database platform and one ETL technology, data semantics and data modeling, coding experience with one of SQL, Python, or other relevant • Intermediate level (CEFR B1) or higher of spoken and written English Nice to Have • Experience of working with one public cloud platform • Understanding of Data Security such as object/system level grants, etc., basic understanding of Data Governance • Understanding of Data Platform concepts such as Data Lake, Data Warehouse, Delta Lake/Lakehouse, general understanding of Landing, Staging area, Data Cleansing
  • 12k-21k·13薪 经验3-5年 / 本科
    数据服务|咨询 / 不需要融资 / 150-500人
    岗位职责: 1、负责编写ETL映射; 2、根据业务需求及数据仓库模型进行ETL开发。 任职要求: 1、计算机或相关专业本科以上学历; 2、熟悉ETL架构,有三年以上丰富的ETL、数据处理相关开发经验; 3、了解数据仓库模型,有数据仓库开发、实施的经验,有3年银行业相关经验;有监管经验优先; 4、精通datastage等主流ETL工具的优先考虑; 5、精通Shell或python或perl语言的优先考虑; 6、精通SQL语言,精通DB2、Oracle等主流数据库开发的一种,有DB2开发经验者优先; 7、具备很强的责任心、良好的沟通能力、积极的工作态度和团队合作意识; 8、CDH、TDH等大数据平台开发经验的优先。
  • 17k-25k 经验3-5年 / 本科
    企业服务,移动互联网 / 上市公司 / 2000人以上
    【岗位职责】 1. 面向金融行业客户,提供专业的数据建模、加工服务,以信息技术推动金融进步; 2. 负责项目实施交付过程中数据ETL开发、数据处理调度、数据库优化、报表开发等相关工作,以及项目经理安排的其他任务; 3. 参与开发团队研讨及内部研发工作,持续提出并执行绩效改进策略。 【任职要求】 1. 计算机、管理信息系统相关专业,大学本科及以上学历,研究生优先; 2. 有数据中心、BI、数据抽取等相关工作经验,具有金融行业开发经验者优先考虑; 3. 熟悉主流数据库(DB2、oracle)开发过程,掌握Datastage、Kettle等ETL工具; 4. 适应高强度的工作状态,接受出差安排; 5. 良好的沟通学习能力,易于相处,有敬业意识和客户服务意识。
  • 8k-15k 经验1-3年 / 大专
    软件开发 / 未融资 / 150-500人
    岗位职责: 1、完成相关原始数据采集、清洗、整理、去重和治理,保证数据及时性、完整性、一致性和准确性。有数据处理相关开发经验; 2、负责负责数据仓库项目ETL详细设计、开发、部署工作; 4、持续改进优化ETL、分析处理以及大数据量压力问题; 5、对结构化的数据做数据分析。 岗位要求; 1、精通kettle、熟悉dataworks等ETL工具; 2、熟悉主流数据库mysql、greemplum等脚本、函数及存储过程的编写;能编写复杂业务逻辑的 SQL 脚本 3、具有数据仓库、ETL、大数据开发等相关项目经验;熟悉数据仓库集市开发,熟悉数据仓库技术; 4、计算机相关专业本科及以上,有良好的沟通能力和协调能力; 5、较强的学习能力,擅长独立思考; 6、沟通协调能力强,细心负责,抗压力强。
  • 15k-20k 经验3-5年 / 本科
    IT技术服务|咨询,软件服务|咨询 / 不需要融资 / 2000人以上
    1、熟悉银行业务知识,熟悉ETL开发,数据装载清洗,存储过程编写,shell脚本编写; 2、有Hive SQL ETL开发经验优先; 3、有银行相关数据集市,数据仓库相关项目项目经历者优先; 4、在平安职场做过的优先;
  • 16k-21k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责 1、数据仓库ETL流程的优化、ETL相关技术问题的解决; 2、数据仓库应用产品的设计和开发工作。 任职要求 1、有三年以上大型数据库开发经验、SQL技能娴熟,具有丰富的 ORACEL数据库管理、调优、诊断经验 2、熟悉ETL设计、有数据仓库经验、实际参与过大型数据仓库/BI项目的设计与开发 3、较强的数据仓库架构设计能力,能够主导分析客户业务需求,进行规划和设计 4、熟练使用主流ETL工具 Datastage informatica、 Kettle等开发 5、较好的沟通理解能力,性格乐观,态度踏实,积极上进。 金融、银行项目优先! 位置:丰台科技园;动物园
  • 50k-80k·18薪 经验1-3年 / 本科
    金融 / 不需要融资 / 150-500人
    职位描述:1. 与投资团队深入沟通交流,深刻理解投资相关需求,并形成技术方案和架构。2. 负责数据处理流程的打通、数据建模和ETL开发;3. 与产品和业务团队紧密合作,参与数据治理工作,提升数据易用性及数据质量;职位要求:1.Python, C/C++, Java等主流开发语言基础扎实,精通数据结构。2.具备较强的编码能力,精通Hive、Spark、Kafka、Flink、HBase、ElasticSearch中的一项或多项,有丰富的大数据处理经验;3.善于沟通,对数据敏感,具有高度的抽象设计能力以及优秀的技术与业务结合能力,有证券投资相关经验者优先。
  • 10k-15k 经验3-5年 / 本科
    数据服务|咨询,IT技术服务|咨询 / 不需要融资 / 2000人以上
    工作职责: 1、ETL开发与运维:负责基于数据仓库的ETL开发工作及日常运维工作; 2、BI开发:负责基于BI工具的前端展示开发; 3、数据模型维护:负责数据仓库LDM数据模型维护; 4、需求分析:负责与业务人员沟通需求,形成需求说明书; 5、系统设计:负责基于需求说明书形成系统设计文档并定期更新; 任职资格: 教育背景:本科及以上学历,信息管理、数据库开发等相关专业。 工作经验:3年以上基于数据仓库平台的ETL开发相关工作经验。 专业技能:熟悉数据仓库的建模方法,熟练掌握SQL、SHELL等ETL开发常用语言,至少熟练掌握1中常用BI工具,有较强的业务沟通和团队协作能力。 其他:性格开朗,有耐心,善于沟通,具有较强的逻辑推理能力。
  • 7k-12k 经验1-3年 / 本科
    企业服务,金融 / 上市公司 / 2000人以上
    "关键字:ETL,Oracle,CTM,Sql,datastag,kettle,调度优化; 岗位职责: 1、参与项目的ETL设计、开发、维护工作; 2、参与ETL调度架构的开发优化工作; 3、项目技术方案的编写; 4、独立完成数据模型设计; 5、与业务需求部门进行有效沟通,进行需求设计; 6、完成项目任务投产部署等。 任职资格: 1、1年以上工作经验; 2、具有优秀的沟通能力,学习能力和业务理解能力; 3、熟练使用DataStage、Kettle、informatic等ETL工具; 4、熟练使用DB2、Oracle、MySql等数据库; 5、熟悉ODS、数仓等架构及模型分析整合; 6、要求有激情、踏实、有责任心,具有良好的团队合作精神和沟通能力。"
  • 13k-18k·13薪 经验3-5年 / 本科
    软件服务|咨询 / 上市公司 / 2000人以上
    1、计算机及相关专业,本科以上学历,3年以数据开发工作经验; 2、熟悉数据仓库实施方法论,深入了解数据仓库技术体系,并支撑过大规模实际业务场景。 3、熟悉Hadoop、Hive 、Spark、Hbase 、Flume、ElasticSearch、Kafka等框架组件,理解分布式数据处理技术原理; 6、熟悉sqlServer、Oracle脚本、存储过程的编写 7、熟悉主流报表工具开发有限,如:Smartbi、帆软等; 8、有基金业数据开发经验优先;