-
工作职责: 1.数据同步与ETL开发: 负责设计、开发、测试和维护数据同步、抽取、转换和加载(ETL)流程,确保数据高效、准确、稳定地从源系统流向目标系统。 2.数据同步通道部署与运维: 负责使用OGG、DSG等数据同步工具进行通道的部署、配置、监控、调优和故障处理,保障数据同步通道的稳定运行。 3.日常数据开发与运维: 使用Python、Java等编程语言进行日常数据开发任务(如脚本编写、自动化任务开发)和数据运维工作(如数据质量检查、任务监控、问题排查)。 4.数据库开发与操作: 熟练编写和优化SQL脚本,基于Greenplum、Oracle、MySQL、PostgreSQL等主流数据库进行数据查询、分析、转换和存储过程开发等。 5.数据运维程序开发:根据业务需求,开发数据清洗、转换、入库等相关的运维程序和工具,提升数据处理效率和自动化水平。 6.数据质量保障:参与数据清洗规则的制定与实施,确保入库数据的准确性、完整性和一致性。 任职资格: 1.工作经验: - 3年以上数据开发相关工作经验。 - 具备以下经验优先: 1)有使用 OGG (Oracle GoldenGate) 或 DSG 等数据同步工具的实际部署、配置或运维经验。 2)了解ETL工具(如 Informatica, DataStage, Kettle 等)或调度工具(如 Airflow, DolphinScheduler 等)。 2.技术能力: - 熟练掌握 Python 和 Shell 脚本编程,能够独立完成开发任务。 - 精通 SQL 语言,具备复杂查询、性能调优、存储过程编写等能力。 - 熟练使用至少两种主流数据库(Greenplum, Oracle, MySQL, PostgreSQL)进行开发、管理和优化,理解其核心架构与特性。 - 了解至少一种国产或新兴数据库(如 OceanBase, TiDB, 人大金仓(KingbaseES))的基本原理和使用方式。 - 熟悉 Linux 操作系统(如 CentOS, RedHat, Ubuntu 等),掌握常用命令、系统管理、环境配置和脚本执行。 - 加分项 (非必需,但优先考虑): 1)具备一定的 Java 开发能力。 2)熟悉数据仓库建模理论(如维度建模)。 3)有大数据生态组件(如 Hive, Spark, HDFS 等)的使用经验。 4)了解容器化技术(Docker, Kubernetes)。 3.其他要求: - 具备良好的学习能力、分析问题和解决问题的能力。 - 工作认真负责,有较强的责任心和团队协作精神,能承受一定的工作压力。 - 具备良好的沟通能力,能够清晰表达技术方案和问题。
-
岗位职责: 1. 使用SQL等数据抓取工具从各种数据源中提取数据,并进行数据清洗和整理。 2. 运用统计学和数据分析方法对数据进行分析,发现趋势、模式和关联性。 3. 利用数据可视化工具(如Tableau、Power BI等)创建仪表盘、报告和可视化图表,以向利益相关者传达数据洞察。 4. 协助团队成员进行数据分析项目,提供支持和建议。 5. 监测和评估数据质量,确保数据的准确性和完整性。 6. 跟踪行业趋势和竞争对手的数据,提供市场洞察和建议。 岗位要求: 1. 2-3年相关工作经历。 2. 熟练掌握SQL等数据抓取工具,能够编写和优化复杂的查询语句。 3. 具备数据清洗和整理的技能,能够处理大量数据并确保数据的准确性。 4. 熟悉统计学和数据分析方法,能够运用这些方法解决实际问题。 5. 熟练使用数据可视化工具,能够将数据转化为易于理解和传达的可视化图表和报告。 6. 对商业和旅游行业有浓厚的兴趣,了解相关行业的趋势和挑战。 7. 具备良好的沟通和团队合作能力,能够与不同部门和利益相关者进行有效的合作。 8. 具备解决问题和分析能力,能够快速理解和解决复杂的数据相关问题。
-
职位描述 1、加入高德地图的商业智能BI团队,深入理解高德核心业务,为决策层评估业务价值、进行业务决策等提供数据支撑; 2、数据研发:参与高德地图打车、搜索等核心业务的数据仓库、数据产品建设,参与数据治理并沉淀业务数据资产; 3、数据挖掘:基于高德地图的海量日志,通过算法模型挖掘有价值的业务信息,指导高德地图的产品迭代。 职位要求 1、计算机、数学、统计或者相关专业本科以上学历; 2、熟悉Java/Python,精通SQL,具有5年以上数据研发经验; 3、熟悉HADOOP大数据平台架构:HDFS/HBase/Hive/MapReduce,熟练掌握MapReduce程序开发,了解实时计算,有使用过Flink、Spark Streaming等开源实时流引擎的优先; 4、对数据仓库系统架构具有良好的认知,理解数据分层、数据倾斜、错峰调度等理念,并具有相关实战经验。
-
辅助项目经理支撑项目技术支持类、数据处理、样本采集类、软件测试类保障工作 任职要求: 1、本科及以上学历,专业不限,gis、测绘相关优先; 2、熟悉arcgis,QGIS等工具软件; 3、性格开朗,工作认真细致,能承担压力且有耐心; 4、实习期需要至少3个月
-
职责描述: 1、对上游数据进行清洗、清理、加工、转换、加载至目标数据库 2、分析源数据结构,设计数据入库规则,构建数据模型,开发实现等 3、对系统涉及到的业务知识有一定的理解,并从数据层面合理规划系统架构 4、熟练编写存储过程,能对存储过程及SQL查询进行运行性能优化处理 5、对产品进行实施与测试等相关工作 任职要求: 1.计算机、信息管理相关专业***大学本科及以上学历; 2.精通SQL语言,熟悉linux/unix基本原理和操作,熟悉主流的大数据处理架构(消息队列、Hadoop、Spark,Hbase),具备分布式系统数据处理经验; 3.3年以上在元数据管理、数据质量管理、数据标准化、数据治理、ETL、数据仓库开发、数据集市开发、前端数据可视化开发和第三方数据源管理至少2个领域的相关经验,并有项目实施经验; 4.具备较强的数据系统(数据仓库、数据集市、质量管理流程、数据报表等)开发能力和相关经验,熟悉各类结构化和非结构化数据ETL,熟悉主流的系统平台开发工具和语言; 5、了解银行/证券基础金融业务知识或者有相关项目开发经验,或者公司财务系统的开发经验优先 6、良好的沟通和逻辑思维能力,有强烈的责任心、抗压能力和良好的团队协作精神
-
职责描述: 1、负责数据仓库和ETL任务的开发、调优、运维等工作; 2、参与数据治理,提升数据易用性及数据质量; 3、理解并合理抽象业务需求,与业务团队紧密合作,发挥数据价值; 5、协助处理数据项目设计与开发工作; 6、协助处理数据采集、清洗、建模、加工等数据开发工作 7、协助处理数据需求的需求理解、数据开发, 岗位要求: 1、大专及以上学历,计算机相关专业,有电商经验 2、精通 SQL,有较好的 SQL 性能调优经验,了解 hive/MySQL 的基本原理和调优策略 3、熟悉常用的数据处理方法和工具,精通Python/shell语言的一种或多种,编码基本功扎实 4、熟悉Hadoop数据开发工具使用及其原理,括Hive, Spark SQL等 5、精通主流数仓及BI平台,熟悉分布式、缓存、消息、NoSQL技术及其生态圈 6、具有良好的沟通能力,有团队合作精神,工作积极主动,抗压能力强
-
职责描述: 1.参与数据仓库架构与数据开发,设计ETL流程、日志等数据 2.负毒数据平台相关数据工作,如研发、质量、保障与实施落地 3.参与实时数据流的数据处理、查询统计和分析预测等计算 4.日常数据监控以及数据预警,异常数据解读挖掘,并与业务沟通解决方案 5.管理数据类项目并如期实施交付 任职要求: 1.从事数据仓库领域工作1-3年或3年以上,实际参与模型设计及ETL开发经验,能独立完成相关的开发工作 2.做过2年以上bi项目经验 3.sql 精通 4. etl工具精通至少1种(ssis) 加分项: 1.会dax优先 2.精通ADF优先
-
【公司严格审查学历及工作履历,请确保您的简历与实际情况相符】 岗位职责: 1、从事保险业务数据平台中的ETL、数据分析、数据处理、前&后端等相关功能开发及运维; 2、负责所属模块的的需求分析、详细设计、代码开发、单元测试及运维文档编写等相关工作; 3、定期性能调优、优化调度性能及资源利用率,保证平台稳定高效; 职位要求: 1、本科学历学信网可查且毕业满3年及以上,有保险行业系统开发经验(Java/ETL/数据开发(BI、数仓、数据挖掘)等皆可); 2、有较强的SQL、HiveSQL能力,熟悉oracle、mysql、OceanBase,具备关系型、分布式数据库设计和开发经验; 3、熟知数据仓库设计理念、设计方法,能够熟练使用ETL工具Kettle,能够进行其ETL优化及解决相关技术问题; 4、精通大数据开发及运维相关技术:CDH、Kafka、Storm、hdfs、Hive等 ; 5、掌握Java编程语言,熟悉Java API开发; 6、熟悉Hadoop生态系统组件(如HDFS、YARN、MapReduce、Hive、HBase、Spark、Kafka等)的部署和管理,具备高效的问题诊断和解决能力; 7、熟悉SpringMVC、Springboot、CXF、Spring、MyBatis等开源框架、熟悉Kafka、Redis等中间件,有大型分布式、高并发项目设计开发经验; 8、熟练掌握Redis等缓存数据库的使用,掌握高并发数据写入的数据库结构设计与方法; 9、熟练使用Nginx,熟悉Linux操作系统,熟练使用Shell、Python等脚本语言; 10、熟练使用BI工具SmartBI,能够利用其生成报表、仪表盘等数据可视化内容; 11、了解JSP、JavaScript、Bootstrap、EasyUI等前端开发技术及框架; 12、熟悉保险核心业务、以及有ECIF、CCH、CEM、CRM、CDH等保险业务系统开发及运维工作经验者优先; 13、工作认真负责、积极主动、有良好的沟通能力及团队合作精神; 14、合适者待遇可谈。
-
岗位职责: 1、负责数据仓库或者数据湖ETL设计开发; 2、负责与业务部门数据需求的沟通与确认。 岗位要求: 1、3-5年数据仓库、数据平台或者数据湖的ETL开发工作经验,具有ETL业务逻辑设计经验优先; 2、具有 AWS EMR、AWS Redshift、AWS Glue等亚马逊云上数据服务开发经验; 3、有AXURE开发经验 4、熟练掌握 Hive 和 Spark 大数据计算框架,具有HiveQL(HQL)或SparkSQL相关ETL和数据处理的开发经验; 5、具有Azure开发经验 6、熟练掌握Python,shell,JAVA等代码开发 7、清晰的逻辑思维能力、良好的沟通能力和独立的ETL过程设计能力; 8、工作认真仔细,积极主动,具备较强的自主学习、自我总结能力。
-
岗位职责: 1、负责编写ETL映射; 2、根据业务需求及数据仓库模型进行ETL开发。 任职要求: 1、计算机或相关专业本科以上学历; 2、熟悉ETL架构,有三年以上丰富的ETL、数据处理相关开发经验; 3、了解数据仓库模型,有数据仓库开发、实施的经验,有3年银行业相关经验;有监管经验优先; 4、精通datastage等主流ETL工具的优先考虑; 5、精通Shell或python或perl语言的优先考虑; 6、精通SQL语言,精通DB2、Oracle等主流数据库开发的一种,有DB2开发经验者优先; 7、具备很强的责任心、良好的沟通能力、积极的工作态度和团队合作意识; 8、 CDH、TDH等大数据平台开发经验的优先。 注:接受江浙出差
-
岗位职责: 1、负责编写ETL映射; 2、根据业务需求及数据仓库模型进行ETL开发。 任职要求: 1、计算机或相关专业本科以上学历; 2、熟悉ETL架构,有三年以上丰富的ETL、数据处理相关开发经验; 3、了解数据仓库模型,有数据仓库开发、实施的经验,有3年银行业相关经验;有监管经验优先; 4、精通datastage等主流ETL工具的优先考虑; 5、精通Shell或python或perl语言的优先考虑; 6、精通SQL语言,精通DB2、Oracle等主流数据库开发的一种,有DB2开发经验者优先; 7、具备很强的责任心、良好的沟通能力、积极的工作态度和团队合作意识; 8、CDH、TDH等大数据平台开发经验的优先。
-
岗位职责: 1、负责编写ETL映射; 2、根据业务需求及数据仓库模型进行ETL开发。 任职要求: 1、计算机或相关专业本科以上学历; 2、熟悉ETL架构,有三年以上丰富的ETL、数据处理相关开发经验; 3、了解数据仓库模型,有数据仓库开发、实施的经验,有3年银行业相关经验;有监管经验优先; 4、精通datastage等主流ETL工具的优先考虑; 5、精通Shell或python或perl语言的优先考虑; 6、精通SQL语言,精通DB2、Oracle等主流数据库开发的一种,有DB2开发经验者优先; 7、具备很强的责任心、良好的沟通能力、积极的工作态度和团队合作意识; 8、CDH、TDH等大数据平台开发经验的优先。
-
解决方案及架构设计1:理解数据数字化整体架构,相互关系(数据湖,数据中台,BI产品)及技术要求2:了解产品应用业务场景,需求及痛点,提炼还原对技术特性的要求3:主导产品技术架构设计 技术应用:1:精通各类关系型数据库开发特性,性能优化手段2:精通ETL数据处理(SQL.PYTHON.DATADTAGE.SP.OGG.XDATA等),掌握数据批处理方案,能根据应用场景设计出最佳数据处理方案3:主规范4:熟练使用公司数据平台(数据服务BIDS.XDATA.ROMA.可视化装备,DIS,数据资产DMAP,血缘关系,在线建模等),应用场景和定位5:熟悉调度工具,如CTM.LTS等6:具备对业界其他流行数据平台的预研能力,如HAFOOP.图数据库等 数据建模与处理 1:结合数据库特性完成逻辑模型到物理模型的转换,并确保开发测试2根据ba提供的源到目标转换逻辑进行数据处理程序开发,确保数据能装载入物理模型
-
数据处理工程师 专业要求:计算机科学、大数据工程或相关专业 职位描述: - 负责数据获取和处理,编写高效的网络爬虫程序,从互联网上抓取关键数据 - 进行数据清洗、转换和存储,确保数据质量和可用性 - 参与数据分析和挖掘,为业务决策提供数据支持 - 参与相关技术研究和开发工作,探索数据采集和处理的创新方法 岗位要求: - 熟悉常见的网络爬虫技术和工具,有相关项目经验者优先 - 精通数据处理和分析工具,如Python、R、SQL等 - 具备扎实的数据结构和算法基础,能够优化程序性能 - 对数据敏感,具有良好的数据分析和解决问题的能力 - 具备良好的沟通能力和团队合作精神
-
岗位职责: 1. 负责研究数据的入库、清洗、存储,包含高频行情数据,wind基本面数据 2. 负责交易系统对接及运维,包含生产及测试环境部署,监控 3. 负责日常jenkins任务检查,包含盘前、盘中、盘后任务及数据处理 4. 自动化工具开发,实现系统监控、日志分析及数据对比和复制 5. 搭建并维护CI/CD工具链(如Jenkins、GitLab CI),提升开发与部署效率 任职要求: 1. 本科及以上学历,计算机,软件工程相关专业,1年以上相关工作经验 2. 熟悉常用数据库,包含PostgreSQL,clickhouse数据库 3. 精通Linux/Windows系统管理,系统配置、常用软件安装及性能监控 4. 熟练使用脚本语言(Python/Shell),容器化(Docker)及监控工具(Prometheus) 5. 高度责任心,工作细致,富有团队精神及清晰的时间观念 加分项: 1. 有证券、期货等金融行业的基础知识 2. 优秀的逻辑思维与问题解决能力,适应金融行业快节奏环境


