-
工作职责: 1.数据同步与ETL开发: 负责设计、开发、测试和维护数据同步、抽取、转换和加载(ETL)流程,确保数据高效、准确、稳定地从源系统流向目标系统。 2.数据同步通道部署与运维: 负责使用OGG、DSG等数据同步工具进行通道的部署、配置、监控、调优和故障处理,保障数据同步通道的稳定运行。 3.日常数据开发与运维: 使用Python、Java等编程语言进行日常数据开发任务(如脚本编写、自动化任务开发)和数据运维工作(如数据质量检查、任务监控、问题排查)。 4.数据库开发与操作: 熟练编写和优化SQL脚本,基于Greenplum、Oracle、MySQL、PostgreSQL等主流数据库进行数据查询、分析、转换和存储过程开发等。 5.数据运维程序开发:根据业务需求,开发数据清洗、转换、入库等相关的运维程序和工具,提升数据处理效率和自动化水平。 6.数据质量保障:参与数据清洗规则的制定与实施,确保入库数据的准确性、完整性和一致性。 任职资格: 1.工作经验: - 3年以上数据开发相关工作经验。 - 具备以下经验优先: 1)有使用 OGG (Oracle GoldenGate) 或 DSG 等数据同步工具的实际部署、配置或运维经验。 2)了解ETL工具(如 Informatica, DataStage, Kettle 等)或调度工具(如 Airflow, DolphinScheduler 等)。 2.技术能力: - 熟练掌握 Python 和 Shell 脚本编程,能够独立完成开发任务。 - 精通 SQL 语言,具备复杂查询、性能调优、存储过程编写等能力。 - 熟练使用至少两种主流数据库(Greenplum, Oracle, MySQL, PostgreSQL)进行开发、管理和优化,理解其核心架构与特性。 - 了解至少一种国产或新兴数据库(如 OceanBase, TiDB, 人大金仓(KingbaseES))的基本原理和使用方式。 - 熟悉 Linux 操作系统(如 CentOS, RedHat, Ubuntu 等),掌握常用命令、系统管理、环境配置和脚本执行。 - 加分项 (非必需,但优先考虑): 1)具备一定的 Java 开发能力。 2)熟悉数据仓库建模理论(如维度建模)。 3)有大数据生态组件(如 Hive, Spark, HDFS 等)的使用经验。 4)了解容器化技术(Docker, Kubernetes)。 3.其他要求: - 具备良好的学习能力、分析问题和解决问题的能力。 - 工作认真负责,有较强的责任心和团队协作精神,能承受一定的工作压力。 - 具备良好的沟通能力,能够清晰表达技术方案和问题。
-
职位职责: 1、云数据库RDS MySQL中间件相关研发; 2、云数据库RDS MySQL同城多机房,异地多活相关的研发; 3、云数据库RDS MySQL容器云相关研发; 4、定位和解决生产环境出现的各种问题,提出系统化的解决方案和规划。 职位要求: 1、本科及以上学历,精通C/C++/Python/Golang/Java/Rust语言中的一种; 2、有数据库、高并发系统、分布式系统等工作经验,并深入理解该领域技术; 3、熟悉分库分表、事务机制、MVCC、查询优化、主从复制、备份恢复、存储引擎、高可用等机制和源码者优先; 4、熟悉Vitess,ShardingSphere等数据库中间件系统者优先; 5、熟悉MySQL,PolarDB,TiDB,OceanBase,CockroachDB,Spanner等数据库系统者优先。
-
工作职责 1、负责数据库架构设计,数据库系统性能优化; 2、负责数据库生产运维重大问题跟进、对外应用服务、部门内部项目、重要任务及重大变更的实施(升级、迁移、合并、改造等); 3、日常生产运维重要问题跟进及解决,定期分析跟进报表类报警,重要数据库健康检查及主动优化; 4、重大变更技术方案的制定及跟进,自动化运维工具开发; 5、保障数据库稳定运营,提升部门产能,达到主动服务和专业服务的目标,提升用户满意度和部门外部影响力。 任职要求 1、本科及以上学历,计算机、软件工程等相关专业;5年及以上数据库构架、开发、维护管理相关工作经验; 2、熟悉Oceanbase等分布式数据库,具备一年以上的Oceanbase项目的实施或运维经验,熟悉Oracle/PostgreSQL/MySQL中的至少一种,精通SQL优化及具备数据库整体性能优化的能力,具备OBCP认证; 3、保险、银行、证券相关及大型互联网行业工作经验者优先,熟悉操作系统、实施过信创改造项目者优先; 4、原则性强,责任心强,工作积极主动,具备良好的沟通协调能力、问题解决能力、口头和文字表达能力。
-
岗位职责: 1. 负责 TDengine 数据库内核在 Windows 平台上的开发和问题解决 2. 日常工作内容主要包括:解决 Linux/Windows 平台上的产品功能问题、性能问题以及产品稳定性问题。 任职要求: 1. 深厚的 C 语言开发背景; 2. 熟悉 Linux/Windows 平台底层技术:文件系统,网络等; 3. 开发过大型产品或者分布式系统,如果有数据库或者存储管理类产品的开发经验更好; 4. 如果 2 不具备,要求开发过 Windows 上的底层软件(比如驱动); 5. 高水平的架构设计能力和编程能力; 6. 有流计算经验优先考虑。
-
一、主要职责: 1.深度优化数据库和中间件,显著提升系统稳定性与健壮性,确保系统在高并发、复杂业务场景下稳定运行。 2.严格执行数据库备份策略,定期进行数据完整性检查,制定完善的故障应急预案,在出现故障时迅速响应并恢复数据,保障业务连续性。 3.积极与其他部门协作,高效完成系统数据的备份、迁移、同步等工作,确保数据在不同系统和环境间准确、及时流转。 4.负责数据库高可用性规划与设计,通过技术手段实现数据库的冗余备份和快速切换,同时持续进行性能调优,提升数据库响应速度和处理能力。 二、学历要求: 211本科及以上学历,计算机、软件工程等相关专业(硕士优先)。 三、工作经验: 5年以上中大型企业核心数据库管理经验,其中3年必须为银行、保险或证券等金融行业背景。 四、专业知识 1.精通Mysql、GoldenDB、MongDB等主流数据库以及中间件(像 WebLogic、Tomcat、、RabbitMQ、Kafka、Redis 等)的管理,包括安装、配置、优化、备份恢复等全生命周期管理。 2.数据安全与合规:熟悉数据安全技术(如用户权限管理、访问控制、数据脱敏、加密存储),具备保险金融行业数据安全合规经验(如满足《个人信息保**》《金融数据安全分级指南》要求);有数据库容灾方案设计与实施经验(如异地灾备、双活架构),熟悉备份恢复策略(全量/增量备份、时间点恢复)及演练流程; 3.具备故障排查与应急处理能力,能通过日志分析、性能监控工具快速定位数据库性能问题(如慢查询、锁等待、死锁)或系统故障(如主从切换、存储故障)。 4.有信创项目经验,精通达梦、OceanBase等国产数据库的管理与迁移;
-
岗位职责: 1.负责公司业务系统数据库的性能维护、安全性管理; 2.负责公司数据可靠性维护、数据备份和数据容灾; 3.对开发项目提供数据库技术支持; 4.负责数据库运维自动化脚本编写。 任职要求: 1.计算机、软件相关专业本科及以上学历; 2.3-5年相关工作经验; 3.较强的沟通学习能力,对技术有热情,有能力直接跟踪和学习最新的技术和知识; 4.有python或者shell编程能力; 5.有oracle、mysql、mongodb、hadoop至少一种运维能力。
-
职位描述 1、加入高德地图的商业智能BI团队,深入理解高德核心业务,为决策层评估业务价值、进行业务决策等提供数据支撑; 2、数据研发:参与高德地图打车、搜索等核心业务的数据仓库、数据产品建设,参与数据治理并沉淀业务数据资产; 3、数据挖掘:基于高德地图的海量日志,通过算法模型挖掘有价值的业务信息,指导高德地图的产品迭代。 职位要求 1、计算机、数学、统计或者相关专业本科以上学历; 2、熟悉Java/Python,精通SQL,具有5年以上数据研发经验; 3、熟悉HADOOP大数据平台架构:HDFS/HBase/Hive/MapReduce,熟练掌握MapReduce程序开发,了解实时计算,有使用过Flink、Spark Streaming等开源实时流引擎的优先; 4、对数据仓库系统架构具有良好的认知,理解数据分层、数据倾斜、错峰调度等理念,并具有相关实战经验。
-
工作职责 1、负责数据库监控告警的优化与改进,分析并解决数据库整体的性能瓶颈,提升系统响应速度和可用性; 2、负责数据库生产运维重大问题跟进,快速响应并解决生产环境中的紧急问题,分析数据库故障的根因并推动改进; 3、日常生产运维重要问题跟进及解决,定期分析数据库巡检报告及重要数据库健康检查及主动优化,总结运维经验; 4、保障数据库稳定运营,提升部门产能,达到主动服务和专业服务的目标,提升用户满意度和部门外部影响力。 任职要求 1、本科及以上学历,计算机、软件工程等专业,5年及以上数据库构架、开发、维护管理相关工作经验,具备团队管理经验者优先; 2、熟悉Oceanbase等分布式数据库,具备一年以上Oceanbase项目实施或运维经验,熟悉Oracle/PostgreSQL/MySQL中的至少一种,精通SQL优化及具备数据库整体性能优化能力; 3、保险、银行、证券相关行业及大型互联网行业工作经验者优先,熟悉操作系统、实施过信创改造项目者优先; 4、原则性强,责任心强,工作积极主动,具备良好的沟通协调能力、问题解决能力、口头和文字表达能力。
-
新增:壹账通(北大医疗项目,外包,长期,介意务投递。)- 数据库-T4/T6 - 线上面试-工作地址:中关村生命科学园生命园路1号北京大学国际医院5号行政楼 岗位职责: (1)负责ETL开发,模型开发,数据洁洗, (2)梳理业务逻辑,进行链路改造和模型改造 任职资格: 1)计算机及相关专业,本科以上学历,3年以上开发经验 2)精通使用帆软FindRepor报表开发工具。 3)精通SparkSql,MYSOL、SOLSERVER,Oracle,等数据库语句; 4)熟练使用Spark等ETL数据抽取工具 5)熟悉大数据技术,Hadoop.Spark.Flink,Doris,Hudi等相关技术; 6)了解医疗信息化,有HS、体检、手麻等系统相关开发与实施经验优先, 7)有大型医疗集团HRP系统、BI系统等实施经验优先。
-
职责描述: 1、对上游数据进行清洗、清理、加工、转换、加载至目标数据库 2、分析源数据结构,设计数据入库规则,构建数据模型,开发实现等 3、对系统涉及到的业务知识有一定的理解,并从数据层面合理规划系统架构 4、熟练编写存储过程,能对存储过程及SQL查询进行运行性能优化处理 5、对产品进行实施与测试等相关工作 任职要求: 1.计算机、信息管理相关专业***大学本科及以上学历; 2.精通SQL语言,熟悉linux/unix基本原理和操作,熟悉主流的大数据处理架构(消息队列、Hadoop、Spark,Hbase),具备分布式系统数据处理经验; 3.3年以上在元数据管理、数据质量管理、数据标准化、数据治理、ETL、数据仓库开发、数据集市开发、前端数据可视化开发和第三方数据源管理至少2个领域的相关经验,并有项目实施经验; 4.具备较强的数据系统(数据仓库、数据集市、质量管理流程、数据报表等)开发能力和相关经验,熟悉各类结构化和非结构化数据ETL,熟悉主流的系统平台开发工具和语言; 5、了解银行/证券基础金融业务知识或者有相关项目开发经验,或者公司财务系统的开发经验优先 6、良好的沟通和逻辑思维能力,有强烈的责任心、抗压能力和良好的团队协作精神
-
职责描述: 负责数据采集、数据模型设计和 ETL 设计、开发和文档编写; 负责离线/实时数据同步和清洗; 负责分析和解释产品试验,为公司数据清洗产品改进、推广试验等提供数据支持; 负责建立数据清洗规则,为数据治理项目的实施落地提供支撑。 任职要求: 本科及以上学历(***公办本科大学,学历可在学信网验证),计算机相关专业,2年以上相关工作经验,有医疗或教育领域数据治理经验者优先; 1-2年的数据ODS、数据集市、数据仓库等数据类项目实施开发经验; 熟悉oralce、db2或mysql等常用数据库; 熟悉使用taskctl、control-m、datastage或kettle等常用一种etl工具; 熟悉使用Shell、Python或Perl等常用脚本开发语言; 熟悉使用shell脚本及Linux命令; 良好的沟通、理解能力,工作细致、耐心、负责。
-
岗位职责: 1、完成项目实施交付任务,负责业务调研、需求分析、培训、上线、维护等工作任务; 2、负责数据仓库开发工作; 3、编写和整理项目中的相关项目文档。 任职资格: 1、本科以上学历,计算机或相关专业,1年以上的政府相关项目的实施经验; 2、熟悉关系型数据库原理和精通ORACLE数据库,熟练使用PL/SQL工具; 3、熟练使用主流的数据库分析、设计工具,能独立完成数据仓库的架构设计优先; 4、有数据库的ETL、建模、报表开发的能力优先; 5、富有责任感、执行力强,有良好的团队协作精神及优秀的沟通技巧,良好的表达能力、组织、协调能力。 6、能够在压力下工作,适应出差工作,自我管理能力强,工作态度端正,做事扎实、勤奋。
-
岗位职责: 1、参与保险项目开发、实施、维护,负责与客户沟通及问题解决。 2、参与项目的的数据库开发,如存储过程、函数。 3、负责数据库设计与plsql开发 4、负责数据库sql优化、统计、分析 任职要求: 1、2年及以上ETL相关工作经验 2、精通Oracle数据库,有良好的sql开发技能,能熟练编写Oracle数据库中存储过程、函数。 3、熟悉Linux常用系统管理及文件管理命令,熟悉shell脚本编写。 4、熟练使用kettle工具进行数据开发。 5、具有一定的问题分析及决绝方案设计能力以及一定的文档编写能力。 6、熟悉Java开发语言优先,熟悉保险业务优先。
-
1、熟悉使用Informatica、Hadoop等ETL开发工具; 2、有人寿保险相关项目经验; 3、掌握数据库存储过程开发经验 4、有人身险EAST实施经验优先。
-
1、熟悉使用Informatica、Hadoop等ETL开发工具; 2、掌握数据库存储过程开发经验; 3、有人寿保险相关项目经验优先: 4、有人身险反洗钱相关实施经验优先; 5、需要具备优化和搭建大数据处理系统能力,数据仓库相关经验优先;具有海量数据处理、互联网从业背景者优先; 6、善于沟通、 认真踏实、思维灵活。 本科以上学历,有3年以上数据相关开发经验。


