-
工作职责: 1.数据同步与ETL开发: 负责设计、开发、测试和维护数据同步、抽取、转换和加载(ETL)流程,确保数据高效、准确、稳定地从源系统流向目标系统。 2.数据同步通道部署与运维: 负责使用OGG、DSG等数据同步工具进行通道的部署、配置、监控、调优和故障处理,保障数据同步通道的稳定运行。 3.日常数据开发与运维: 使用Python、Java等编程语言进行日常数据开发任务(如脚本编写、自动化任务开发)和数据运维工作(如数据质量检查、任务监控、问题排查)。 4.数据库开发与操作: 熟练编写和优化SQL脚本,基于Greenplum、Oracle、MySQL、PostgreSQL等主流数据库进行数据查询、分析、转换和存储过程开发等。 5.数据运维程序开发:根据业务需求,开发数据清洗、转换、入库等相关的运维程序和工具,提升数据处理效率和自动化水平。 6.数据质量保障:参与数据清洗规则的制定与实施,确保入库数据的准确性、完整性和一致性。 任职资格: 1.工作经验: - 3年以上数据开发相关工作经验。 - 具备以下经验优先: 1)有使用 OGG (Oracle GoldenGate) 或 DSG 等数据同步工具的实际部署、配置或运维经验。 2)了解ETL工具(如 Informatica, DataStage, Kettle 等)或调度工具(如 Airflow, DolphinScheduler 等)。 2.技术能力: - 熟练掌握 Python 和 Shell 脚本编程,能够独立完成开发任务。 - 精通 SQL 语言,具备复杂查询、性能调优、存储过程编写等能力。 - 熟练使用至少两种主流数据库(Greenplum, Oracle, MySQL, PostgreSQL)进行开发、管理和优化,理解其核心架构与特性。 - 了解至少一种国产或新兴数据库(如 OceanBase, TiDB, 人大金仓(KingbaseES))的基本原理和使用方式。 - 熟悉 Linux 操作系统(如 CentOS, RedHat, Ubuntu 等),掌握常用命令、系统管理、环境配置和脚本执行。 - 加分项 (非必需,但优先考虑): 1)具备一定的 Java 开发能力。 2)熟悉数据仓库建模理论(如维度建模)。 3)有大数据生态组件(如 Hive, Spark, HDFS 等)的使用经验。 4)了解容器化技术(Docker, Kubernetes)。 3.其他要求: - 具备良好的学习能力、分析问题和解决问题的能力。 - 工作认真负责,有较强的责任心和团队协作精神,能承受一定的工作压力。 - 具备良好的沟通能力,能够清晰表达技术方案和问题。
-
职位描述 1、加入高德地图的商业智能BI团队,深入理解高德核心业务,为决策层评估业务价值、进行业务决策等提供数据支撑; 2、数据研发:参与高德地图打车、搜索等核心业务的数据仓库、数据产品建设,参与数据治理并沉淀业务数据资产; 3、数据挖掘:基于高德地图的海量日志,通过算法模型挖掘有价值的业务信息,指导高德地图的产品迭代。 职位要求 1、计算机、数学、统计或者相关专业本科以上学历; 2、熟悉Java/Python,精通SQL,具有5年以上数据研发经验; 3、熟悉HADOOP大数据平台架构:HDFS/HBase/Hive/MapReduce,熟练掌握MapReduce程序开发,了解实时计算,有使用过Flink、Spark Streaming等开源实时流引擎的优先; 4、对数据仓库系统架构具有良好的认知,理解数据分层、数据倾斜、错峰调度等理念,并具有相关实战经验。
-
职位职责: 1、云数据库RDS MySQL中间件相关研发; 2、云数据库RDS MySQL同城多机房,异地多活相关的研发; 3、云数据库RDS MySQL容器云相关研发; 4、定位和解决生产环境出现的各种问题,提出系统化的解决方案和规划。 职位要求: 1、本科及以上学历,精通C/C++/Python/Golang/Java/Rust语言中的一种; 2、有数据库、高并发系统、分布式系统等工作经验,并深入理解该领域技术; 3、熟悉分库分表、事务机制、MVCC、查询优化、主从复制、备份恢复、存储引擎、高可用等机制和源码者优先; 4、熟悉Vitess,ShardingSphere等数据库中间件系统者优先; 5、熟悉MySQL,PolarDB,TiDB,OceanBase,CockroachDB,Spanner等数据库系统者优先。
-
工作职责 1、负责数据库架构设计,数据库系统性能优化; 2、负责数据库生产运维重大问题跟进、对外应用服务、部门内部项目、重要任务及重大变更的实施(升级、迁移、合并、改造等); 3、日常生产运维重要问题跟进及解决,定期分析跟进报表类报警,重要数据库健康检查及主动优化; 4、重大变更技术方案的制定及跟进,自动化运维工具开发; 5、保障数据库稳定运营,提升部门产能,达到主动服务和专业服务的目标,提升用户满意度和部门外部影响力。 任职要求 1、本科及以上学历,计算机、软件工程等相关专业;5年及以上数据库构架、开发、维护管理相关工作经验; 2、熟悉Oceanbase等分布式数据库,具备一年以上的Oceanbase项目的实施或运维经验,熟悉Oracle/PostgreSQL/MySQL中的至少一种,精通SQL优化及具备数据库整体性能优化的能力,具备OBCP认证; 3、保险、银行、证券相关及大型互联网行业工作经验者优先,熟悉操作系统、实施过信创改造项目者优先; 4、原则性强,责任心强,工作积极主动,具备良好的沟通协调能力、问题解决能力、口头和文字表达能力。
-
岗位职责: 1. 负责 TDengine 数据库内核在 Windows 平台上的开发和问题解决 2. 日常工作内容主要包括:解决 Linux/Windows 平台上的产品功能问题、性能问题以及产品稳定性问题。 任职要求: 1. 深厚的 C 语言开发背景; 2. 熟悉 Linux/Windows 平台底层技术:文件系统,网络等; 3. 开发过大型产品或者分布式系统,如果有数据库或者存储管理类产品的开发经验更好; 4. 如果 2 不具备,要求开发过 Windows 上的底层软件(比如驱动); 5. 高水平的架构设计能力和编程能力; 6. 有流计算经验优先考虑。
-
一、主要职责: 1.深度优化数据库和中间件,显著提升系统稳定性与健壮性,确保系统在高并发、复杂业务场景下稳定运行。 2.严格执行数据库备份策略,定期进行数据完整性检查,制定完善的故障应急预案,在出现故障时迅速响应并恢复数据,保障业务连续性。 3.积极与其他部门协作,高效完成系统数据的备份、迁移、同步等工作,确保数据在不同系统和环境间准确、及时流转。 4.负责数据库高可用性规划与设计,通过技术手段实现数据库的冗余备份和快速切换,同时持续进行性能调优,提升数据库响应速度和处理能力。 二、学历要求: 211本科及以上学历,计算机、软件工程等相关专业(硕士优先)。 三、工作经验: 5年以上中大型企业核心数据库管理经验,其中3年必须为银行、保险或证券等金融行业背景。 四、专业知识 1.精通Mysql、GoldenDB、MongDB等主流数据库以及中间件(像 WebLogic、Tomcat、、RabbitMQ、Kafka、Redis 等)的管理,包括安装、配置、优化、备份恢复等全生命周期管理。 2.数据安全与合规:熟悉数据安全技术(如用户权限管理、访问控制、数据脱敏、加密存储),具备保险金融行业数据安全合规经验(如满足《个人信息保**》《金融数据安全分级指南》要求);有数据库容灾方案设计与实施经验(如异地灾备、双活架构),熟悉备份恢复策略(全量/增量备份、时间点恢复)及演练流程; 3.具备故障排查与应急处理能力,能通过日志分析、性能监控工具快速定位数据库性能问题(如慢查询、锁等待、死锁)或系统故障(如主从切换、存储故障)。 4.有信创项目经验,精通达梦、OceanBase等国产数据库的管理与迁移;
-
岗位职责: 1.负责公司业务系统数据库的性能维护、安全性管理; 2.负责公司数据可靠性维护、数据备份和数据容灾; 3.对开发项目提供数据库技术支持; 4.负责数据库运维自动化脚本编写。 任职要求: 1.计算机、软件相关专业本科及以上学历; 2.3-5年相关工作经验; 3.较强的沟通学习能力,对技术有热情,有能力直接跟踪和学习最新的技术和知识; 4.有python或者shell编程能力; 5.有oracle、mysql、mongodb、hadoop至少一种运维能力。
-
工作职责 1、负责数据库监控告警的优化与改进,分析并解决数据库整体的性能瓶颈,提升系统响应速度和可用性; 2、负责数据库生产运维重大问题跟进,快速响应并解决生产环境中的紧急问题,分析数据库故障的根因并推动改进; 3、日常生产运维重要问题跟进及解决,定期分析数据库巡检报告及重要数据库健康检查及主动优化,总结运维经验; 4、保障数据库稳定运营,提升部门产能,达到主动服务和专业服务的目标,提升用户满意度和部门外部影响力。 任职要求 1、本科及以上学历,计算机、软件工程等专业,5年及以上数据库构架、开发、维护管理相关工作经验,具备团队管理经验者优先; 2、熟悉Oceanbase等分布式数据库,具备一年以上Oceanbase项目实施或运维经验,熟悉Oracle/PostgreSQL/MySQL中的至少一种,精通SQL优化及具备数据库整体性能优化能力; 3、保险、银行、证券相关行业及大型互联网行业工作经验者优先,熟悉操作系统、实施过信创改造项目者优先; 4、原则性强,责任心强,工作积极主动,具备良好的沟通协调能力、问题解决能力、口头和文字表达能力。
-
新增:壹账通(北大医疗项目,外包,长期,介意务投递。)- 数据库-T4/T6 - 线上面试-工作地址:中关村生命科学园生命园路1号北京大学国际医院5号行政楼 岗位职责: (1)负责ETL开发,模型开发,数据洁洗, (2)梳理业务逻辑,进行链路改造和模型改造 任职资格: 1)计算机及相关专业,本科以上学历,3年以上开发经验 2)精通使用帆软FindRepor报表开发工具。 3)精通SparkSql,MYSOL、SOLSERVER,Oracle,等数据库语句; 4)熟练使用Spark等ETL数据抽取工具 5)熟悉大数据技术,Hadoop.Spark.Flink,Doris,Hudi等相关技术; 6)了解医疗信息化,有HS、体检、手麻等系统相关开发与实施经验优先, 7)有大型医疗集团HRP系统、BI系统等实施经验优先。
-
岗位职责: 1、负责数据仓库或者数据湖ETL设计开发; 2、负责与业务部门数据需求的沟通与确认。 岗位要求: 1、3-5年数据仓库、数据平台或者数据湖的ETL开发工作经验,具有ETL业务逻辑设计经验优先; 2、具有 AWS EMR、AWS Redshift、AWS Glue等亚马逊云上数据服务开发经验; 3、有AXURE开发经验 4、熟练掌握 Hive 和 Spark 大数据计算框架,具有HiveQL(HQL)或SparkSQL相关ETL和数据处理的开发经验; 5、具有Azure开发经验 6、熟练掌握Python,shell,JAVA等代码开发 7、清晰的逻辑思维能力、良好的沟通能力和独立的ETL过程设计能力; 8、工作认真仔细,积极主动,具备较强的自主学习、自我总结能力。
-
"1,数据清洗入库:将日志数据解析入库到oracle、hive等数据库。 2,数据报表统计:利用Hadoop yarn Hive/Spark进行开发、存储、分布式计算应用的代码实现。 3,算法模型实现:对所给的算法模型进行开发实现。 4,数据实时接入开发与实现。 5,数据分析需求的模型开发和实现。" "1、计算机相关专业,本科以上学历,有较好的英文阅读能力; 2、3年以上Hadoop/Spark/Hive/Kafka/Flink开发经验,对分布式、并行计算理论有深刻理解; 3、熟悉hadoop,linux等环境,精通java/perl/python/Scala中至少一种语言; 4、熟悉主流数据库技术,如oracle、Sql server、mysql、hive等; 5、熟悉数据开发流程,了解日常作业的部署和调度; 6、有很好的服务意识、技术敏感性,抗压力强,沟通能力强,具备良好的学习能力和吃苦耐劳能力。"
-
职责描述: 负责数据采集、数据模型设计和 ETL 设计、开发和文档编写; 负责离线/实时数据同步和清洗; 负责分析和解释产品试验,为公司数据清洗产品改进、推广试验等提供数据支持; 负责建立数据清洗规则,为数据治理项目的实施落地提供支撑。 任职要求: 本科及以上学历(***公办本科大学,学历可在学信网验证),计算机相关专业,2年以上相关工作经验,有医疗或教育领域数据治理经验者优先; 1-2年的数据ODS、数据集市、数据仓库等数据类项目实施开发经验; 熟悉oralce、db2或mysql等常用数据库; 熟悉使用taskctl、control-m、datastage或kettle等常用一种etl工具; 熟悉使用Shell、Python或Perl等常用脚本开发语言; 熟悉使用shell脚本及Linux命令; 良好的沟通、理解能力,工作细致、耐心、负责。
-
1、熟悉使用Informatica、Hadoop等ETL开发工具; 2、有人寿保险相关项目经验; 3、掌握数据库存储过程开发经验 4、有人身险EAST实施经验优先。
-
1. 5年以上数据相关经验,特别优秀的条件可放宽; 2. 熟悉SQL、Python,熟悉ETL开发过程,了解大数据开发端到端的完整技术栈; 3. 有Azure或者AWS上完整的数据项目经验,Azure优先; 4. 熟悉Azure或者AWS数据产品的选型、实践、管理及开发,Azure优先; 5. 良好的沟通能力以及对客户数据业务需求的快速理解和把控能力; 6. 有开发团队管理经验者优先; 7. 熟悉数据集成技术(HTTP Restful、SFTP、数据库同步等)的优先; 岗位职责: 1. 与客户沟通,确保业务需求顺利完成; 2. 项目相关开发团队的人员管理与工作分配; 3. 参与项目打单,编写项目技术方案; 4. 解决开发人员技术问题。
-
**本科,学信网可查 1、熟悉使用Informatica、kettle等ETL工具 2、有保险相关项目经验 3、掌握常用数据库存储过程开发和shell开发经验 4、有dataworks开发或I17实施经验优先。


