• 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 15k-25k 经验3-5年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    工作职责: 1.数据同步与ETL开发: 负责设计、开发、测试和维护数据同步、抽取、转换和加载(ETL)流程,确保数据高效、准确、稳定地从源系统流向目标系统。 2.数据同步通道部署与运维: 负责使用OGG、DSG等数据同步工具进行通道的部署、配置、监控、调优和故障处理,保障数据同步通道的稳定运行。 3.日常数据开发与运维: 使用Python、Java等编程语言进行日常数据开发任务(如脚本编写、自动化任务开发)和数据运维工作(如数据质量检查、任务监控、问题排查)。 4.数据库开发与操作: 熟练编写和优化SQL脚本,基于Greenplum、Oracle、MySQL、PostgreSQL等主流数据库进行数据查询、分析、转换和存储过程开发等。 5.数据运维程序开发:根据业务需求,开发数据清洗、转换、入库等相关的运维程序和工具,提升数据处理效率和自动化水平。 6.数据质量保障:参与数据清洗规则的制定与实施,确保入库数据的准确性、完整性和一致性。 任职资格: 1.工作经验: - 3年以上数据开发相关工作经验。 - 具备以下经验优先: 1)有使用 OGG (Oracle GoldenGate) 或 DSG 等数据同步工具的实际部署、配置或运维经验。 2)了解ETL工具(如 Informatica, DataStage, Kettle 等)或调度工具(如 Airflow, DolphinScheduler 等)。 2.技术能力: - 熟练掌握 Python 和 Shell 脚本编程,能够独立完成开发任务。 - 精通 SQL 语言,具备复杂查询、性能调优、存储过程编写等能力。 - 熟练使用至少两种主流数据库(Greenplum, Oracle, MySQL, PostgreSQL)进行开发、管理和优化,理解其核心架构与特性。 - 了解至少一种国产或新兴数据库(如 OceanBase, TiDB, 人大金仓(KingbaseES))的基本原理和使用方式。 - 熟悉 Linux 操作系统(如 CentOS, RedHat, Ubuntu 等),掌握常用命令、系统管理、环境配置和脚本执行。 - 加分项 (非必需,但优先考虑): 1)具备一定的 Java 开发能力。 2)熟悉数据仓库建模理论(如维度建模)。 3)有大数据生态组件(如 Hive, Spark, HDFS 等)的使用经验。 4)了解容器化技术(Docker, Kubernetes)。 3.其他要求: - 具备良好的学习能力、分析问题和解决问题的能力。 - 工作认真负责,有较强的责任心和团队协作精神,能承受一定的工作压力。 - 具备良好的沟通能力,能够清晰表达技术方案和问题。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1.大数据基础平台、应用平台功能设计和开发。 2.负责大数据平台及组件的调研选型,部署,日常监控及问题解决。 3.参与海量数据处理方案设计,提供业务系统技术支撑。 任职要求: 1.本科以上,计算机相关专业。 2.至少精通java/scala其中一种开发语言,熟悉主流后端开发框架。 3.熟悉大数据平台常用框架(hadoop/hive/spark/hbase/flink/presto/clickhouse/kafka)原理及常用应用场景,至少有3年以上大型生产系统相关经验。 4.熟悉linux系统,熟悉常用的操作系统命令和shell脚本编写。 5.责任心强,有较强的沟通能力和团队合作精神。 6.了解docker、k8s相关技术,有大数据组件容器化经验优先。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、设计与开发智能测试与诊断工具:构建下一代测试平台,利用静态代码分析、动态插桩、故障注入等技术,对大数据核心组件进行深度质量探测; 2、推进AI在质量保障领域的落地:探索AI/ML技术在大数据平台质量保障与稳定性的应用场景,如代码风险挖掘、智能异常检测、故障根因定位等; 3、参与大数据平台稳定性架构建设:从测试和可观测性视角,参与平台架构评审,设计和开发高可用、可测试的框架与规范; 4、建立平台级的质量洞察能力:通过代码覆盖率、性能基准测试、混沌工程等手段,构建平台质量度量体系,为研发团队提供可视化的质量数据和改进方向。 职位要求: 1、计算机相关专业本科及以上学历,3年以上测试开发或后端开发经验,具备扎实的计算机基础和编码能力; 2、精通至少一门主流编程语言(如:Java/Python/Go),具备软件设计能力,能独立完成工具或框架的开发与迭代; 3、对软件测试理论和质量保障体系有一定理解,熟悉自动化测试、性能测试、混沌工程等; 4、具备良好的项目推动能力、沟通能力和团队合作精神,能够独立解决问题并承担压力; 5、有AI或机器学习相关项目经验优先;有代码分析经验或了解工具或库优先(例如:AST分析、代码插桩);有大数据平台开发测试运维经验优先;或具备优秀英语能力者优先。
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 25k-45k·16薪 经验5-10年 / 本科
    旅游|出行,生活服务,居住服务 / 上市公司 / 2000人以上
    职位描述 1、加入高德地图的商业智能BI团队,深入理解高德核心业务,为决策层评估业务价值、进行业务决策等提供数据支撑; 2、数据研发:参与高德地图打车、搜索等核心业务的数据仓库、数据产品建设,参与数据治理并沉淀业务数据资产; 3、数据挖掘:基于高德地图的海量日志,通过算法模型挖掘有价值的业务信息,指导高德地图的产品迭代。 职位要求 1、计算机、数学、统计或者相关专业本科以上学历; 2、熟悉Java/Python,精通SQL,具有5年以上数据研发经验; 3、熟悉HADOOP大数据平台架构:HDFS/HBase/Hive/MapReduce,熟练掌握MapReduce程序开发,了解实时计算,有使用过Flink、Spark Streaming等开源实时流引擎的优先; 4、对数据仓库系统架构具有良好的认知,理解数据分层、数据倾斜、错峰调度等理念,并具有相关实战经验。
  • 40k-70k·13薪 经验10年以上 / 本科
    旅游|出行 / D轮及以上 / 500-2000人
    岗位职责 1、负责客路下一代大数据湖平台的规划、建设与持续优化,打造高效稳定的数据处理与分析能力; 2、负责数据基础架构的设计与研发,提供高性能的离线与实时计算能力,支撑公司在海量数据分析、机器学习等场景下的业务需求,实现数据平台价值的持续交付; 3、牵头大数据平台研发团队的建设与管理,制定并落地大数据平台相关技术标准与规范; 4、打造数据服务与预警机制,赋能业务与运营团队的数据化运营; 5、建设埋点,AB实验,用户圈选,CDP等数据应用,提供离线和实时的数据服务; 6、推动数据治理与数据资产管理平台的建设与完善,提升数据质量与资产价值。 任职要求 1、本科及以上学历,计算机、数学、统计等相关专业优先;具备5-8年数据平台开发经验,有一定团队管理经验者优先; 2、扎实的大数据平台架构设计能力,深入理解大数据生态及关键组件,熟悉以下技术: 3、Doris、Spark、Hadoop 等核心组件; 4、Flink、Iceberg等实时与湖仓一体技术; 5、有AWS / GCP / 阿里云平台经验者优先; 6、对埋点、广告投放、用户圈选系统等有深刻理解与实战经验; 7、具备较强的业务理解力,能够结合业务场景构建数据产品与解决方案,具备数据化运营经验优先; 8、具备优秀的跨团队沟通与协作能力,善于总结与规范化,推动多部门协作与项目落地,责任心强,具备良好的团队合作意识。
  • 11k-16k·13薪 经验3-5年 / 本科
    移动互联网 / 不需要融资 / 50-150人
    职责描述: 1.参与数据仓库架构与数据开发,设计ETL流程、日志等数据 2.负毒数据平台相关数据工作,如研发、质量、保障与实施落地 3.参与实时数据流的数据处理、查询统计和分析预测等计算 4.日常数据监控以及数据预警,异常数据解读挖掘,并与业务沟通解决方案 5.管理数据类项目并如期实施交付 任职要求: 1.从事数据仓库领域工作1-3年或3年以上,实际参与模型设计及ETL开发经验,能独立完成相关的开发工作 2.做过2年以上bi项目经验 3.sql 精通 4. etl工具精通至少1种(ssis) 加分项: 1.会dax优先 2.精通ADF优先
  • 6k-12k 经验1-3年 / 本科
    房产家居 / 不需要融资 / 2000人以上
    岗位职责: 1.负责大数据平台的设计与应用功能开发; 2.基于业务诉求,主导系统设计架构工作,负责实时计算系统的研发工作; 3.结合现状,推动业务平台技术迭代,提升系统性能; 4.思路清晰,可快速响应数据处理的需求,评估并给出合理的解决方案,并采用合理的方式处理需求; 5.积极主动,能够与团队成员进行有效沟通,并完成数据处理结果的核对与对接; 6.负责前沿或关键技术的研究,完成服务性能优化; 7.完成上级交办的工作或任务。 岗位要求: 1.****及以上,计算机软件类专业对口,本岗位1年及以上工作经验; 2.精通大数据Hadoop体系的相关技术:Spark、Hive、HВase, Spark Streaming / Flink、Redis,Kafka ; 3.熟悉 JAVA/Scala编程,具备良好的编程能力; 4.熟悉 Linux 操作系统, Shell 编程等; 5.了解数据仓库建模,熟悉etl设计开发; 6.熟悉知识图谱和向量数据库。
  • 9k-14k·13薪 经验3-5年 / 本科
    工具 / 未融资 / 少于15人
    岗位职责: 1、负责编写ETL映射; 2、根据业务需求及数据仓库模型进行ETL开发。 任职要求: 1、计算机或相关专业本科以上学历; 2、熟悉ETL架构,有三年以上丰富的ETL、数据处理相关开发经验; 3、了解数据仓库模型,有数据仓库开发、实施的经验,有3年银行业相关经验;有监管经验优先; 4、精通datastage等主流ETL工具的优先考虑; 5、精通Shell或python或perl语言的优先考虑; 6、精通SQL语言,精通DB2、Oracle等主流数据库开发的一种,有DB2开发经验者优先; 7、具备很强的责任心、良好的沟通能力、积极的工作态度和团队合作意识; 8、 CDH、TDH等大数据平台开发经验的优先。 注:接受江浙出差
  • 10k-15k 经验3-5年 / 本科
    数据服务|咨询 / 不需要融资 / 150-500人
    岗位职责: 1、负责编写ETL映射; 2、根据业务需求及数据仓库模型进行ETL开发。 任职要求: 1、计算机或相关专业本科以上学历; 2、熟悉ETL架构,有三年以上丰富的ETL、数据处理相关开发经验; 3、了解数据仓库模型,有数据仓库开发、实施的经验,有3年银行业相关经验;有监管经验优先; 4、精通datastage等主流ETL工具的优先考虑; 5、精通Shell或python或perl语言的优先考虑; 6、精通SQL语言,精通DB2、Oracle等主流数据库开发的一种,有DB2开发经验者优先; 7、具备很强的责任心、良好的沟通能力、积极的工作态度和团队合作意识; 8、CDH、TDH等大数据平台开发经验的优先。
  • 13k-25k·13薪 经验3-5年 / 本科
    数据服务|咨询 / 不需要融资 / 150-500人
    岗位职责: 1、负责编写ETL映射; 2、根据业务需求及数据仓库模型进行ETL开发。 任职要求: 1、计算机或相关专业本科以上学历; 2、熟悉ETL架构,有三年以上丰富的ETL、数据处理相关开发经验; 3、了解数据仓库模型,有数据仓库开发、实施的经验,有3年银行业相关经验;有监管经验优先; 4、精通datastage等主流ETL工具的优先考虑; 5、精通Shell或python或perl语言的优先考虑; 6、精通SQL语言,精通DB2、Oracle等主流数据库开发的一种,有DB2开发经验者优先; 7、具备很强的责任心、良好的沟通能力、积极的工作态度和团队合作意识; 8、CDH、TDH等大数据平台开发经验的优先。
  • 15k-30k 经验3-5年 / 硕士
    金融业 / 上市公司 / 150-500人
    岗位职责: 1、掌握项目具体数据需求,分析数据源系统,确定所需源数据的数据结构、统计口径、数据下发方式、数据下发频率等特性,确定数据映射关系,数据含义,构建数据模型 2、协助ETL工程师完成模型落地以及调度开发 3、了解大数据平台整体规划,针对银行业内的数据存储、平台资源、业务需求,使用模型设计软件构建全行级数据体系的数据模型 4、在数据资产管理平台中维护系统表清单、表结构、表类型、数据字典、数据映射关系 5、研究银行业的建模思路、方法和落地方式,结合行内现有数据模型、业务逻辑等,开展各项主题研究分析根据行内的模型规划,制定具体标准、流程设计以及实施方案,并推动实施 6、参与数据挖掘及数据产品研发的规划、设计及实施。包括数据准备、数据分析、数据建模、模型优化、算法应用等工作。 招聘条件: 1、211/985硕士及以上学历,年龄35周岁及以下; 2、具备3年及以上银行、大数据分析、IT公司从事金融行业数据挖掘相关工作经验; 3、作为核心团队成员参与过金融数据分析或数据仓库项目,有项目管理经验者优先考虑; 4、熟悉数据仓库模型设计方法论,并有实际的模型设计经验,具备大数据模型建设能力 熟悉大数据、数据仓库、数据治理等行业技术发展趋势 5、熟悉金融行业基本知识,熟悉银行基本业务体系 6、熟悉高斯DB相关技术,熟悉MPP数据库、关系型数据库技术,具有丰富的SQL语言经验会使用至少一种模型设计软件(PD、ERWIN等) 7、具有较强的逻辑分析能力,同时对新知识、新事物具有强烈的钻研精神,思路清晰、思维缜密,有良好的团队合作能力。
  • 10k-15k 经验5-10年 / 大专
    移动互联网,其他 / 未融资 / 150-500人
    1、**专 科及以上,计算机、软件工程、数学等相关专业; 2、5年 及 以上工作经验,其中3年以上大数据平台数据项目开发经验; 3、精通ETL开发工具informatica,有ETL脚本和调度程序开发经验;(必须项) 4、精通关系型数据库如MySQL、ORACLE,有丰富的SQL开发和性能调优经验; 5、对hive、spark、map/reduce、kafka有深入了解;熟悉linux环境和命令; 6、表达流畅,善沟通,能较好理解用户需求;对新技术充满激情,做事认真负责;