• 15k-28k·15薪 经验1-3年 / 本科
    金融 / 上市公司 / 2000人以上
    工作内容 职位描述: 1.参与大数据平台数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2.参与数据仓库模型的ETL实施,ETL性能优化、技术攻关等。 3.参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4.参与平台标签体系、数据产品与应用的数据研发,发掘数据价值,以数据驱动业务不断发展。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-3年工作经验,具备极强的问题解决能力。 2. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 3. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型;熟练掌握SQL/HQL/Spark SQL开发及优化技能,快速ETL实施能力,对SLA有较深刻的认识及强烈的责任心。 4. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink,DataWorks等大数据工具应用和开发经验。 5. 掌握Java, Python等至少一门语言,有MapReduce项目开发经验,熟悉Azkaban等任务调度工具。 6. 熟练使用git,有多人项目合作开发经验。 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。
  • 20k-40k·15薪 经验1-3年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责: 1、负责国际化金融信贷产品的模型设计、开发、测试和部署工作;模型范围覆盖反欺诈、风控、营销、运营、催收等多个业务; 2、负责外部数据测试与联合建模工作,需要设计并出具标准化的评测报告,辅助关联的业务、产品、策略等团队评估与决策; 3、负责搭建模型与数据源监控,跟踪相关应用策略效果,响应策略测算与调整需求; 4、持续关注行业动向,主动贴近业务挖掘需求;以解决问题为目标,将业务难题转化为落地的技术方案,以实际技术成果提升业务效果; 5、关注技术进展,包括机器学习、复杂数据源深度挖掘、大模型等,以开放和务实的心态探索国际化金融信贷领域应用方案的优化和升级,大胆假设并实践论证,持续提升技术效率与效能。 任职要求: 1、国内外知名大学毕业,本科及以上学历,统计/数学/计算机专业优先,有信贷模型开发工作经验优先; 2、熟练掌握各种统计模型和机器学习算法,如各类经典回归模型、分类模型等;理解LR、XGB等常用算法的基本原理;有模型调优和成功落地经验优先; 3、熟练掌握至少一门主流的建模语言,如Python,SAS,R等;熟练掌握SQL; 4、对数据和业务有足够敏感度;有不错的结构化思维和逻辑分析能力,务实进取,善于跨团队合作与沟通; 5、具备不错的英文读写能力,一定的英文沟通能力。
  • 3k-6k 经验1-3年 / 本科
    在线教育 / 上市公司 / 2000人以上
    【岗位职责】 1.负责公考数资科目模拟题命制、解析撰写等教研工作。 2.根据业务需要完成其他模拟题相关工作。 【任职要求】 1.本科及以上学历,具备1年以上数资科目教学、教研经验者优先,优秀者不限工作经验; 2.能兼职参与粉笔教研教学工作,接受粉笔内容至上的教学理念; 3.具备基本教研能力,具有良好的文字表达能力和逻辑思维,信息搜集、整合、加工能力强; 4.工作踏实、细致、耐心、积极、负责,抗压能力强。
  • 15k-25k 经验3-5年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    工作职责: 1.数据同步与ETL开发: 负责设计、开发、测试和维护数据同步、抽取、转换和加载(ETL)流程,确保数据高效、准确、稳定地从源系统流向目标系统。 2.数据同步通道部署与运维: 负责使用OGG、DSG等数据同步工具进行通道的部署、配置、监控、调优和故障处理,保障数据同步通道的稳定运行。 3.日常数据开发与运维: 使用Python、Java等编程语言进行日常数据开发任务(如脚本编写、自动化任务开发)和数据运维工作(如数据质量检查、任务监控、问题排查)。 4.数据库开发与操作: 熟练编写和优化SQL脚本,基于Greenplum、Oracle、MySQL、PostgreSQL等主流数据库进行数据查询、分析、转换和存储过程开发等。 5.数据运维程序开发:根据业务需求,开发数据清洗、转换、入库等相关的运维程序和工具,提升数据处理效率和自动化水平。 6.数据质量保障:参与数据清洗规则的制定与实施,确保入库数据的准确性、完整性和一致性。 任职资格: 1.工作经验: - 3年以上数据开发相关工作经验。 - 具备以下经验优先: 1)有使用 OGG (Oracle GoldenGate) 或 DSG 等数据同步工具的实际部署、配置或运维经验。 2)了解ETL工具(如 Informatica, DataStage, Kettle 等)或调度工具(如 Airflow, DolphinScheduler 等)。 2.技术能力: - 熟练掌握 Python 和 Shell 脚本编程,能够独立完成开发任务。 - 精通 SQL 语言,具备复杂查询、性能调优、存储过程编写等能力。 - 熟练使用至少两种主流数据库(Greenplum, Oracle, MySQL, PostgreSQL)进行开发、管理和优化,理解其核心架构与特性。 - 了解至少一种国产或新兴数据库(如 OceanBase, TiDB, 人大金仓(KingbaseES))的基本原理和使用方式。 - 熟悉 Linux 操作系统(如 CentOS, RedHat, Ubuntu 等),掌握常用命令、系统管理、环境配置和脚本执行。 - 加分项 (非必需,但优先考虑): 1)具备一定的 Java 开发能力。 2)熟悉数据仓库建模理论(如维度建模)。 3)有大数据生态组件(如 Hive, Spark, HDFS 等)的使用经验。 4)了解容器化技术(Docker, Kubernetes)。 3.其他要求: - 具备良好的学习能力、分析问题和解决问题的能力。 - 工作认真负责,有较强的责任心和团队协作精神,能承受一定的工作压力。 - 具备良好的沟通能力,能够清晰表达技术方案和问题。
  • 10k-20k 经验3-5年 / 硕士
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1、风险政策分析与解读:关注国家监管部门内控风险管控要求、金融监管机构金融政策法规动态,确保咨询方案合规,提供合规及项目落地建议,帮助客户规避政策风险。针对新政策,提供政策解读、过渡期安排建议、业务调整方案设计等服务,助力客户适应政策变化。 2、数智化风控体系构建:参与企业数智化风控管理咨询项目,包括数智化风控体系搭建、数智风控系统规划、数智化风控方案评审等; 3、风险量化分析:针对财务风险、金融风险、运营风险、合规管控等场景,进行风险评估与根因分析,搭建风险预警模型及评价指标体系,评估和识别各类风险水平,对风控质量及效率进行量化评价; 4、数智化转型落地:支持客户风控数智化转型项目,推动风险管理与业务流程的系统化、智能化整合、内控IT固化优化等; 5、知识沉淀与赋能:撰写内控风险建设成果报告、培训材料及风控产品白皮书,参与客户汇报与跨部门协作。 岗位要求: 1、本科及以上学历(硕士优先),审计、财务管理、风险管理、法律、金融工程等相关专业; 2、逻辑缜密、风险敏感度高,具备优秀的跨部门沟通能力及复杂问题拆解能力,适应高强度项目节奏。具备有较强的快速学习、逻辑思维、数据分析、项目管理等综合能力 3、能够熟练使用财务软件和办公软件,如Excel、PowerPoint等;能够运用政策智能分析工具进行金融政策研究与解读; 4、熟悉企业内控体系(如COSO、ISO 31000)及风险管理方法论,具备风控平台设计、内控评价、内控审计等经验者优先; 5、2年以上咨询公司、四大审计/风险部门、大型企业内控岗或风险管理岗经验; 6、可以熟练使用SQL/Python/R等业财数据分析工具者优先; 7、持有CIA(国际注册内部审计师)、FRM(金融风险管理师)、CICS(合规管理师)、CISA(国际注册信息系统审计师)以及CPA、PMP等证书者优先; 8、有领先咨询公司或大型厂商相关领域项目经验优先; 9、有通信行业或其他大型央企或头部创新企业相关领域项目经验优先;
  • 25k-45k·16薪 经验5-10年 / 本科
    旅游|出行,生活服务,居住服务 / 上市公司 / 2000人以上
    职位描述 1、加入高德地图的商业智能BI团队,深入理解高德核心业务,为决策层评估业务价值、进行业务决策等提供数据支撑; 2、数据研发:参与高德地图打车、搜索等核心业务的数据仓库、数据产品建设,参与数据治理并沉淀业务数据资产; 3、数据挖掘:基于高德地图的海量日志,通过算法模型挖掘有价值的业务信息,指导高德地图的产品迭代。 职位要求 1、计算机、数学、统计或者相关专业本科以上学历; 2、熟悉Java/Python,精通SQL,具有5年以上数据研发经验; 3、熟悉HADOOP大数据平台架构:HDFS/HBase/Hive/MapReduce,熟练掌握MapReduce程序开发,了解实时计算,有使用过Flink、Spark Streaming等开源实时流引擎的优先; 4、对数据仓库系统架构具有良好的认知,理解数据分层、数据倾斜、错峰调度等理念,并具有相关实战经验。
  • 1k-2k 经验不限 / 本科
    在线教育 / 上市公司 / 2000人以上
    注:简历内请务必留下您的邮箱地址!简历筛选通过后,我们会以邮件形式发送通知。 岗位职责: 1、 根据公司安排,完成线上班群督学、课程答疑、关注并跟进学员学习进度等工作; 2、 能够积极参与笔面试督学理论及带班操作培训,并不断提升笔面试综合能力; 3、 为学员提供全学习环节、学习任务完成情况和学习效果监督,主动分析科目学习任务完成情况,针对薄弱环节给出针对性解决方案及辅导。 任职要求: 1、 **本科及以上学历; 2、 具备至少半年公考行业从业经验或参与过公务员考试,对公考具备一定了解和基础知识掌握,认同粉笔各学科理论; 3、 思维敏捷、逻辑清晰、表达精准,积极上进、有责任心; 4、 空闲时间充足,能够及时关注、回复相关工作信息,可常年兼职或可稳定合作6个月以上者优先。 薪资范围(500-2000/月): 一份堪比你工资的“零花钱” 高水准岗前培训 闲暇时间 网络办公 不受地域限制 新人入职日薪可观,上不封顶,多劳多得!
  • 20k-40k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责仓储运营/供应链管理项目方案筹备、项目实施、复盘改善,推进持续优化以不断优化流程、改善运营成本; 2、建立和完善仓储运营SOP,制定并实施相关标准和规范,确保仓储作业的规范化和标准化; 3、主导仓储供应链精益改善项目,运用精益改善、流程优化相关工具及方法进行效率改善/成本优化; 4、对标行业先进实践,持续优化仓储供应链流程方案/成本管理/效率提升等管理机制; 5、其他专项支持,不限于预算制订、运营排班、业务外包等相关效率/成本测算工作。 职位要求: 1、学历要求:本科及以上学历,物流管理/仓储管理/供应链管理/IE等相关专业优先; 2、工作经验:3年以上仓储管理/供应链行业项目管理经验(方案/筹备/落地实施/复盘等独立闭环),有仓储/供应链项目经验者优先; 3、熟练掌握精益改善等相关改善思路方法及工具,有较丰富的精益改善经验,具备较强的数据分析能力; 4、沟通能力:具备良好的沟通协调能力和团队合作精神,能够推动跨部门合作; 5、语言要求:英语可作为工作语言用于日常沟通。
  • 10k-15k 经验1-3年 / 本科
    电商 / 不需要融资 / 150-500人
    职责描述: 1、负责数据仓库和ETL任务的开发、调优、运维等工作; 2、参与数据治理,提升数据易用性及数据质量; 3、理解并合理抽象业务需求,与业务团队紧密合作,发挥数据价值; 5、协助处理数据项目设计与开发工作; 6、协助处理数据采集、清洗、建模、加工等数据开发工作 7、协助处理数据需求的需求理解、数据开发, 岗位要求: 1、大专及以上学历,计算机相关专业,有电商经验 2、精通 SQL,有较好的 SQL 性能调优经验,了解 hive/MySQL 的基本原理和调优策略 3、熟悉常用的数据处理方法和工具,精通Python/shell语言的一种或多种,编码基本功扎实 4、熟悉Hadoop数据开发工具使用及其原理,括Hive, Spark SQL等 5、精通主流数仓及BI平台,熟悉分布式、缓存、消息、NoSQL技术及其生态圈 6、具有良好的沟通能力,有团队合作精神,工作积极主动,抗压能力强
  • 15k-20k 经验5-10年 / 本科
    软件服务|咨询,金融业,IT技术服务|咨询 / 未融资 / 150-500人
    岗位要求: -        参与MSL Group IFRS 17精算平台建设。 -        参与未来MSL本地IFRS 17 精算平台的设计、开发、运维。 -        参与本地当前准则下精算平台的开发维护。 -        协调MSL Group IFRS 17、未来MSL本地IFRS 17 精算平台及其他系统间交互。 -        根据公司开发管理要求完成开发相关文档、功能测试和测试方面的文档(FD文档、单元测试、SIT测试,UAT测试支持、上线文档等)。 任职要求: Ø  精通SQL、Informatica、存储过程,熟悉MS SQL Server等多种数据库管理软件。 Ø  4年及以上数仓开发经验,2年及以上Informatica开发经验,掌握数据仓库体系架构、建模方法、数据治理等知识。 Ø  负责基于ETL Informatica + SQL Server数据库平台的数据采集和清洗开发工作,掌握Informatica部署和调度处理流程。 Ø  负责ETL跑批和调度监控 Ø  掌握ETL(Informatica)Troubleshooting 流程,能够快速定位问题解决问题。 Ø  具有数据库调优经验。 Ø  熟悉Linux系统命令,具备Shell脚本编写能力。 Ø  具有较强的系统、业务分析能力,及独立解决问题的能力。 Ø  具有保险行业数据相关工作的经验。 Ø  了解大数据技术栈,包括Hadoop/Hive/OLAP等引擎等其中几种技术,具有较强的自学能力。 Ø  了解NativeCloud和分布式数据库。 Ø  有IFRS17项目经验的优先。 Ø  熟悉保险行业精算业务的优先。 Ø  具有较强的抗压能力。 Ø  具有较强的文字表达能力,思路清晰,表达有条理。 Ø  较强的英语读写表达能力。
  • 企业服务,医疗|健康 / 天使轮 / 150-500人
    岗位职责: 1、基于对业务的需求对业务数据进行数据仓库建模,并确保数据易于访问、可靠和精确; 2、与其他数据仓库工程师进行协调,以确保数据仓库环境的整体运行状况和性能,设计,开发, 测试,监视,管理和验证数据仓库活动,包括为数据仓库定义标准以及对 ETL 流程进行故障排除并有效解决问题; 3、调研新兴工具以及方法论提高团队的技能与效率; 4、主动推进外部用户了解数据仓库和 ETL 最佳实践,与他们一起将业务问题与需求转换为数据模型,提高业务团队的数据技能; 5、与业务团队合作通过数据分析解答基本业务问题。 任职要求: 1.熟悉数据建模,习惯于设计和实现复杂的数据结构,考虑多个用户的需求并持续进行优化; 2.具有处理非结构化数据和复杂的 ELT 流程的经验;能够调整流式处理和批处理应用程序以数据管道性能; 3.熟练的编写 SQL 代码,并有能力优化其查询性能; 5. 有银行或者医疗数仓建设经验者优先。
  • 10k-14k 经验1-3年 / 本科
    金融,软件开发 / 不需要融资 / 150-500人
    小伙伴去了就不想离开的项目~ 氛围优势:项目经理1-2周带小伙伴出去聚餐/自行组织,吃吃饭,聊聊天,爬爬山,游游泳。 地理优势:提供住宿,位于台州市中心位置,周围设施齐全,周末可以看海吃海鲜。 项目优势:非常稳定的项目,每年都续,目前合作3年以上。 岗位职责: 1. 负责指导、参与中间层的建设,组织解决开发过程中的业务以及其他难点问题. 2. 参与并评审模型建设,制定技术开发计划以及任务分配,确保开发方向与需求匹配. 3. 负责开发流程、开发质量和开发进度的规划. 4. 具备一定的数据分析能力,了解常见的统计、机器学习算法模型,有丰富的数据分析、挖掘、清洗和建模的经验; 职位要求 1. 2年及以上大数据系统(Hadoop/Spark)数据ETL工作经历,计算机科学、数学或相关专业本科及以上学历; 2. 精通MYSQL、Oracle 、SQL Server等任意一种关系型数据库开发,会使用kettle/Informaticac等常见ETL工具; 3. 熟练使用Impala/Hive SQL,并具有相关开发和优化经验; 4. 掌握数据仓库体系架构、数仓建模、数据治理等; 5. 对数据敏感,能够顺畅的与专业团队沟通协作,具备探索新业务场景的能力与热情,对于知识与技术向新场景迁移和应用有独立的见解
  • 12k-17k·13薪 经验3-5年 / 本科
    移动互联网,数据服务 / 未融资 / 50-150人
    岗位描述: 1、搭建和维护营销数据仓库,支持公司产品研发; 2、支持具体项目的数据仓库搭建和开发; 3、支持业务团队业务需求,开发数据集市; 4、支持分析师团队开发指标、标签、用户画像; 岗位要求: 1、大学本科学历及以上 2、有三年以上的数仓开发经验 3、熟练掌握SQL类型ETL开发 4、了解和掌握数据仓库建模能力 5、熟悉hadoop平台,包括不限于:hdfs、flume、hive、hbase、spark等 6、掌握ETL开发问题排查、性能调优的能力 7、了解离线数据、实时数仓的架构,并且有过学习和实践
  • 20k-40k·13薪 经验5-10年 / 本科
    汽车丨出行 / 未融资 / 150-500人
    职位描述: 1、负责离线数据仓库设计、建模、ETL设计、开发、部署、维护等工作; 2、参与产品功能规划与架构设计,打造高效、稳定的数仓、数据湖; 职位要求: 1、本科及以上学历,3年以上相关工作经验; 2、熟悉大数据系统,熟练掌握Hadoop生态并有深入实践经验。有Greenplum实际经验者优先; 3、熟悉主流关系型数据库如Mysql,熟悉Linux/Unix系统环境操作 4、熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 5、了解数据治理体系知识,具有数据治理建设相关数据标准管理、元数据管理、数据质量管理等建设经验; 6、良好的沟通和团队协作能力,以及抗压能力,对性能优化有**的追求者优先;
  • 20k-30k·13薪 经验3-5年 / 本科
    汽车丨出行 / 未融资 / 150-500人
    职位描述: 职责: 1、负责离线数据仓库设计、建模、ETL设计、开发、部署、维护等工作; 2、参与产品功能规划与架构设计,打造高效、稳定的数仓、数据湖; 职位要求: 要求: 1、本科及以上学历,3年以上相关工作经验; 2、熟悉大数据系统,熟练掌握Hadoop生态并有深入实践经验。有Greenplum实际经验者优先; 3、熟悉主流关系型数据库如Mysql,熟悉Linux/Unix系统环境操作 4、熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 5、了解数据治理体系知识,具有数据治理建设相关数据标准管理、元数据管理、数据质量管理等建设经验; 6、良好的沟通和团队协作能力,以及抗压能力,对性能优化有**的追求者优先;