• 文娱丨内容 / D轮及以上 / 2000人以上
    职位职责:1、负责字节跳动所有产品线(抖音、头条等)风控方向的数据流和相关数据服务;2、面向超大规模数据问题,每天处理千亿增量的用户行为数据;3、负责超大量流式数据的实时传递、清洗、转换、计算、查询,建设风控实时数仓;4、负责相同数据集的批处理功能。职位要求:1、有至少TB以上级大数据处理经验,较强编码能力,具备生产系统快速 trouble-shooting 的经验和能力;2、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Flink, Clickhouse, Hadoop, Mapreduce, Hive, Storm, Spark, Druid, Kafka, Hbase,ES等;3、对开源社区有过贡献者优先,请在简历上说明。
  • 25k-50k·17薪 经验3-5年 / 本科
    游戏 / C轮 / 50-150人
    工作职责: 负责推荐、风控、用户增长等业务的实时数据仓库的开发与优化; 负责实时指标计算的数据建模、架构设计与开发; 与业务方合作,深入业务解决问题。 职位要求: 2年以上相关工作经验,理解分布式系统基本技术和原理,有深入跟踪问题,解决问题的能力; 至少精通一种Java/Scala/C++程序开发; 熟悉一种脚本语言,熟悉Linux/Unix开发环境; 有大规模分布式系统开发、维护经验,有故障处理能力; 熟悉Flink/Spark,有大规模实时数仓落地经验者优先。
  • 25k-35k 经验3-5年 / 本科
    金融 / 未融资 / 50-150人
    岗位职责: 1、负责公司实时数仓的设计和构建 2、负责公司实时基础平台的架构设计、实施和优化 3、负责大数据核心业务实时需求的开发和实时作业的优化 4、参与数据平台的监控、维护和优化 任职要求: 1、3年以上工作经验 2、熟练使用java,扎实的java开发基础,熟悉JVM与多线程,能够排查和解决相关问题,进行程序调优 3、熟悉Flink流计算框架,有过实时项目经验,熟悉Flink内部运行机制,可熟练使用DataStream API ,Table API 等进行任务开发 4、熟练使用kafka等消息队列,了解底层机制,了解调优手段,善于通过消息队列解决业务问题 5、精通大数据实时采集框架,包括不限于canal,maxwell等,有过大规模实时采集开发经验,熟悉运行原理,熟悉调优手段,具备对开源框架进行定制化开发的能力 6、熟悉CDH、HDP等大数据平台,熟悉Hadoop、Hive、Sqoop等基础组件 7、扎实的sql编写能力,熟练使用flink-sql 8、熟悉mysql、redis、mongodb、hbase、elasticsearch、clickhouse等多种关系型与非关系型数据库,并有一定使用和调优经验 9、熟悉SpringBoot/SpringCloud工具集,熟练进行RESTful风格接口开发加分
  • 40k-60k·16薪 经验3-5年 / 本科
    电商,移动互联网 / 上市公司 / 2000人以上
    岗位职责 1.负责本地零售与仓配业务相关基础数据的建设,包括数据埋点的设置,数据仓库的建立和维护,报表的开发,业务系统的数据开发等; 2.负责保证数据的正确性和丰富性; 3.负责开发实时数据和离线数据,推动全链路的线上化和数字化。 任职要求 1、良好的SQL能力,从事过数据仓库开发和业务分析等相关工作; 2、熟悉互联网公司数据模型、数据标准,具备电商数据集市建设经验和数据治理经验; 3、认真负责,有较强的执行力,书面表达能力,积极而有效的沟通;良好的适应能力。
  • 15k-25k 经验3-5年 / 本科
    物流|运输 / 上市公司 / 2000人以上
    岗位职责:1.负责网格仓项目全面管理,对省区内网格仓项目各指标负责; 2.负责省区新开仓,新项目承接并追踪; 3.负责省区已开仓项目全链路运营管理,提出合理化建议和规划; 4.对省区物资管理、质控管理、客服管理全面负责; 5.负责省区团队搭建及赋能;
  • 30k-50k·14薪 经验3-5年 / 本科
    内容社区,音频|视频媒体 / 上市公司 / 500-2000人
    职位描述1、数仓例行计算,保证数据产出。能对在例行的任务提出可实行的优化建议。2、维护数仓之上产品,BI/DMP/数据分析平台/元数据等正常运行,并参与数据中台的搭建职位要求1、精通分布式文件系统hdfs常用命令以及底层原理。2、yarn,datax,sqoop,hbase 等hadoop生态常用工具3、精通数仓常用计算引擎,hive/spark/kylin/impala 至少两种以上。4、精通常用数据库3种以上。mysql/redis/hbase/es5、对数仓之上的衍生产品(例:BI,DMP,数据分析平台,监控平台,调度平台等)有丰富经验,有过大厂经验最好。6、熟悉linux常用命令,熟悉至少一种脚本语言。shell/python7、熟悉实时计算引擎,sparkstreaming/flink。8、对自己使用过的组件看过源码者优先考虑。
  • 文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、负责大数据研发平台,大数据存储计算引擎的产品设计、规划和落地; 2、调研各行业客户需求,根据客户需求提炼产品设计及行业解决方案; 3、完成产品的商业化发布流程,支持解决方案、运营、销售团队完成营销目标; 4、组织和推动产品与研发团队的协同工作。 职位要求: 1、扎实的数据平台、数据产品设计或者开发基础,3年以上相关工作经验; 2、对大数据平台、存储计算引擎、云计算、数据仓库、数据挖掘等领域有技术经验者优先; 3、熟悉PostgreSQL、Clickhouse、Doris、MapReduce等技术、协议或相关平台者优先; 4、熟悉数据湖,Alluxio分布式缓存,AWS Lake Formation湖构建等,有相关技术经验者优先; 5、具备金融、政务、互联网或者企业服务相关领域经验者优先; 6、较强产品Ownership意识,良好自我管理能力及环境适应能力和执行力,在大压力下保持工作激情; 7、善于沟通,有较强的的跨团队协作能力。
  • 20k-40k 经验3-5年 / 本科
    消费生活 / 上市公司 / 2000人以上
    ● 建设快驴数据仓库,开发优化数据模型,支持业务方的数据需求; ● 梳理业务系统和操作流程,提高数据生产质量; ● 建设数据服务,支持业务系统的数据需求; ● 数据治理、保证数据准确性、一致性; ● 数据分析与挖掘,发现数据中的价值; ● 指导团队新同学。 岗位基本要求: ● 3年以上数据开发经验,精通SQL、了解数据仓库建模理论; ● 熟悉大数据生态技术,如Hadoop/Hive/Spark等,了解大数据下的性能优化; ● 对数据敏感,有较强数据分析和解决问题能力; ● 积极沟通,工作主动,愿意尝试新的技术、业务领域。 加分项: ● 有多主题域数据建模经验; ● 熟悉统计原理,有数据挖掘经验; ● 有团队管理经验; ● 了解数据治理和多维数据分析; ● 有供应链、财务方向的数据建模经验。
  • 金融 / 上市公司 / 2000人以上
    岗位职责: 1、负责数据仓库的重构设计及开发,可能包括但不限于离线数仓、实时数仓开发,提供高质、易用、面向业务的数据服务; 2、负责风险数据建设与效果评估,可能包括但不限于:特征清洗,贷后风险预测,人群坏账回溯对比; 3、负责业务数据深度分析,可能包括但不限于:业务盈利,获客增长点,业务健康度分析; 4、基于业务分析反推异常业务逻辑得以优化及改善; 5、全盘考虑数据资产管理与治理策略,低成本提供高质服务; 岗位要求: 1、大学本科及以上学历,5年及以上相关工作经验; 2、掌握基于hadoop或hbase等大数据平台工具的开发与设计,熟悉SQL开发与优化,有实时flink应用经验与starrocks应用经验者优先; 3、有完整业务数据仓库架构设计与开发经验,数据业务分析等工作工作经验,风控数仓与金融数仓经验者优先; 4、具有良好的沟通能力和团队协作精神,有较强的数据处理和分析能力。
  • 30k-60k 经验3-5年 / 本科
    消费生活 / 上市公司 / 2000人以上
    岗位职责: 1.参与到店离线及实时数据模型设计、开发、优化、应用等工作。 2.深入理解业务数据,分析用户需求,能够从用户角度推动业务发展。 3.联合产品、商分等协作组织,高质高效交付业务需求,并提供技术改进意见。 岗位基本要求: 职级L7 1.计算机或相关专业本科及以上学历,4年以上大数据开发经验。 2.掌握数据仓库体系架构理论,精通数据仓库模型设计,具备数据治理实战经验。3.掌握Hadoop、Spark、Hive、Flink、Doris等离线和实时计算流程和原理,并有实际开发经验,有较强的调优能力。 4.熟练掌握Mysql等RDB和Hive的开发能力,精通HQL、SQL,熟悉Hadoop/Map-Reduce/MPI分布式计算框架。 5.良好的团队合作精神和协调沟通能力,积极主动,认真踏实的工作态度,有与产品、商分、前端、后端等多方密切配合的经验和意识。6.思维清晰,条理性强,主动性强,有较强的逻辑分析能力。 具备以下优先: 1.有过大型业务数据仓库、数据建模、分析应用等实战者优先。 2.有实时数仓实际开发、优化经验者优先。 3.较强的数据敏感度,对海量数据处理有强烈热情,研究过优秀开源软件的源码(Hadoop相关)并有心得者优先。 岗位亮点: 到店业务是国内头部的本地生活服务零售商,涵盖餐、综、酒旅等多个业务,本岗位可以接触到国内最海量最复杂的业务数据处理,也会涉及到非常多的业务复杂度和技术复杂度,是非常难得的机遇和挑战。
  • 40k-50k·14薪 经验5-10年 / 本科
    电商平台 / D轮及以上 / 500-2000人
    工作职责 1. 匹配业务诉求,完成数据仓库架构设计和建设标准规范的制定; 2. 负责业务场景化的数据体系构建,赋能业务数字化运营,保障数据的质量和数据生产的稳定性; 3. 负责带领数仓团队,基于大数据技术平台基础上完成各个主题域的规划、设计与开发,包括数据模型设计、离线/实时计算、性能优化以及相关的技术问题的解决; 4. 负责数据质量、稳定性、数据资产管理等数据治理工作,构建全链路数据质量监控治理体系; 5. 参与数据产品的需求沟通、架构设计、数据开发以及系统优化。 岗位要求 1. 本科及以上学历,具备5年以上的数据建模和数据架构管理经验; 2. 有数据开发团队管理经验,扎实的代码编程能力,熟悉常见的设计模式,熟练使用 Java、Scala、Python 等至少一种语言; 3. 熟练掌握 Hadoop 生态,包括但不限于 Hive、Spark、Flink 等一种或几种大数据计算框架,熟练掌握 hive sql使用以及 sql 优化,精通 ETL 任务开发; 4. 熟悉数仓原理,精通数仓分层架构,精通维度建模方法,有实时数仓、离线数仓设计和开发经验; 5. 责任心强,良好的沟通和抗压能力;
  • 18k-32k 经验不限 / 不限
    软件开发,物联网 / 不需要融资 / 50-150人
    【招聘说明】 ★岗位提供全职与承揽用工模式,关于2种模式的内容差异,详情可见招聘广告信息 ★面试人员在应聘时有权与公司沟通和协商决定合适的用工模式 【岗位/项目内容比重】 ★管理工作(管理决策、组织协调):10% ★专业技能工作(开发创作、优化升级):60% ★事务性工作(项目督办、系统维护、资料处理、会务参与、技术服务、业务沟通):30% 【岗位/项目工作内容】 1、负责数据仓库的建设,包括数仓以及相关数据应用的数据模型开发。 2、负责数据治理,包括数据质量监控和管理、ETL任务性能优化、元数据管理等。 3、参与离线数据或实时数据的架构开发,能够独立运用技术解决实际业务问题。 4、及时响应用户提出的需求及问题,并做出判断,提供解决方案思路。 5、跟进项目的后期维护升级,版本迭代更新。 6、按时按质完成上级下达的任务,如有延期情况,应及时反馈,并说明原因。 7、完成日常职责范围内的工作。 【岗位/合作要求条件】 1、计算机/数学相关专业,有3年以上的数据仓库建设、数据治理经验。 2、根据项目完成Hive-sql的编写并推动优化,具备开发技能,有并行计算项目开发经验。 3、具备较强的实时数仓架构能力,熟练掌握Spark、Flink、Kafka、Hadoop、HBase 等相关大数据技术。 4、对实时数仓建模理论有深层次的理解,有能力自行分析业务数据,独立完成数据仓库模型设计。 5、具有良好的学习能力、沟通技能,有较强的团队合作精神和责任心。 6、具备较强的逻辑思维,具有独立承担模块分析、设计开发的能力。 7、学习能力强,有创造性思维能力,有较强分析和解决问题的能力。 8、具备项目管理能力和强大的执行能力,能够协调跨部门的合作。 【岗位/合作服务时间】 ★全职: 星期一&六 8:00-15:30(含早餐与午餐时间1.5小时) 星期二至五 8:00-17:30(含早餐与午餐时间1.5小时) ★承揽: 视服务内容需要协商安排 【岗位薪酬/合作服务费用】 ★全职岗位薪酬: 考核期两个月:18288-32688元/月(包含:日勤奖、交通补贴、话费补贴、就餐补贴等,合计超过858元)。 考核期通过后:按照部门薪酬制度执行。 ★承揽服务费用: 16130-30530元/月 【福利待遇/项目收益】 ★全职:五险一金、年终奖、团体意外伤害险、综合健康保险、年度旅游、年度体检、带薪年假、结婚礼金、生育礼金、佳节礼金、季度活动经费、生日礼金、新年利是、丧事奠仪(直属亲属)慰问金、交通补贴、话费补贴、就餐补贴、日勤奖、早班补贴和提供内部培训机会等 ★承揽:双方达成意向后,以项目承揽方式合作,服务待遇以承揽人员的相关协议条例为准 【晋升/发展方向】 ★全职:编程工程师--编程研究员 ★承揽:项目合作伙伴 【面试流程】 ★简历筛选-- 一轮面试(线上技术面试)--二轮复试体验--人事面试--合作手续办理
  • 15k-25k·15薪 经验1-3年 / 本科
    消费生活 / B轮 / 2000人以上
    职位信息 1.负责丰巢数据仓库整体架构设计,为上层应用提供优质的数据 2. 制定数据仓库的数据质量全流程的监控告警规范,并实施落实 3. 对数仓数据指标进行全面治理,提供统一规范的透出 4. 对数据进行合理分层,设计、开发和优化高效的ETL任务体系 5. 指导团队成员,进行指标设计和梳理,优化数据地图和数据字典 6. 探索新型的数据仓库设计,包括实时数据仓库和动态多维分析系统 任职要求 1. 计算机、统计学,应用数学等相关专业,本科以上学历 ,3年左右工作经验。 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通数据范式和多维数据模型 设计 3. 有丰富的“数据治理实施经验”,“数据治理实施经验”,“数据治理实施经验”,对数据质量保障体系有深刻理解 4. 精通SQL,有ETL能力, 熟悉常见的ETL工具和大数据平台,能灵活使用 5.了解Kylin或Druid等开源项目,有实时数仓和动态多维数仓的构建经验 6. 对数据敏感,有较强的逻辑分析能力,良好的团队协作,乐于沟通交流和分享
  • 20k-30k·15薪 经验3-5年 / 本科
    教育 / 不需要融资 / 2000人以上
    工作职责: - 对接并梳理业务需求,设计相关主题的事实表和维度表等; - 负责数据产品建设,如服务数据平台的数据计算; - 参与全链路数据开发,包括日志埋点、数据同步、数据模型设计、离线数据和实时数据开发、数据治理等工作; - 参与数据化运营,提供数据解决方案,支持业务决策、提升供应链效能和用户体验、驱动业务增长。 职位要求: - 理工科背景,本科以上学历, 有扎实的数理基础、计算机科学功底; - 熟悉数据仓库模型,有2年以上实时数仓或实时计算模块开发经验; - 精通Hive编程、掌握Python/Scala/Java等开发语言一种以上,熟悉Linux系统及常规shell命令; - 掌握大数据技术栈,包括Hadoop/Spark/Kafka/Flink/ES/Hbase/OLAP引擎等其中几种技术,熟悉Flink并有实时数仓开发经验者优先; - 需求理解能力强,拥有良好的分析和技术能力,并具备解决问题的能力; - 逻辑清晰,充满热情,良好的团队合作和沟通能力,良好的业务Sense;
  • 18k-25k 经验不限 / 本科
    电商平台 / A轮 / 500-2000人
    工作职责: 1.负责大数据平台数据仓库公共模型和指标体系开发工作; 2.负责离线数仓、实时数仓和BI报表的设计和开发; 3.负责数仓的稳定性和性能优化,定位和解决线上疑难杂症,保障数据服务的高可用; 4.协助业务排查数据和定位问题,解决业务遇到的各种问题; 5.与上游系统研发及下游应用沟通协作、完成各类模型需求落地。 任职资格: 1.本科及以上学历,计算机、数学等相关专业,5年及以上大数据领域工作经验; 2.掌握常用的数据建模理论、数仓分层体系架构、模型设计、元数据管理及数据质量管理; 3.熟练掌握hivesql,sparksql,flinksql的使用及sql优化; 4.熟悉Hadoop生态相关技术的使用和原理,如Kafka、Hive、Hbase、Spark、Flink等; 5.了解数据知识体系,对数据资产、数据生命周期、数据质量管控有相关经验; 6.具备责任心强,良好的沟通,及良好的抗压能力; 7.有大型互联网数据中台项目者优先,具有数据治理实践经验优先。