-
工作内容 职位描述: 1.参与大数据平台数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2.参与数据仓库模型的ETL实施,ETL性能优化、技术攻关等。 3.参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4.参与平台标签体系、数据产品与应用的数据研发,发掘数据价值,以数据驱动业务不断发展。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-3年工作经验,具备极强的问题解决能力。 2. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 3. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型;熟练掌握SQL/HQL/Spark SQL开发及优化技能,快速ETL实施能力,对SLA有较深刻的认识及强烈的责任心。 4. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink,DataWorks等大数据工具应用和开发经验。 5. 掌握Java, Python等至少一门语言,有MapReduce项目开发经验,熟悉Azkaban等任务调度工具。 6. 熟练使用git,有多人项目合作开发经验。 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。
-
工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
-
工作职责: 1、负责保险数据中台整体架构设计与优化,负责主导数据中台/数据仓库/数据集市的模型架构设计; 2、构建数据治理体系,包括制定数据标准管理规范,元数据管理,主数据、数据质量监控等数据管理工作; 3、负责团队内数据建模方法体系的构建和理论指导、能够带领团队提高技术水平,培养团队人才; 4、理解并合理抽象业务需求,发挥数据价值,带领团队完成数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作。 任职资格: 1、**本科及以上学历,5年以上数据中台/数据仓库/数据平台相关经验,具备乙方或者大型实体企业内部的数据建模项目经验; 2、具备数据仓库和数据建模能力,熟悉建模理论与方法、维度建模、不同行业的模型主题域,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等; 3、具有数据仓库建模经验,熟悉IBM和teradata的FS-LDM的建模方法,并有金融企业数据中台/数据仓库建模实际落地经验; 4、个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责; 5、熟悉大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,对常见数仓技术体系:Kylin,Doris,Clickhouse,Hive,Spark,Flink,Kafka等,有一定实际研发经验。 6、具有良好的沟通能力和抗压能力,有项目协调/团队管理的经验。 加分项: 1、熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程; 2、熟悉保险行业相关业务,具备项目协调/团队管理的经验; 3、有阿里大数据生态Maxcompute、dataworks项目经验;
-
工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
-
职位职责: ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:我们为抖音电商、直播、教育、健康、内容付费等场景服务,依托字节跳动的科技能力和产品,为用户提供更好的支付、消费金融、保险等金融服务体验。科技创新,普惠大众。 1、理解业务数据需求,负责数据探查、开发与分析、设计和构建对应业务的数据集市; 2、负责ETL流程的开发和优化工作,解决业务数据分析、数据报表、数据异常相关的技术问题; 3、负责主题数据质量问题的分析、跟进、解决。 职位要求: 1、2026届本科及以上学历在读,计算机/数学/统计学等相关专业优先; 2、熟悉Hadoop、Hive、Spark等常用大数据组件,有大数据处理经验者优先考虑; 3、灵活运用SQL实现海量数据ETL加工处理 ,有较好的SQL性能调优经验; 4、有良好的逻辑思维与沟通能力,具有高度的责任感,工作认真、踏实; 5、有良好的沟通表达能力和跨团队协作能力优先。
-
职位职责: 日常实习:面向全体在校生,为符合岗位要求的同学提供为期3个月及以上的项目实践机会。 团队介绍:我们为抖音电商、直播、教育、健康、内容付费等场景服务,依托字节跳动的科技能力和产品,为用户提供更好的支付、消费金融、保险等金融服务体验。科技创新,普惠大众。 1. 理解业务数据需求,负责数据探查、开发与分析、设计和构建对应业务的数据集市; 2. 负责ETL流程的开发和优化工作,解决业务数据分析、数据报表、数据异常相关的技术问题; 3. 负责主题数据质量问题的分析、跟进、解决。 职位要求: 1. 熟悉hadoop、hive、spark等常用大数据组件,有大数据处理经验者优先考虑; 2. 灵活运用SQL实现海量数据ETL加工处理 ,有较好的SQL性能调优经验; 3. 有良好的逻辑思维与沟通能力,具有高度的责任感,工作认真、踏实; 4. 有良好的沟通表达能力和跨团队协作能力优先; 5. 每周实习4天以上,实习周期不短于3个月。
-
职位职责: 1、负责设计、开发和维护各类报表(包括常规报表和大屏报表),确保报表数据的准确性和及时性。 2、运用Power BI、FineBI等工具实现数据的直观可视化展示,提升业务部门的数据使用体验。 3、能够独立解决报表相关的问题,并持续优化报表设计。 4、根据业务需求,进行数据的统计与提取,熟练使用数据库查询和数据分析工具(如SQL、Power Query等)。 5、从数据中挖掘有价值的信息,为业务决策提供数据支持。 6、熟悉数据清洗、转换和加载(ETL)过程,能够处理复杂的数据问题。 7、具备较强的业务需求理解能力,与业务部门紧密合作,精准把握需求。 8、能快速完成分配的任务,确保数据相关工作的顺利推进。 9、提供数据驱动的解决方案,帮助业务部门提升效率和决策水平。 专业资格: 技术能力 1、精通Power BI的使用,熟悉数据加载、变换、模型设计和可视化功能,能够独立完成从数据准备到报表发布的整个流程。 2、精通DAX函数,掌握性能调优方法,能够轻松实现复杂的数据建模和计算, 3、精通SQL语言,熟练掌握开窗函数、复杂查询、存储过程、函数等,能够高效完成数据库操作。 4、参与过数据仓库或数据集市相关项目,熟悉常见数据库系统(如Hive、MySQL、Oracle、SQL Server等)。 5、了解数据库设计原则和范式理论,能够进行中等规模的数据库结构设计,熟练绘制ER图。 项目经验 1、有完整的Power BI项目经验,从需求分析到报表发布有过独立负责的经历。 2、熟悉数据可视化***实践,能够设计出用户友好、直观的报表 3、在多个项目中独立参与或者设计权限管理体系。 软技能 1、拥有良好的团队协作精神和沟通能力,能够与业务部门及其他开发人员高效对接。 2、态度积极主动,抗压能力强,能够快速学习新业务和技术
-
职责描述: 1、对上游数据进行清洗、清理、加工、转换、加载至目标数据库 2、分析源数据结构,设计数据入库规则,构建数据模型,开发实现等 3、对系统涉及到的业务知识有一定的理解,并从数据层面合理规划系统架构 4、熟练编写存储过程,能对存储过程及SQL查询进行运行性能优化处理 5、对产品进行实施与测试等相关工作 任职要求: 1.计算机、信息管理相关专业***大学本科及以上学历; 2.精通SQL语言,熟悉linux/unix基本原理和操作,熟悉主流的大数据处理架构(消息队列、Hadoop、Spark,Hbase),具备分布式系统数据处理经验; 3.3年以上在元数据管理、数据质量管理、数据标准化、数据治理、ETL、数据仓库开发、数据集市开发、前端数据可视化开发和第三方数据源管理至少2个领域的相关经验,并有项目实施经验; 4.具备较强的数据系统(数据仓库、数据集市、质量管理流程、数据报表等)开发能力和相关经验,熟悉各类结构化和非结构化数据ETL,熟悉主流的系统平台开发工具和语言; 5、了解银行/证券基础金融业务知识或者有相关项目开发经验,或者公司财务系统的开发经验优先 6、良好的沟通和逻辑思维能力,有强烈的责任心、抗压能力和良好的团队协作精神
-
职责描述: 负责数据采集、数据模型设计和 ETL 设计、开发和文档编写; 负责离线/实时数据同步和清洗; 负责分析和解释产品试验,为公司数据清洗产品改进、推广试验等提供数据支持; 负责建立数据清洗规则,为数据治理项目的实施落地提供支撑。 任职要求: 本科及以上学历(***公办本科大学,学历可在学信网验证),计算机相关专业,2年以上相关工作经验,有医疗或教育领域数据治理经验者优先; 1-2年的数据ODS、数据集市、数据仓库等数据类项目实施开发经验; 熟悉oralce、db2或mysql等常用数据库; 熟悉使用taskctl、control-m、datastage或kettle等常用一种etl工具; 熟悉使用Shell、Python或Perl等常用脚本开发语言; 熟悉使用shell脚本及Linux命令; 良好的沟通、理解能力,工作细致、耐心、负责。
-
1、参与或负责数仓规划、数据研发规范、数据质量及稳定性保障建设; 2、参与或负责数据指标的管理(确定业务口径/技术口径)和数据模型的设计 (按分层模的方式把数据更加科学的组织存储); 3、根据公司自有产品负责数据仓库架构设计、ETL开发、数据验证、发布部署、运维等,构建易维护、可扩展的数据仓库公共模型,数据集市等,支持B1分析、数据挖掘和上层应用; 4、负责数据仓库ETL流程的优化及解决ETL相关技术问题; 5、负责参与相关数据方面的技术材料文档。 任职要求: 1、从事数据仓库或挖掘领域至少3年以上,熟悉数据仓库模型设计与ETL开发经验,掌握维度建模设计方法,具备海量数据处理经验; 2、熟悉数据仓库相关技术,如:需求分析、需求调研、数据分析、数据建模、ETL等; 3、熟悉数据库技术,熟练运用SQL及其他语言,能高效的与业务团队进行沟通; 4、有从事分布式数据存储与计算平台应用开发经验,熟练掌握et/工具,熟悉Hadoop生态相关技术并有相关实践经验者优先,如 Hdfs、MapReduce、Hive、Hbase 等; 5、良好的数据敏感度,能从数据中发现问题并解释,较强的数据、平台、技术理解能力; 6、良好的语言沟通协调能力、团队协作精神和自我驱动动力,对海量数据处理和分析有热情;
-
岗位职责: 1.参与建设统一的数据体系,持续集成相关工具产品,以及搭建大数据业务统一计算层等相关工作; 2.参与数据仓库的架构设计和研发,挖掘数据价值,建设与管理百PB级的公共数据平台和服务系统,实现高质量数据的互通与共享; 3.助力数据化运营业务,构建丰富多样的BI应用; 4.对数据采集、数据融合、数据质量、数据应用链路有深入理解,并能协助业务数据集市建设,搭建业务领域模型 任职要求: 1.数学、计算机、统计学等相关专业,5年以上相关工作经历; 2.从事数据仓库领域至少5年以上,熟悉数据仓库模型设计与ETL开发经验 ,掌握Kimball的维度建模设计方法,具备海量数据加工处理(ETL)相关经验; 3.有从事分布式数据存储与计算平台应用开发经验,熟悉Hadoop生态相关技术并有相关实践经验着优先,重点考察Hdfs、Mapreduce、Hive、Hbase; 4.有实时ETL研发经验,对分布式实时大数据处理系统有深入理解,包括但不限于Spark streaming、Flink、Storm...; 5.熟悉数据仓库领域知识和技能者优先,对数据质量管理有独到的见解; 6.具有电商行业经验,有业务sense,能够通过梳理设计业务模型发现业务问题,并驱动业务目标实现。 加分项 1.对数据挖掘和机器学习有所了解,包括常用的机器学习算法和数据建模过程的优先,并有落地的项目; 2.对Elasticsearch、Hbase、Druid、Kylin有深入理解并成功应用的大型项目
-
岗位职责: 1、负责数据类项目的需求分析及数据的提取分析,梳理业务发展对数据的需求,不断完善现有数据模型,并对现有数据结构进行扩展; 2、通过指标分析形成专题报告,对业务问题进行深入分析,为决策及执行策略提供数据支持,可依据现有数据给结论、给观点; 3、基于对业务的深入理解,提出具有前瞻性的业务见解。 任职资格: 1、**本科学历(必须是学信网可查)计算机或数学相关专业,3年左右工作经验; 2、熟练掌握数据仓库,数据集市相关数据建模技术,分层设计优化; 3、有银行项目经验,熟悉银行业务。
-
岗位职责: 1、负责数据仓库公共模型设计、开发和管理维护 2、负责数据集市宽表设计、开发和管理维护 3、负责数据仓库、数据集市等相关数据质量问题的跟进和解决 岗位要求: 1、三年以上数据模型开发/设计经验 2、熟练掌握数据建模工具(如ERwin、PowerDesigner等) 3、熟悉大数据SQL开发、Oracle存储过程开发 4、对数据和业务敏感,有较好沟通表达和文字组织能力 5、有较强责任感、团队协作意识 6、基金/资管行业经验、基金从业资格认证、PMP认证从优
-
职位描述 1、负责快手电商数据仓库的建设,构建各垂直应用的数据集市; 2、负责快手电商新产品数据统计、报表产出、效果监测、归因分析和商务支持; 3、定义并开发业务核心指标数据,负责垂直业务数据建模; 4、根据业务需求,提供大数据计算应用服务,并持续优化改进; 5、参与埋点设计、数据生产全流程等技术体系建设和保障工作; 任职要求 1、本科以上学历,两年以上大数据相关开发经验; 2、熟悉Linux平台,熟练使用Java、Python编程语言,编码基本功扎实; 3、有Hive、Kafka、Spark、Flink、HBase等两种以上两年以上使用经验; 4、熟悉数据仓库理论方法,并有实际模型设计及ETL开发经验,对于数据的架构和设计有一定的思考,具备良好的数学思维和建模思维; 5、熟悉分布式计算框架,掌握分布式计算的设计与优化能力,对Hadoop生态其他组件有一定了解,比如 HBase,Hadoop, Hive, Druid等 6、了解流式计算,熟悉至少一种实时计算引擎:Storm, Spark, Flink; 7、有很强的学习、分析和解决问题的能力,良好的团队合作意识,较强的沟通能力。 加分项: 有电商数据开发经验优先。
-
职位描述 1、负责数据中台-商业化各个业务线数据仓库建设,构建商业化垂直数据集市; 2、定义并开发业务核心指标数据,负责垂直业务数据建模,如用户画像; 3、根据具体问题,设计并实现合适的可视化展示,构建数据持续观测平台; 4、参与数据平台的搭建,优化数据处理流程具体工作; 5、数据收集,反作弊数据仓库,用户数据仓库,UGC数据仓库,审核数据仓库的研发; 6、A/B测试实时ETL研发,转化漏斗分析平台研发。 任职要求 1、有Hive,Kafka,Spark,Storm,Hbase,Flink等两种以上两年以上使用经验; 2、熟悉数据仓库建设方法和ETL相关技术,对于数据的设计有自己的思考,具备优秀的数学思维和建模思维; 3、熟练使用SQL,对类SQL有过优化经验,对数据倾斜有深度的理解。了解特征工程常用方法; 4、具备扎实的编程功底,很强的学习、分析和解决问题能力,良好的团队意识和协作精神,有较强的内外沟通能力。


