• 15k-22k·15薪 经验1-3年 / 本科
    金融 / 上市公司 / 2000人以上
    1. 计算机相关基础知识,算法基础扎实 2. 熟悉linux相关日常操作 3. 熟悉Golang语言后端web开发,使用过至少一种go web框架,熟悉python加分 4. 熟悉mysql,redis, kafka,mongo等相关后端开发组件 5. 具有高度的责任感,工作积极主动、学习能力强 工作内容: 1. 计算机相关专业,1到3年工作经验,本科及其以上学历,985/211高校毕业优先 2. 负责公司核心风控,机构路由决策相关系统开发 3. 负责线上高性能高并发核心站点的开发与设计
  • 25k-45k·15薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 500-2000人
    工作职责: 1、负责人力资源领域的数据开发工作,进行数据仓库搭建、建模设计、数据ETL、数据安全、性能优化等相关技术工作 2、结合人力资源领域业务特点,进行指标/标签体系的搭建,为公司管理者、各业务线的日常管理提供数据支撑 任职资格: 1、计算机或相关专业本科及以上学历,三年以上数据产品开发经验 2、具备数据产品技术架构设计能力,有数据可视化以及多维度分析平台的构建经验 3、熟悉Hadoop、Hbase、Hive、Spark、Kafka、Flink、StarRocks等大数据技术,具备复杂SQL性能调优经验 4、有一定Java后端开发经验,熟悉Linux/Unix开发环境 5、具备扎实的数仓建模理论,并能结合业务特点合理运用理论构建高效稳定的业务数仓 6、有to B领域(人力资源,协同、财务、行政等)的数据工作经验优先
  • 3k-5k 经验在校/应届 / 本科
    电商,企业服务 / 不需要融资 / 150-500人
    岗位描述: 1、理解业务场景,深入挖掘和分析海量数据,得出重要的业务结论; 2、合理地将分析、模型结果展示输出,包括不仅限于分析报告、可视化工具等 ; 3、提供封装成脚本或服务的算法模型,与其他业务模块对接集成。 岗位要求: 1.***本科及以上学历,计算机、数学、统计学等相关专业,有数理统计理论基础; 2. 熟练掌握Python开发语言,熟练掌握数据库及sql,熟悉Numpy,Pandas,Matplotlib,Pytorch,Tensorflow等框架者优先; 3. 熟练掌握机器学习相关模型算法(决策树,多元回归,聚类等); 4 具备一定的开发能力,熟悉shell命令/爬虫/docker/git等工具者优先; 5. 具备较强的逻辑分析能力及良好的团队合作能力。
  • 25k-50k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动相关产品线(抖音、头条等)风控方向的数据产品开发; 2、负责数据质量,数据安全,元数据的监控,整合; 3、面向超大规模数据问题,每天处理千亿增量的用户数据; 4、设计和实现高并发关键数据服务,用数据衡量产品并驱动产品演进。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力; 2、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 3、熟悉Kafka/Flink/Redis/Clickhouse/ES等实时计算引擎的开发和使用优先; 4、有大规模实时数据平台落地经验者优先; 5、有图数据库和大规模图计算经验者优先。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1. 负责抖音直播业务的离线与实时数据仓库的构建; 2. 负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3. 负责指标体系建设与维护; 4. 深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 5. 参与大数据应用规划,为数据产品、挖掘团队提供应用指导; 6. 参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1. 熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2. 熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 3. 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
  • 10k-18k·13薪 经验不限 / 本科
    信息安全 / 不需要融资 / 50-150人
    岗位职责: 1、负责依据法律法规标准要求,制定数据进行分类分级标准; 2、负责数据治理、数据安全相关管理办法的制订; 3、针对数据全生命周期开展数据安全风险评估,发现信息系统数据安全风险; 4、借助产品推动数据安全治理,包括数据脱敏、数据加密、隐私计算等; 5、负责数据资产管理,将新增数据和数据接口进行汇总和统计,形成数据资产目录清单和数据接口清单。 知识技能: 1、了解国家数据安全相关法律法规和标准等,例如数据安全法、个人信息保**; 2、了解常见数据安全风险、数据保护技术、数据生命周期管理标准及规范; 3、了解数据安全主流技术,如数据加密、数据脱敏等。 个人素质: 具有较好的综合素质,良好的沟通能力,工作认真细致,责任心强。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
  • 13k-16k 经验5-10年 / 本科
    数据服务 / 上市公司 / 500-2000人
    岗位职责: 1、负责数据治理规划制定; 2、负责数据治理方案的制定及就落; 3、负责建立数据治理的工作流程和标准; 4、负责数据数据资产梳理、数据质量管理、元数据管理、数据标准管理、数据指标管理等工作领域相关工作的开展。 任职要求: 1、有银行从业经验,多个项目的数据治理经验,数据治理相关经验6年以上; 2、熟悉数据治理领域相关知识,能独立开展数据治理各项工作并指导业务和科技人员开展数据治理工作; 3、熟悉银行业务领域产品和工作流程,熟悉银行数据治理组织架构、流程、方法、平台等; 4、有数据治理相关证书优先,如cdmp、cdga、cdgp等证书。 5、工作认真负责,做事耐心细心,有良好的沟通能力及理解能力,对数据治理工作有独立思考的能力,并能提出有建设性意见。
  • 15k-20k·14薪 经验3-5年 / 本科
    新零售 / 不需要融资 / 500-2000人
    岗位职责: 1、负责或指导数据治理项目实施,建立数据治理体系规划、流程制度编制和各模块实施(如元数据管理、主数据管理、数据质量管理、数据架构及数据模型管理、数据标准管理、数据安全管理等); 2、负责数据标准的制订和发布,组织推动数据标准的落地实施; 3、负责数据应用及管理类需求的分析和评估,对数据情况进行调研、分析,提供数据管理解决方案; 4、负责内外部相关数据工作的组织和推动, 协助数据治理项目中的交流协调工作。 任职要求: 1、在数据领域(数据治理、数据指标、数据标准、数据可视化、数据架构、元数据、数据质量管理、大数据应用等)相关咨询或实施工作经验3年以上; 2、有较强的问题解决能力和业务理解能力,对结果负责的态度,严谨的逻辑以及创造性的思维提炼出方案,并能有效执行; 3、积极热情、沟通能力强,有强烈的责任心,具有良好的团队合作精神和敬业精神。
  • 7k-10k·13薪 经验1-3年 / 本科
    IT技术服务|咨询 / 未融资 / 150-500人
    任职要求: 1、本科,计算机科学、信息管理、数据科学等专业; 2、熟悉数据库管理系统(DBMS)、数据仓库、ETL工具(kettle)等数据管理和数据处理技术; 3、具有一定的数据分析能力,能够使用数据分析工具和编程语言(如SQL、Python、R等)进行数据处理和分析; 4、了解数据治理的基本原则和方法,熟悉数据治理的关键概念和流程; 5、具备良好的沟通和协作能力,问题解决能力; 6、具备持续学习的意愿和能力,能够跟进和适应不断发展的数据治理技术和***实践。 岗位职责: 1、数据采集、清洗和转换; 2、协助数据项目经理,编写数据治理方案; 3、数据分析任务,如基本统计分析、数据关联分析等; 4、使用数据分析工具和编程语言,如SQL、Python或R,编写脚本或查询来提取和处理数据,撰写分析报告; 5、监控和维护数据质量,识别和纠正数据质量问题; 6、收集和维护数据的元数据信息,包括数据来源、定义、格式、用途等。 薪酬福利: 1、薪酬:基本工资、绩效工资、年终奖金、餐费补贴、通讯费补助等; 2、福利:年度季度嘉奖、六险一金、带薪年假、旅游拓展等丰富企业文化活动; 3、假期规定:公司提供按国家标准的有薪假期,法定节假日、年休假、婚假、产假等假期; 4、培训:公司重视员工个人发展,不定期为员工组织内部各项专业技能培训,公费外送培训。 5、员工活动:不定期举行郊游、文娱活动、公司旅游、公司年会等活动; 6、节日慰问:公司在端午节、中秋节、春节等传统重大节日为员工发放节日礼品; 7、办公环境:优雅、干净、整洁的办公环境,轻松、愉快的工作氛围。 8、其他:周末双休,7.5小时/天工作制,食堂、免费班车等。
  • 20k-40k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    工作职责: 1、充分理解业务需求及痛点,利用数据挖掘、数据分析、机器学习等技术挖掘业务价值,解决业务需求; 2、负责风控、定价等板块具体的数据挖掘项目,包括但不限于数据加工、数据分析、特征工程、构建模型等工作,并就对应项目阶段性成果进行汇报与分享,为业务发展提供支持; 3、参与构建用户全生命周期营销管理,构建以用户运营为核心的高质量的标签体系; 4、与业务团队构建良好的合作关系,积极沟通交流,推动合作项目成功。 任职资格: 1、3年以上数据分析/数据挖掘/机器学习等相关领域经验;**本科或以上学历;熟悉保险业务优先考虑; 2、熟练使用Python/Scala/Java中一门或多门语言;熟悉Spark/Hadoop/Hive等大数据处理技术,有阿里大数据生态Maxcompute、Dataworks、PAI项目经验的优先考虑;熟练使用Sql进行数据处理; 3、熟悉机器学习基本理论、数据分析常用方法论等相关理论知识,了解概率论与统计学基础; 4、有多类数据挖掘项目的实施落地经验,全链路打通并工程化部署,且能不断优化,进而产生业务效果; 5、自我驱动,能主动深入了解业务,适应业务变化;有良好的个人表达和组织沟通能力,推进项目开展。
  • 15k-25k·15薪 经验3-5年 / 本科
    其他,金融 / 不需要融资 / 2000人以上
    岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等;    技能要求: 1.计算机相关专业本科及以上学历 ;  2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构;  4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
  • 10k-20k 经验不限 / 不限
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责网络基础业务的数据开发、数仓建模工作; 2、负责网络基础业务的数据分析、挖掘工作; 3、参与网络基础数据治理工作,提升数据易用性与数据质量; 4、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、本科及以上学历,计算机、通信、统计、数学等相关专业; 2、熟悉 Hive/Spark/Flink 等分布式计算框架,熟悉大数据的离线和实时处理技术; 3、熟悉常用的数据建模理论,可独立把控数据仓库的各层级设计; 4、有丰富的数据开发经验,对数据处理、数据建模、数据治理等有深刻认识和实战经验; 5、具有优秀的逻辑思维能力、很强的数据分析和解决问题能力; 6、有数据中心网络业务背景者优先。
  • 30k-45k·14薪 经验5-10年 / 本科
    移动互联网,广告营销 / 上市公司 / 2000人以上
    工作职责: 负责搜狐视频商业化的数据平台建设工作,包括: 1.负责数据平台、数据治理系统设计与搭建; 2.负责数据仓库建设、ETL开发、工作流任务优化以及解决相关技术问题; 3.负责行为日志、推荐策略和商业广告数据业务需求对接、数据分析与任务开发。 职位要求: 1.**本科及以上学历,计算机或相关专业优先;3年以上大数据开发、数据分析与处理经验,熟悉互联网产品运营和商业业务; 2.精通Scala/Java语言开发,熟悉Shell、Python等脚本开发,熟悉Linux系统; 3.熟悉大数据生态,精通Hadoop、Kafka、Spark、Flink技术,完成离线或实时大数据仓库设计与开发; 4.掌握数据建模理论,精通SQL开发与性能调优,熟练使用Hive、Doris等数据库组件; 5.有大型数据平台实际建设经验,在数据采集、数据开发、数据分析、数据建模等方面有深刻认识和实践经验; 6.有复杂业务系统的抽象设计能力,能独立对接业务需求和解决业务与技术问题; 7.具有良好的逻辑思维、表达和沟通能力,具备良好的团队合作精神,有较强的承压能力和工作责任心。
  • 15k-20k 经验3-5年 / 本科
    企业服务,工具 / 未融资 / 500-2000人
    岗位职责 1、负责Finereport报表开发; 2、负责Finereport与外部系统的接口交互开发; 3、依据开发详细设计,负责数据仓库报表设计,报表设计代码开发; 4、负责帆软PC端、移动端报表产品的开发、调优、测试与上线、发版工作; 5、配合上级进行技术决策,进行技术风险评估,确保报表产品稳定性强、响应性能优秀、用户体验友好; 任职条件 1、计算机、电子信息学科相关专业,大学本科及以上学历;5年以上帆软报表开发经验; 2、精通Fine Report,FineBI产品设计,熟悉帆软报表产品的性能调优,有移动端报表开发经验和有FCRP证书者优先; 3、熟练运用ETL工具,了解各种ETL工具的优缺点,依据需求合理选择ETL工具; 4、具有报表平台以及服务器的运维技能; 5、熟练使用SqlServer,MySql等关系数据库,有SQL优化经验,会编写复杂的存储过程和自定义方法; 6、逻辑思维能力较强,具有良好的学习能力、团队协作能力和沟通能力; 7、能够积极创新,乐于面对挑战,负责敬业,具有高度的责任心及团队精神,执行力强; 8、有软件开发经验优先;