• 20k-40k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作内容 职位描述: 1.参与大数据平台数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2.参与数据仓库模型的ETL实施,ETL性能优化、技术攻关等。 3.参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4.参与平台标签体系、数据产品与应用的数据研发,发掘数据价值,以数据驱动业务不断发展。 岗位要求 任职要求: 1. 本科及以上学历,2-6年工作经验,具备极强的问题解决能力。 2. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 3. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型;熟练掌握SQL/HQL/Spark SQL开发及优化技能,快速ETL实施能力,对SLA有较深刻的认识及强烈的责任心。 4. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink,DataWorks等大数据工具应用和开发经验优先。 5. 掌握Java, Python等至少一门语言,有MapReduce项目开发经验,熟悉Azkaban等任务调度工具。 6. 熟练使用git,有多人项目合作开发经验。 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。
  • 35k-60k·15薪 经验5-10年 / 本科
    人工智能服务 / 不需要融资 / 15-50人
    岗位概述: 我们正在寻找一位经验丰富的资深数据开发工程师,加入我们的核心数据团队,负责设计、搭建并维护公司的数据基础设施。你将有机会深度参与数据调度系统、实时与离线处理架构的设计与实现,搭建企业级数据湖和数据仓库,满足公司多样化的数据需求。 岗位职责: - 数据处理链路搭建与维护:主导并持续优化数据处理链路,涵盖数据调度、实时与批处理、数据湖及数据仓库的架构设计与搭建,确保数据处理链路的高效、稳定。 - 应用数据开发:根据业务需求,负责报表系统建设、海量数据处理以及多模态大模型数据集的预处理、清洗及开发。 - 技术创新与最佳实践:结合前沿技术与最佳实践,不断优化数据开发、处理和存储的性能、稳定性与可扩展性,支持公司快速发展的业务需求。 岗位要求: - 经验要求:具备至少5年大数据ETL相关开发经验,参与过大数据处理链路的搭建、维护,拥有本科及以上学历。 - 技术精通:深入了解主流大数据技术栈,如Spark、Flink、Kafka、Hadoop、MongoDB等,能够灵活运用大数据技术处理复杂数据场景。 - 编程能力:精通Python、Java或Scala,能够编写高效、可扩展的数据处理代码。熟练使用SQL进行数据分析和建模,具备处理复杂数据流的工程能力。 - 云平台经验:熟悉主流云平台(如GCP、AWS),具有基于云架构进行数据开发的实战经验,能够设计并优化云端数据基础设施。 - 数据建模与分析:具备扎实的数据建模理论基础,拥有复杂业务场景下的数据仓库建模与优化实践经验。 - 解决问题的能力:具备强大的问题解决能力,能够快速应对并解决数据处理中的技术难题。 加分项: - 在GCP或AWS环境中有大规模数据处理项目的实战经验。 - 熟悉Kubernetes、Docker等容器化技术。 关键技能:大数据技术、Python、Java/Scala、SQL、云平台(GCP/AWS)、数据建模、数据处理链路设计与优化。
  • 20k-40k·14薪 经验3-5年 / 本科
    数据服务|咨询,人工智能服务 / A轮 / 50-150人
    岗位职责1、 深入理解客户业务需求,对数据进行抽象建模,沉淀行业数据业务模型。2、 设计并优化高质量的底层数据指标和质量体系,数据驱动业务发展。3、 提供面向业务的数据服务,并主导交通行业数据平台架构设计和开发。4、 基于统计学/机器学习算法,对政府交通相关数据进行挖掘及根因分析。岗位要求1. 熟悉数据仓库体系结构,具备数据模型和数据集市架构设计能力。2. 熟悉SQL 、UDF、Java/Python/Shell开发能力,熟悉Linux系统。3. 精通多种异构数据的采集、传输、存储、分析等整个大数据链路技术栈。4. 了解机器学习常用算法,具备自然语言处理、特征分析等方面知识及应用经验者优先5. 出色的沟通协调和客户关系处理经验,良好的合作意识和技术功底,富有感染力。6. 欢迎优秀有冲劲的年轻伙伴!公司现状:我们是余杭政府重点支持的准独角兽企业,F1级别的赛道,已经快直线起飞了。薪酬待遇:我们要求很高,但同时提供的薪酬不低于隔壁的阿里,股票期权,全额缴纳五险一金,试用期全薪,丰厚年终奖。团队情况:真·大牛带队(TL都是各自领域的权威!!!),100%本科学历,211、985院校的同学占比70%,优秀的你快到碗里来。招聘流程:流程超快,保证2天内电面,2周内走完全流程!!
  • 18k-24k 经验5-10年 / 本科
    电商,物流丨运输 / 不需要融资 / 500-2000人
    岗位要求: 1. 大学本科及以上学历,计算机或者相关专业; 2. 了解 Linux 系统,有两年以上的 Linux 系统运维经验; 3. 掌握一门以上脚本语言(Shell/Perl/Python 等),熟悉 Java 等开发语言者优先; 4. 具有配置管理、监控系统、版本管理经验; 5. 深入了解 Hadoop、HBase、Yarn、Spark、Kylin 等大数据平台技术的底层原理,有云服务相关运维经验者优先; 6. 具备较强的故障排查能力,有很好的技术敏感度和风险识别能力。 岗位职责: 1. 负责制定并推动运维规范和大数据平台的运维事宜,包括 ETL 作业、数据采集系统等后台任务的监控,例如错误提醒和性能监测; 2. 重点关注大数据平台的运维自动化、标准化和信息安全层面,例如数据异常检测、异常自动恢复、数据权限管控和安全态势预警等,研发并扩展相关工具,提高大数据平台的数据处理稳定性和安全性。
  • 28k-50k 经验10年以上 / 本科
    专业服务|咨询 / 未融资 / 50-150人
    岗位需求4个方向:数开,实时数开,数仓开发,数据平台运维开发 职责描述: 1、负责公司整个数据体系的开发和维护工作,进行需求分析、架构设计、持续交付和性能优化 2、负责离线、实时的ETL工作,为各业务提供定制化的数据支持,并优化计算任务性能; 3、负责数据模型的构建; 任职要求: 1、熟悉Java、Python,精通SQL,具有3年以上数据研发经验; 2、熟悉Hadoop、Hive、Spark、Flink、ClickHouse、Presto、Hbase等大数据组件,熟悉离线、实时数仓设计和开发; 3、对数据仓库系统架构具有良好的认知,理解数据分层、数据倾斜、错峰调度等理念,并具有相关实战经验; 4、有流批一体、湖仓一体设计经验者优先; 5、有良好的沟通和学习能力,积极主动,具有独立分析和解决问题的能力; 6、具备大数据平台架构设计经验者优先。
  • 40k-70k·15薪 经验不限 / 本科
    专业服务|咨询 / 不需要融资 / 150-500人
    参与数据平台团队而0-1的建设 数仓、数据工作流、数据模型的设计、开发、维护 跨团队提供高效可靠的数据分析系统与最佳实践 任职要求: 3+年数据仓储、数据工作流(Data pipeline)、ETL方面的研发架构经验 良好的编程风格,扎实的编程和数据结构算法基础,深入理解面向对象编程思想,具有较强的模块设计能力 熟悉分布式计算原理,熟悉高并发、高稳定性、海量数据的系统技术方案 精通分布式数据处理技术栈Hive, Presto, Hbase, Kafka, Spark, Flink 精通Python、Java、Scala(至少其一) 开发语言 精通SQL,熟练使用分析、视图工具对海量数据进行分析 具有较好的分析复杂问题和解决复杂问题的能力,有强烈的责任心和使命感,良好的沟通表达能力和团队协作能力 有Google/AWS云、Bigquery、Google Data Studio经验、有大规模实时数仓落地经验者优先
  • 数据服务|咨询,人工智能服务 / D轮及以上 / 2000人以上
    工作职责: 1. 负责餐饮行业数据产品架构的设计及优化,从系统角度规划产品矩阵结构,为客户提供一致的用户体验; 2. 保持高度行业敏感性,把握领域发展方向和动态,设计出高可用、高可靠、高可扩展性的产品架构; 3. 评估客户的定制化需求背后所关联的产品能力,对产品在业务各类场景适应性及扩展性方面提出设计思路,保证产品路线健康性和稳定性; 4. 建设大数据技术团队,持续提升大数据技术能力; 5. 关注行业市场和行业产品,调研并分析用户和市场需求,结合行业特点打造可复制且具有竞争力的数据解决方案。 任职资格: 1. 计算机相关专业,本科及以上学历,5年以上工作经验; 2. 能够把握大数据行业技术发展趋势和业务发展动向,对未来关键技术有独到见解,有客户数据平台CDP等类似经验者优先; 3. 对数据产品、业务架构有足够的敏感度和深入的理解,具有成熟的ToB产品结构化思维、较好的功能抽象提炼、复用意识; 4. 深刻理解ToB产品的商业逻辑,熟悉某一行业TOP客户的商业价值链、应用场景、设计框架及相应系统技术架构; 5. 熟悉大数据生态环境,掌握 Hadoop、Hive、Kafka、Spark、Flink、StarRocks 等大数据技术栈; 6. 熟悉数据挖掘、深度学习相关算法优先; 7. 具备优秀的逻辑思维和创新能力,极强自我驱动力、执行力及结果交付能力。
  • 35k-65k·15薪 经验5-10年 / 本科
    企业服务 / 未融资 / 500-2000人
    职位描述 1、围绕火山引擎相关数据,负责数据应用系统的架构设计,技术方案设计,技术难点攻关; 2、挑战火山引擎大数据,高并发,高稳定的业务场景,支撑业务方对于线上不同数据的各种使用场景; 3、与业务,产品紧密协作沟通,满足业务数据需求,发掘业务数据价值,提供应用指导; 4、参与数据治理工作,提升数据易用性及数据质量; 5、负责火山引擎内系统指标体系建设与维护。 职位要求 1、本科及以上学历,计算机等相关专业; 2、具有丰富的数仓建模知识,兼具离线和实时数据体系建设能力; 3、熟练掌握常见OLAP引擎,有HTAP/HSAP相关实践经验优先; 4、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
  • 28k-40k·14薪 经验10年以上 / 本科
    其他 / B轮 / 2000人以上
    职责描述 1、在深入理解业务的前提下,可以抽象业务场景和流程,搭建供业务应用和分析的数据模型; 2、负责集团多个业务线的数据集市架构设计、主题的建模以及ETL开发; 3、负责推进集团的数据标准化和数据体系化的建设,完成数据治理并沉淀完整的指标体系; 3、支撑业务的快速发展,提供数字化解决方案; 任职要求: 1、本科及以上学历,计算机,数学、统计等专业优先,3年以上团队管理经验; 2、.5年以上大数据开发经验,熟悉Hadoop组件及主流OLAP引擎的架构和特性; 3.熟练使用SQL进行数据开发,熟悉至少一种编程语言,如Java/Python等; 4.熟悉Hive、Spark、Flink等常用离线或实时计算引擎; 5.熟悉MySQL等关系数据库的使用、设计和优化; 6.熟悉Redis、MongoDB、Kafka等常用支撑组件的使用和优化; 7.熟悉数据仓库建设方法论,有供应链数据治理经验者优先。
  • 30k-60k 经验5-10年 / 本科
    企业服务,数据服务 / 不需要融资 / 2000人以上
    岗位职责: 打造业界领先的湖仓平台元数据引擎,为实现“智能驾驶”的数据平台提供核心支撑: 1.构建多源异构元数据采集、全链路实时列级血缘构建与血缘分析服务,实现全域数据可观测、可度量; 2.构建行为智能引擎,支撑对企业ETL、分析师、数据科学家的行为元数据的深度挖掘,形成元数据知识图谱,实现对企业数据资产的深度刻画; 3.为计算引擎、数据平台的优化策略提供高可用、高性能元数据服 岗位要求: 1.Java基础扎实,3年以上开发经验,熟悉Spring、Mybatis, 数据库事务、多线程、缓存技术、常见的设计模式,理解框架实现原理及核心思想; 2.有大数据平台产品研发经验,包括但不局限于:元数据管理、数据ETL开发测试工具、数据安全、数据质量、数据资产管理等; 3.熟悉使用Spark、 HDFS、 HBase、 Flink 等,理解基本分布式系统原理,至少一个领域有深入开发实践; 4.优先:有较好的代码阅读能力优先,有海量数据处理和实时数据计算优化经验者优先,有图数据库、图算法、分布式图计算研发经验者优先; 5.对前沿技术研究保持热情,学习上善于沉淀和思考,乐观开朗乐于分享和带动他人,有良好的团队合作精神。
  • 6k-9k 经验在校/应届 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 日常实习:面向全体在校生,为符合岗位要求的同学提供为期3个月及以上的项目实践机会。 团队介绍:飞书是字节跳动旗下先进企业协作与管理平台,围绕目标、信息与人三个维度全方位助力组织升级。一站式整合即时沟通、日历、音视频会议、文档、云盘等办公协作套件,让组织和个人工作更高效更愉悦。飞书目前已服务包括互联网、信息技术、制造、建筑地产、教育、媒体在内等众多领域的先进企业。 1、负责飞书产品客户端、Web端、移动端或服务端产品的业务项目测试; 2、参与整个团队质量体系的搭建,包括但不限于:自动化测试、持续集成、各类专项测试等; 3、线上问题追踪及分析。 职位要求: 1、本科及以上学历在读,计算机相关专业优先; 2、最少掌握一门高级语言,掌握一门以上语言,包括Golang、Python、Java等; 3、了解常用客户端、服务端开发/测试工具,熟悉任意客户端/服务端自动化框架者优先; 4、对大模型感兴趣,并有一定使用经验者优先。
  • 30k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责保护公司电商平台的数据安全,防范和打击爬虫及其他恶意行为,研究和掌握最新的反爬虫技术,制定和实施有效的反爬虫策略; 2、深入了解上下游业务形态,可独立发起治理专项,快速定位问题并形成落地策略及效果评估闭环; 3、分析和调查电商平台上的异常流量和可疑活动,从海量设备、行为数据中发掘有价值的信息; 4、可协助进行建模工作,如特征分析、数据可视化呈现等,为团队决策提供数据支持; 5、与产品研发团队高效合作,优化技术架构和端上安全能力,建立端管云三位一体的反爬体系,量化防控效果,驱动反爬能力的不断提高。 职位要求: 1、计算机、信息安全、统计、数学等相关专业; 2、反爬相关经验,具备网络安全、数据保护和风险管理方面的专业知识,有电商经验者优先; 3、熟练掌握SQL、Python等编程语言,具有扎实的数据分析能力及学习能力; 4、深入了解常见的爬虫技术和工具,具有丰富的反爬虫经验,熟悉Web安全、网络协议、漏洞扫描等相关技术; 5、具有较强的问题解决能力,能够快速分析和处理安全事件,具备良好的团队合作精神和沟通能力。
  • 30k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责保护公司电商平台的数据安全,防范和打击爬虫及其他恶意行为,研究和掌握最新的反爬虫技术,制定和实施有效的反爬虫策略; 2、深入了解上下游业务形态,可独立发起治理专项,快速定位问题并形成落地策略及效果评估闭环; 3、分析和调查电商平台上的异常流量和可疑活动,从海量设备、行为数据中发掘有价值的信息; 4、可协助进行建模工作,如特征分析、数据可视化呈现等,为团队决策提供数据支持; 5、与产品研发团队高效合作,优化技术架构和端上安全能力,建立端管云三位一体的反爬体系,量化防控效果,驱动反爬能力的不断提高。 职位要求: 1、计算机、信息安全、统计、数学等相关专业; 2、反爬相关经验,具备网络安全、数据保护和风险管理方面的专业知识,有电商经验者优先; 3、熟练掌握SQL、Python等编程语言,具有扎实的数据分析能力及学习能力; 4、深入了解常见的爬虫技术和工具,具有丰富的反爬虫经验,熟悉Web安全、网络协议、漏洞扫描等相关技术; 5、具有较强的问题解决能力,能够快速分析和处理安全事件,具备良好的团队合作精神和沟通能力。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、制定区域KA增长解决方案:与团队共建并规模化输出区域大客户战略方案,包括:JBP框架、活动打法手册、联合投放模型、绩效增长方法论等,助力品牌在东南亚多市场实现可持续增长; 2、建设数据化客户运营工具:搭建并持续优化区域评分卡、诊断工具、产品对标及分析看板等数据驱动框架,提升区域业务规划与决策效率; 3、负责中国/国际FMCG品牌的业务增长:端到端负责重点品牌的GMV及广告增长,制定垂类策略,推动生态赋能、经营效率提升及多市场的长期成功; 4、促进跨市场及跨团队协作:通过结构化沟通机制与共享OKR,推动东南亚各市场团队、品牌总部及跨部门伙伴的高效协同,确保策略一致、执行顺畅; 5、输出行业洞察与业务建议:基于数据及市场洞察,为产品方案、营销解决方案、资源配置等关键决策提供可落地建议,加速平台及品牌增长,提升投入产出比; 6、参与区域B端营销活动策划与执行:配合区域团队推进大客户相关B端品牌营销或行业活动,提升TikTok Shop在行业端的认知度与影响力。 职位要求: 1、4年及以上电商平台、品牌电商、KA/商家管理或相关行业经验; 2、具备国际视野及东南亚市场兴趣,接受适度出差; 3、具备优秀的沟通能力、跨团队协作力与商务谈判能力; 4、数据分析能力强,熟悉业务指标、报告体系与预测模型; 5、能适应快速变化的跨文化环境,具备强执行力、责任心与问题解决能力。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责抖音电商耐消商品生态的治理优化,打造健康电商生态,持续改善消费者用户体验,完成治理目标; 2、基于用户在电商购物的需求洞察和量化分析,发现并定义影响消费体验的商品品质、假货关键问题持续完善平台商品刻画,并协同产品、模型、审核推进包括预警、处罚、处罚等标准处置方案的落地; 3、持续评估治理策略有效性、完善商品管理奖惩能力建设和治理策略改善提升,解决业务问题; 4、基于对商家经营的深入了解,设计有效的牵引激励机制,推动商家不断改善商品品质、宣传规范性等。 职位要求: 1、2年以上电商行业运营、策略、数据分析类经验优先; 2、熟悉用户需求的分析方法,能够洞察用户的购买决策逻辑,能够平衡用户需求和商家体验之间的关系制定持续提升用户体验的解决方案; 3、具备独立的数据分析能力,能熟练使用SQL; 4、有良好的资源协调和沟通能力,有跨部门多方密切配合的经验和意识,需要有协调多方资源,推落地,拿结果的实战经验。