• 15k-25k 经验1-3年 / 硕士
    金融 / 不需要融资 / 2000人以上
    工作职责: 1、从事人工智能领域研究工作,包括不限于行业应用的跟踪分析与研判工作; 2、开展公司人工智能技术的应用研究、融合规划及材料撰写工作; 3、负责智能项目管理工作,进行智能产品规划与设计工作; 4、完成其他相关重点工作。 任职资格: 1、硕士研究生或以上学历; 2、具有较强文字功底及逻辑思维能力;具有优秀的表达、沟通与协调能力; 3、有1年以上咨询研究工作经验,有咨询公司、第三方评测机构工作经验者优先; 4、喜欢跟踪和研究分析人工智能与保险领域最新动态,对人工智能、金融保险行业有一定了解。
  • 15k-22k 经验不限 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
  • 20k-40k 经验3-5年 / 本科
    数据服务 / B轮 / 150-500人
    岗位职责: 公司业务为面向工业企业的数据智能方向。本岗位需要数据工程背景,主要方向为元数据治理和数据架构方向。工作内容兼顾 toB 项目实施与软件产品研发。 1. AI 时代下的元数据治理体系建设,包括: - 元数据治理体系的设计和实施验证 - 元数据治理产品开发,与数据分析产品线的集成 2. 作为技术负责人,亲自参与核心客户项目的交付和技术验证工作,包括: - 项目技术方案设计 - 项目交付与实施 - 客户沟通与技术支持 3. 数据架构设计与数据工程开发,包括: - 根据客户现状和需求设计合理的数据架构 - 数据工程开发,包括数据治理与 ETL 任务开发 - 数据质量监控和运维 岗位要求 1.理工科本科及以上学历,3 年以上数据工程/数据架构相关经验。 2.精通 SQL、Spark 等主流 ETL 工具链的使用。 3.精通 golang、python、scala 软件研发常用技术栈。 4.深入理解元数据治理体系与技术。 5.有元数据治理项目/产品研发经验优先。 6.有工业企业数据智能业务经验优先。
  • 20k-40k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
  • 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责国际化电商业务的大数据项目整体架构规划; 2、负责指导工程师进行技术验证与实现,核心技术问题的攻关,解决项目开发过程中的技术难题; 3、负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 2、有超PB级别大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。
  • 20k-40k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、为大规模推荐系统设计和实现合理的离线/实时数据架构; 2、设计和实现灵活可扩展、稳定、高性能的存储系统和计算模型; 3、生产系统的Trouble-shoting,设计和实现必要的机制和工具保障生产系统整体运行的稳定性; 4、打造业界领先的离在线存储、批式流式计算框架等分布式系统,为海量数据和大规模业务系统提供可靠的基础设施。 职位要求: 1、熟悉一个大数据领域的开源框架,Hadoop/Hive/Flink/FlinkSQL/Spark/Kafka/Hbase/Redis rocksdb/Elasticsearch/Parquet; 2、熟悉Java、C++等编程语言; 3、出色的编码和Trouble-shoting能力; 4、乐于挑战没有明显答案的问题,对新技术有强烈的学习热情; 5、有PB级别数据处理经验加分; 6、对某一大数据框架有原理/源码级别理解的加分。
  • 15k-25k 经验3-5年 / 本科
    电商,消费生活 / 不需要融资 / 500-2000人
    工作内容: 1、根据业务需求进行数据业务开发,分析后台已有数据,理解数据维度和含义,并根据计算公式进行数据应用开发及分析。 2、参与数据治理工作,根据目前已有数据,解析数据依赖,编排数据拓扑结构,数据元数据结构优化;提升数据易用性及数据质量,统一数据口径,制定数据标准化规则。 3、对数据平台和执行引擎遇到问题时有一定的解决能力,负责 ETL 流程的优化及解决 ETL 相关技术问题,对数据稳定性和性能有一定的优化能力。 4、支撑采购供应链业务域的搜索、用户画像、推荐系统等业务的数据需求,确保输出时效性与准确性。 任职要求: 1、本科及以上学历,计算机相关专业,3年以上工作经验; 2、精通Python语言,能够使用python写数据分析算法; 3、精通FineBI、FineReport的开发、维护技术(有帆软高级工程师认证的优先)能够独立完成BI项目的开发; 4、精通数仓及BI系统业务建设流程; 5、熟练掌握SQL,能够熟练编写复杂的查询语句、存储过程、函数等,对常见关系型数据库(如Oracle、MySQL等)的性能优化有一定经验; 6、有良好的沟通和业务流程描述能力,书面表达能力,高度自驱。
  • 14k-17k 经验5-10年 / 本科
    IT技术服务|咨询 / 不需要融资 / 500-2000人
    1.5年年及以上开发经验,计算机、数学等相关专业; 2.具有数学基础,熟悉python编程,有神经网络项目开发经验,能够进行1inux环境下的开发; 3.掌握机器学习的基本算法与概念,有深度学习模型开发经验; 4 精通深度学习模型框架如TensorFlow、pytorch等。
  • 30k-40k 经验5-10年 / 本科
    居住服务 / 不需要融资 / 2000人以上
    管理过团队的来 【岗位职责】 1、主导公司数据平台的搭建,核心负责企业级数据仓库的建设,包括数据分层、数据清洗、数据库和表结构的设计和数据分析,以及数据开发的落地实施; 2、建立数据质量管理体系,开发分析型系统的数据报表,完成从数据建模到数据计算的开发工作; 3、数据资产化的落地,构建数据服务的API设计和开发,支持业务系统的数据对接和调用; 4、研发管理与项目交付:统筹数据项目的研发工作,确保项目按时交付、高质量上线; 5、对AI及算法有兴趣,做过AI模型搭建、调试的尝试,以及落地应用; 【经验要求】 1. 计算机、数学相关专业本科以上学历(硕士优先),在大平台数据开发经验优先; 2. 有过完整的数据体系搭建的经验,包括数据治理、指标体系搭建、数据挖掘和模型管理等,对数据质量、数据资产、元数据管理等有实战经验; 3. 对机器学习、自然语言处理等AI核心技术有一定了解,对AI模型在垂直行业的应用有关注,有尝试的经验; 4. 有一定团队管理经验的优先,在跨团队协作、资源调配和技术问题协同解决方面有实际成果;
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、综合收入和支出,预测用户生命价值,打造渠道投放和内容采买评估体系; 2、基于用户表现,建立用户衰减模型,打造DAU预测和多产品互导平台; 3、整合业务、财务、人力数据,提供一站式查询平台。 职位要求: 1、强悍的编码、系统设计和troubleshooting能力; 2、熟悉至少一个分布式框架,如Hadoop、Hive、Spark、Storm、Kafka、Flink等; 3、有扎实的数据结构和算法功底,熟悉统计学习、机器学习、深度学习中一项或多项; 4、有数据挖掘、指导业务策略的经验(如渠道投放、内容采买和产品互导等)优先。
  • 40k-70k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节商业化数据仓库&集市的建设与维护,包括但不限于数据建模、数据开发、数据质量等 2、负责字节商业化业务数据BP,包括需求对接,抽象需求沉淀数据建模,结合产品矩阵灵活的把控技术方案,高质量交付需求 3、参与商业化数据治理工作,提升数据稳定性、易用性及数据质量 4、参与商业化大数据平台规划、为商业数据平台整体提供内容建设侧的应建议指导 职位要求: 1、本科以上学历,2年以上互联网业务数据仓库模型设计、开发经验; 2、熟练使用Hadoop及Hive、spark,熟悉HQL调优。具备一定的Java、Python等语言开发能力 3、具有Clickhouse、Druid、presto等OLAP引擎使用经验者优先 4、具有丰富的指标体系设计,指标管理经验优先 5、沟通能力强,业务sense好,良好的团队协作,以解决业务问题为导向,认同技术解决业务问题的价值理念,对处理海量大数据有较强的兴趣度和持续的热情
  • 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、保障全公司包括抖音、国际化短视频、广告等业务的数据稳定性,提升数据平台服务产品质量,保障业务的持续可用; 2、基于运维经验、工具、平台对线上事故快速响应提升处理效率,同时优化运维体系,推动提升服务可靠性、可扩展性,保障系统SLA,同时推进运维自动化提效; 3、通过持续的全方位运营,包括运维规范及最佳实践、监控及可用性指标、历史事故等,为数据高可用架构设计和选型提供指导,同时能够系统性排查架构风险隐患,推进改进项落地; 4、参与大数据运维平台的研发、自动化建设与持续迭代,引导产品的运维模式向数字化,智能化方向发展演进。 职位要求: 1、计算机相关专业,本科及以上学历; 2、3年及以上SRE运维经验,熟悉运维体系建设与稳定性保障; 3、熟悉Linux、网络等系统运维技能,具备运维问题分析、应急解决以及性能调优等能力; 4、熟悉至少一门编程语言,包括但不限于:Shell、Python、Java、Scala、PHP、Go等; 5、具备良好的沟通表达、团队协作以及自驱能力,促进跨团队的合作; 6、有大数据稳定性问题排查经验,具备清晰排查思路,具备快速定位问题能力加分。
  • 25k-50k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、广告各类在线业务的离线数据加工与在线数据服务开发与维护; 2、数据服务接口及产品需求研发迭代,代码review、bug修复及日常服务运维; 3、针对海量数据处理和查询需求,设计适应业务变化的合理的多维数据分析系统架构,满足多样性的需求; 4、海量日志清洗加工,并抽象出可以多业务复用的数据模型; 5、指导初级数据开发工程师进行日常开发。 职位要求: 1、熟悉Hadoop架构和工作原理,精通MapReduce编程;精通Hive,有HQL优化经验; 2、有web服务开发经验,具备独立完成模块开发能力,具备大规模分布式服务设计能力和经验; 3、理解基本的设计模式,能将业务需求快速理解成技术需求; 4、熟练使用Mysql,熟练使用ElasticSearch、Druid者优先;熟悉其原理者优先; 5、善于沟通,工作积极主动,责任心强,具备良好的团队协作能力; 6、具备良好的问题分析与解决能力,有较强学习能力和逻辑思维能力。
  • 50k-80k·15薪 经验5-10年 / 本科
    消费生活 / 上市公司 / 2000人以上
    职位描述 负责国际化B/C/D三端核心数据仓库及相关数据系统服务的研发工作,致力于数据驱动业务提升决策效率与质量。 核心职责 数据仓库开发与优化 设计并实施高性能、可扩展的海外业务数仓架构,支持多时区、多语言数据集成。 与数据分析师、业务团队协作,理解需求并输出数据服务(如指标体系、数据API)。 实时数据开发 构建实时数据工程开发服务平台,沉淀平台能力,支持Flink SQL无法满足的实时指标计算场景 基于Flink/Kafka/Spark Streaming等构建实时数据处理管道,支持业务实时监控与告警。 解决实时场景下的数据延迟、乱序、Exactly-Once等挑战。 数据服务工具构建 构建数据服务平台,提供通用的接口服务与指标管理,连接数仓数据与数据应用(线上系统、分析系统、用户等)。 推动数据治理(质量监控、血缘追踪、权限管理)在海外业务的落地。 项目管理与跨团队协作 主导数据项目全生命周期管理(需求评审、排期、风险控制、交付),协调跨时区团队。 制定数据开发规范,主导技术方案评审,培养初级工程师。 任职要求 核心要求 8年以上数据开发经验,满足以下任一背景者: 路径A:有数据平台/中台开发经验(如数据湖、计算引擎优化),有转型数仓方向意愿; 路径B:有后端开发经验(Java/Scala/Python)+ 数仓开发经验(3年以上)。 精通实时数据处理技术栈(如Flink/Kafka/Redis),有高吞吐、低延迟场景实战经验。 熟练掌握数仓分层理论、建模方法,熟悉Hive/Spark/Impala等大数据组件。 有项目管理经验(至少主导过2个中型以上数据项目),熟悉敏捷开发流程。 加分项 熟悉云数仓(Snowflake/BigQuery/Redshift)或湖仓一体架构(Delta Lake/Iceberg)。 了解数据安全合规要求(如GDPR)。 有BI工具(Tableau/Superset)或数据服务化经验。 英语能力优秀(可处理英文文档、跨团队沟通),有海外业务经验者优先 我们提供 参与全球化数据体系建设的机会,业务覆盖香港、中东、美洲等地区。 技术导向的团队,支持技术转型与前沿方案落地。 有竞争力的薪资与国际化工作环境。
  • 30k-60k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、参与面向企业服务的大数据存储服务产品的设计和开发,打造世界先进的标准化产品; 2、持续优化系统稳定性、性能、成本、可扩展性、可维护性、可观测性等; 3、参与构建稳定高效的Devops运维系统,构建高性能的数据管理和数据洞察体系; 4、深入理解业务场景的存储需求,针对性的为不同业务场景提供最合适的存储方案。 职位要求: 1、熟悉Go/Python/Java中至少一种,有全栈开发经验,熟悉各种中间件的使用,对工程质量有很高的自我要求; 2、熟悉分布式存储系统的实现原理,理解典型的分布式存储架构,包括GFS、HDFS、Ceph等,具有相关工作经验有加分; 3、具备较强的问题分析能力和团队合作能力,有较强的自我驱动能力和产品意识,能够端到端驱动方案落地。 具备以下条件者优先: 1、熟悉C/C++; 2、熟悉文件存储、块存储、对象存储中的一种或多种者优先; 3、参与过PB级别数据量分布式存储系统研发,有过大规模数据集群运维、故障排查及调优等实战经验。