• 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、保障全公司包括抖音、国际化短视频、广告等业务的数据稳定性,提升数据平台服务产品质量,保障业务的持续可用; 2、基于运维经验、工具、平台对线上事故快速响应提升处理效率,同时优化运维体系,推动提升服务可靠性、可扩展性,保障系统SLA,同时推进运维自动化提效; 3、通过持续的全方位运营,包括运维规范及最佳实践、监控及可用性指标、历史事故等,为数据高可用架构设计和选型提供指导,同时能够系统性排查架构风险隐患,推进改进项落地; 4、参与大数据运维平台的研发、自动化建设与持续迭代,引导产品的运维模式向数字化,智能化方向发展演进。 职位要求: 1、计算机相关专业,本科及以上学历; 2、3年及以上SRE运维经验,熟悉运维体系建设与稳定性保障; 3、熟悉Linux、网络等系统运维技能,具备运维问题分析、应急解决以及性能调优等能力; 4、熟悉至少一门编程语言,包括但不限于:Shell、Python、Java、Scala、PHP、Go等; 5、具备良好的沟通表达、团队协作以及自驱能力,促进跨团队的合作; 6、有大数据稳定性问题排查经验,具备清晰排查思路,具备快速定位问题能力加分。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动相关产品线(抖音、头条等)风控方向的数据产品开发; 2、负责数据质量,数据安全,元数据的监控,整合; 3、面向超大规模数据问题,每天处理千亿增量的用户数据; 4、设计和实现高并发关键数据服务,用数据衡量产品并驱动产品演进。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力; 2、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 3、熟悉Kafka/Flink/HBase/Doris 等实时计算引擎的开发和使用优先; 4、有大规模实时数据平台落地经验者优先。
  • 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
  • 40k-70k·13薪 经验10年以上 / 本科
    旅游|出行 / D轮及以上 / 500-2000人
    岗位职责 1、负责客路下一代大数据湖平台的规划、建设与持续优化,打造高效稳定的数据处理与分析能力; 2、负责数据基础架构的设计与研发,提供高性能的离线与实时计算能力,支撑公司在海量数据分析、机器学习等场景下的业务需求,实现数据平台价值的持续交付; 3、牵头大数据平台研发团队的建设与管理,制定并落地大数据平台相关技术标准与规范; 4、打造数据服务与预警机制,赋能业务与运营团队的数据化运营; 5、建设埋点,AB实验,用户圈选,CDP等数据应用,提供离线和实时的数据服务; 6、推动数据治理与数据资产管理平台的建设与完善,提升数据质量与资产价值。 任职要求 1、本科及以上学历,计算机、数学、统计等相关专业优先;具备5-8年数据平台开发经验,有一定团队管理经验者优先; 2、扎实的大数据平台架构设计能力,深入理解大数据生态及关键组件,熟悉以下技术: 3、Doris、Spark、Hadoop 等核心组件; 4、Flink、Iceberg等实时与湖仓一体技术; 5、有AWS / GCP / 阿里云平台经验者优先; 6、对埋点、广告投放、用户圈选系统等有深刻理解与实战经验; 7、具备较强的业务理解力,能够结合业务场景构建数据产品与解决方案,具备数据化运营经验优先; 8、具备优秀的跨团队沟通与协作能力,善于总结与规范化,推动多部门协作与项目落地,责任心强,具备良好的团队合作意识。
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 30k-60k·13薪 经验5-10年 / 本科
    内容资讯,内容社区,社交媒体 / C轮 / 150-500人
    岗位职责 1. 负责公司数据管理平台的后台功能设计与开发,保障系统的高可用性与稳定性; 2. 参与公司智能分析平台的研发,聚焦于海量数据场景下的查询性能优化与高并发处理; 3. 积极参与开发工作流优化迭代,提升开发效率; 4. 积极参与组内知识库建设,促进知识共享及经验沉淀; 职位要求 1. 本科及以上学历,计算机相关专业优先,具备 3 年以上后台开发工作经验; 2. 编码能力扎实,精通 Java/Python/Go 其中一门开发语言,能够熟练编写高质量代码,且熟悉 SQL 数据访问与优化; 3. 熟悉主流开源应用框架,如 Spring、Spring Boot、MyBatis、Redis、RPC 等,并能灵活应用于实际项目中; 4. 有深入阅读并理解1-2个开源框架源码的经验,具备 JVM、SQL 等底层性能调优能力,或具备 DDD 建模经验者优先; 5. 对计算机技术有热诚,对解决具有挑战性的问题充满激情 加分项目 1. 有 BI 或类似数据系统使用或开发经验 2. 有 AWS、ALIYUN 等云厂商使用经验 3. 了解 Kubernetes、Docker 等云原生技术
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1.大数据基础平台、应用平台功能设计和开发。 2.负责大数据平台及组件的调研选型,部署,日常监控及问题解决。 3.参与海量数据处理方案设计,提供业务系统技术支撑。 任职要求: 1.本科以上,计算机相关专业。 2.至少精通java/scala其中一种开发语言,熟悉主流后端开发框架。 3.熟悉大数据平台常用框架(hadoop/hive/spark/hbase/flink/presto/clickhouse/kafka)原理及常用应用场景,至少有3年以上大型生产系统相关经验。 4.熟悉linux系统,熟悉常用的操作系统命令和shell脚本编写。 5.责任心强,有较强的沟通能力和团队合作精神。 6.了解docker、k8s相关技术,有大数据组件容器化经验优先。
  • 短视频 / 上市公司 / 2000人以上
    职位描述 1、建设全站的基础数据能力,提供丰富、稳定的短视频社区公共基础数据,探索更多数据能力的增量价值; 2、通过业务数据需求,提供数据采集埋点方案,跟进埋点全流程,交付结果,推进埋点质量相关建设; 3、各类数据专题体系(如房产、快聘等业务)的建设,通过数据+算法+产品,赋能业务,提供全链路、可分析、可复用的数据能力,提供更直观、更具分析指导性的产品化能力; 4、建设公司层面的核心数据资产,与业务场景深度结合,为社区服务提供数据服务化、数据业务化的数据&产品解决方案; 5、建设全站数据治理和管理体系,结合业务+元数据+技术,保障公司各个业务服务的数据质量和产出稳定。 任职要求 1、较为丰富的数据仓库及数据平台架构经验,期望通过对业务的深入理解,进行数据仓库、数据体系和数据价值的建设和优化; 2、有从事分布式数据存储与计算平台应用开发经验,熟悉Hive,Kafka,Spark,Storm,Hbase,Flink 等相关技术并有相关开发经验; 3、有系统化的思维和工程化的能力,有工程化落地的经验尤佳; 4、有较丰富的应用算法开发经验,对机器学习和AI有一定的了解。
  • 企业服务,工具,物联网 / 不需要融资 / 15-50人
    具备5年以上JAVA开发实际工作经验,计算机专业毕业,基础扎实; 熟悉TCP、UDP等协议通信过程,使用netty开发过自定义协议 熟悉MySQL、InfluxDB、Hadoop等数据库存储,熟练使用Maven、Git、IDEA进行开发; 熟悉分布式、RPC、缓存、消息队列、搜索等开源组件,如Zookeeper、Redis、RocketMQ、Kafka、ES等; 能够解决系统的高并发访问、海量数据处理等各种技术问题,不断进行系统建设及架构升级; 责任心强,工作积极,能主动学习,适应一定项目压力; 有数据平台或者物联网平台开发经验者优先。
  • 企业服务,工具,物联网 / 不需要融资 / 15-50人
    工作职责 1、参与工业互联网平台的前端核心方案设计、架构构建、难点攻坚和落地,以及上线后各项性能指标和用户体验的持续提升和优化; 2、参与团队技术规划的制定与实施,包括但不限于:前沿技术的调研与落地、通用组件的设计与开发、技术创新方案的规划与推进; 工作要求 1、本科及以上学历,计算机科学与技术相关专业,具有5年及以上web前端开发经验; 2、精通前端JavaScript(ES6+)、TypeScript、CSS3、HTML5等技术; 3、擅长技术方案设计,精通Vue及其相关技术栈,并理解其原理,熟悉Webpack,Babel等打包构建工具; 4、具备丰富的前端行业知识,了解各相关领域的前沿信息,了解最新前端技术的设计和实现原理,并能灵活在工作中进行应用; 5、深入理解浏览器原理及常见网络协议,能够对项目中的安全和性能问题进行分析解决; 6、有强烈的责任心和进取心,有良好的执行力和沟通能力,能承受较大工作压力,自我驱动力强,具备良好的问题定位分析能力; 7、有主导前端技术架构或技术创新方案设计经验,工业领域应用研发经验或者大型前端工程开发经验优先; 8、具备复杂前端可视化开发经验如echarts/D3,有复杂表格、流程、多图多界面联动、图可视化,低代码等开发经验优先。
  • 旅游|出行 / 上市公司 / 2000人以上
    工作职责: 1. 负责大数据消息服务如 Kafka 集群优化,运维、部署、管理; 1. 参与大数据基础服务如 Hadoop 、Spark 等集群运维、部署、管理与优化; 2. 负责大数据平台服务器的维护与管理,保证各集群服务器正常运行; 职位要求: 1. 熟悉 Java、Scala、Go 等一门主流语言,熟悉并发和网络编程,有良好的数据结构和算法功底; 2. 熟悉消息系统的原理和关键技术,熟悉 Kafka/Pulsar/RocketMQ 等消息产品的原理和实现,有开源社区贡献者优先; 3. 有分布式存储的使用和研发经验者优先; 4. 对云原生相关技术有一定的了解; 5. 了解大数据相关技术,如Hadoop,Spark,Hive,Flink等,有开发或者运维经验者优先; 6. 熟悉Linux常用命令; 7. 有技术热情和较强的学习能力,以及良好的沟通能力、抗压能力和团队协作能力;
  • 数据服务|咨询 / C轮 / 150-500人
    职位描述: 1. 负责大数据基础平台架构建设和研发; 2. 负责大数据计算引擎的特性研发和性能调优; 3. 负责大数据系统整体及组件的性能、效率、稳定性分析与优化。 职位要求: 1. 熟悉Trino或Flink计算引擎,有5年计算引擎特性开发和性能调优经验; 2. 熟悉HDFS/Hive metastore/Presto/Kudu/Kafka等大数据技术和组件, 3. 具备扎实的计算机基础,熟悉分布式系统研发; 4. 精通Java研发语言,具有良好的编程研发能力; 5. 对新技术敏感,有较强的学习能力和解决问题的能力,乐于学习分享,有较好的沟通能力和执行力。
  • 信息安全 / 未融资 / 15-50人
    我们正在寻找一位优秀的数据服务经理,您将成为连接我司数据业务产品与客户成功的关键桥梁。您将负责领导团队,为客户提供涵盖数据平台建设、主数据和数据治理体系搭建、数据资产运营在内的端到端专业服务,确保客户能最大化利用我司数据业务产品的价值,实现其业务目标。 岗位使命:​全面负责公司数据平台产品及相关数据服务交付,主导客户的主数据管理、数据治理体系搭建及数据资源规划工作,将数据治理成果转化为可落地的业务价值。 ​核心职责​: 1、数据治理与客户交付​:为客户规划并落地数据治理体系,涵盖数据标准制定、元数据管理、数据质量提升及数据安全合规。 ​2、项目管理与实施​:主导数据平台产品服务及数据治理项目的全流程管理,协调资源,控制成本,保障项目高质量交付。 3、​客户成功与需求挖掘​:深度对接客户,梳理业务需求,将数据服务成果转化为可落地的业务决策支持,推动数据资产化运营。 4、​团队协作与引领​:领导数据服务团队,负责任务分配、技术指导与人才培养 能力​要求​: 1、​学历与经验:​​ **本科及以上学历,计算机、数据科学、统计学等相关专业优先。 2、​具备3年以上数据领域相关工作经验​,拥有集团级业务规划或数据资源规划项目经验者将获得优先考虑。 ​专业知识与技能:​​ 1、精通数据治理框架,熟悉主数据、元数据、数据架构等概念,并具备实践经验。 2、具备出色的解决方案编制能力和需求分析能力,能够将客户需求转化为可执行的技术方案。 3、了解数据归集、治理、流通的全链条技术环节者更佳。 ​综合能力:​​ 1、具备优秀的沟通协调能力、项目管理能力和团队协作精神。 2、能够接受项目所需的出差安排。 ​我们提供​: ​全面的薪酬福利: ​​ 具有竞争力的薪酬,并享受五险一金、绩效奖金、带薪年假、定期体检、节日福利。 ​核心发展机会:​​ 在公司的数据战略中担任关键角色,深度参与大型企业的数字化转型项目,获得广阔的职级晋升与专业成长空间。 ​专业团队氛围:​​ 与资深专家共事,享受开放、协作的工作环境。
  • 8k-13k 经验3-5年 / 本科
    移动互联网,电商 / D轮及以上 / 150-500人
    一、职位描述 1、对指定的多个网站进行网页抓取、数据提取;负责网络数据抓取规划、清洗以及汇总的开发工作; 2、负责特殊网页采集任务的分析及采集方案设计; 3、参与爬虫架构设计和研发,满足产品中数据抓取的要求; 4、参与爬虫核心算法和策略优化研究; 5、抓取调度和策略优化,实时监控爬虫的进度和警报反馈; 6、爬虫核心系统, 数据平台的研发维护。 二、职位要求 1、 本科及以上学历,计算机相关专业;3年以上开发经验,2年以上Hadoop相关工作经验; 2、具有数据挖掘、信息检索、机器学习开发经验; 3、精通HTML语言,熟悉JS,Ajax,熟悉Lucene、Nutch、Heritrix、larbin、HtmlParse、Scrapy、Crawler4j、WebMagic、WebCollector等开源工具; 4、精通网页抓取原理及技术,从结构化的和非结构化的数据中获取信息; 5、熟练使用一门以上脚本语言(PHP/PYTHON/JAVA/Node.js/SQL/R语言 等); 6、熟练Hadoop大数据平台的核心框架 (HDFS, Pig, Hive, Sqoop, oozie, Zookeeper, Spark, Storm, Kafka 等); 7、精通网络编程,熟悉HTTP传输协议,能模拟浏览器操作爬虫; 8、有丰富Java /Python开发经验者优先;熟悉MySQL、Oracle及有集群数据库开发经验者优先。 9、具备web挖掘等搜索引擎相关知识,有从事网络爬虫、网页去重、网页信息抽取的经验。以解决技术难题为乐,对程序完美有偏执追求;具有团队精神,有想法,敢于挑战自我。