• 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动相关产品线(抖音、头条等)风控方向的数据产品开发; 2、负责数据质量,数据安全,元数据的监控,整合; 3、面向超大规模数据问题,每天处理千亿增量的用户数据; 4、设计和实现高并发关键数据服务,用数据衡量产品并驱动产品演进。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力; 2、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 3、熟悉Kafka/Flink/HBase/Doris 等实时计算引擎的开发和使用优先; 4、有大规模实时数据平台落地经验者优先。
  • 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、保障全公司包括抖音、国际化短视频、广告等业务的数据稳定性,提升数据平台服务产品质量,保障业务的持续可用; 2、基于运维经验、工具、平台对线上事故快速响应提升处理效率,同时优化运维体系,推动提升服务可靠性、可扩展性,保障系统SLA,同时推进运维自动化提效; 3、通过持续的全方位运营,包括运维规范及最佳实践、监控及可用性指标、历史事故等,为数据高可用架构设计和选型提供指导,同时能够系统性排查架构风险隐患,推进改进项落地; 4、参与大数据运维平台的研发、自动化建设与持续迭代,引导产品的运维模式向数字化,智能化方向发展演进。 职位要求: 1、计算机相关专业,本科及以上学历; 2、3年及以上SRE运维经验,熟悉运维体系建设与稳定性保障; 3、熟悉Linux、网络等系统运维技能,具备运维问题分析、应急解决以及性能调优等能力; 4、熟悉至少一门编程语言,包括但不限于:Shell、Python、Java、Scala、PHP、Go等; 5、具备良好的沟通表达、团队协作以及自驱能力,促进跨团队的合作; 6、有大数据稳定性问题排查经验,具备清晰排查思路,具备快速定位问题能力加分。
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 30k-60k·13薪 经验5-10年 / 本科
    内容资讯,内容社区,社交媒体 / C轮 / 150-500人
    岗位职责 1. 负责公司数据管理平台的后台功能设计与开发,保障系统的高可用性与稳定性; 2. 参与公司智能分析平台的研发,聚焦于海量数据场景下的查询性能优化与高并发处理; 3. 积极参与开发工作流优化迭代,提升开发效率; 4. 积极参与组内知识库建设,促进知识共享及经验沉淀; 职位要求 1. 本科及以上学历,计算机相关专业优先,具备 3 年以上后台开发工作经验; 2. 编码能力扎实,精通 Java/Python/Go 其中一门开发语言,能够熟练编写高质量代码,且熟悉 SQL 数据访问与优化; 3. 熟悉主流开源应用框架,如 Spring、Spring Boot、MyBatis、Redis、RPC 等,并能灵活应用于实际项目中; 4. 有深入阅读并理解1-2个开源框架源码的经验,具备 JVM、SQL 等底层性能调优能力,或具备 DDD 建模经验者优先; 5. 对计算机技术有热诚,对解决具有挑战性的问题充满激情 加分项目 1. 有 BI 或类似数据系统使用或开发经验 2. 有 AWS、ALIYUN 等云厂商使用经验 3. 了解 Kubernetes、Docker 等云原生技术
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
  • 40k-70k·13薪 经验10年以上 / 本科
    旅游|出行 / D轮及以上 / 500-2000人
    岗位职责 1、负责客路下一代大数据湖平台的规划、建设与持续优化,打造高效稳定的数据处理与分析能力; 2、负责数据基础架构的设计与研发,提供高性能的离线与实时计算能力,支撑公司在海量数据分析、机器学习等场景下的业务需求,实现数据平台价值的持续交付; 3、牵头大数据平台研发团队的建设与管理,制定并落地大数据平台相关技术标准与规范; 4、打造数据服务与预警机制,赋能业务与运营团队的数据化运营; 5、建设埋点,AB实验,用户圈选,CDP等数据应用,提供离线和实时的数据服务; 6、推动数据治理与数据资产管理平台的建设与完善,提升数据质量与资产价值。 任职要求 1、本科及以上学历,计算机、数学、统计等相关专业优先;具备5-8年数据平台开发经验,有一定团队管理经验者优先; 2、扎实的大数据平台架构设计能力,深入理解大数据生态及关键组件,熟悉以下技术: 3、Doris、Spark、Hadoop 等核心组件; 4、Flink、Iceberg等实时与湖仓一体技术; 5、有AWS / GCP / 阿里云平台经验者优先; 6、对埋点、广告投放、用户圈选系统等有深刻理解与实战经验; 7、具备较强的业务理解力,能够结合业务场景构建数据产品与解决方案,具备数据化运营经验优先; 8、具备优秀的跨团队沟通与协作能力,善于总结与规范化,推动多部门协作与项目落地,责任心强,具备良好的团队合作意识。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1.大数据基础平台、应用平台功能设计和开发。 2.负责大数据平台及组件的调研选型,部署,日常监控及问题解决。 3.参与海量数据处理方案设计,提供业务系统技术支撑。 任职要求: 1.本科以上,计算机相关专业。 2.至少精通java/scala其中一种开发语言,熟悉主流后端开发框架。 3.熟悉大数据平台常用框架(hadoop/hive/spark/hbase/flink/presto/clickhouse/kafka)原理及常用应用场景,至少有3年以上大型生产系统相关经验。 4.熟悉linux系统,熟悉常用的操作系统命令和shell脚本编写。 5.责任心强,有较强的沟通能力和团队合作精神。 6.了解docker、k8s相关技术,有大数据组件容器化经验优先。
  • 8k-13k 经验3-5年 / 本科
    移动互联网,电商 / D轮及以上 / 150-500人
    一、职位描述 1、对指定的多个网站进行网页抓取、数据提取;负责网络数据抓取规划、清洗以及汇总的开发工作; 2、负责特殊网页采集任务的分析及采集方案设计; 3、参与爬虫架构设计和研发,满足产品中数据抓取的要求; 4、参与爬虫核心算法和策略优化研究; 5、抓取调度和策略优化,实时监控爬虫的进度和警报反馈; 6、爬虫核心系统, 数据平台的研发维护。 二、职位要求 1、 本科及以上学历,计算机相关专业;3年以上开发经验,2年以上Hadoop相关工作经验; 2、具有数据挖掘、信息检索、机器学习开发经验; 3、精通HTML语言,熟悉JS,Ajax,熟悉Lucene、Nutch、Heritrix、larbin、HtmlParse、Scrapy、Crawler4j、WebMagic、WebCollector等开源工具; 4、精通网页抓取原理及技术,从结构化的和非结构化的数据中获取信息; 5、熟练使用一门以上脚本语言(PHP/PYTHON/JAVA/Node.js/SQL/R语言 等); 6、熟练Hadoop大数据平台的核心框架 (HDFS, Pig, Hive, Sqoop, oozie, Zookeeper, Spark, Storm, Kafka 等); 7、精通网络编程,熟悉HTTP传输协议,能模拟浏览器操作爬虫; 8、有丰富Java /Python开发经验者优先;熟悉MySQL、Oracle及有集群数据库开发经验者优先。 9、具备web挖掘等搜索引擎相关知识,有从事网络爬虫、网页去重、网页信息抽取的经验。以解决技术难题为乐,对程序完美有偏执追求;具有团队精神,有想法,敢于挑战自我。 
  • 短视频 / 上市公司 / 2000人以上
    职位描述 1、负责数据中台-商业化各个业务线数据仓库建设,构建商业化垂直数据集市; 2、定义并开发业务核心指标数据,负责垂直业务数据建模,如用户画像; 3、根据具体问题,设计并实现合适的可视化展示,构建数据持续观测平台; 4、参与数据平台的搭建,优化数据处理流程具体工作; 5、数据收集,反作弊数据仓库,用户数据仓库,UGC数据仓库,审核数据仓库的研发; 6、A/B测试实时ETL研发,转化漏斗分析平台研发。 任职要求 1、有Hive,Kafka,Spark,Storm,Hbase,Flink等两种以上两年以上使用经验; 2、熟悉数据仓库建设方法和ETL相关技术,对于数据的设计有自己的思考,具备优秀的数学思维和建模思维; 3、熟练使用SQL,对类SQL有过优化经验,对数据倾斜有深度的理解。了解特征工程常用方法; 4、具备扎实的编程功底,很强的学习、分析和解决问题能力,良好的团队意识和协作精神,有较强的内外沟通能力。
  • 短视频 / 上市公司 / 2000人以上
    职位描述 1、建设全站的基础数据能力,提供丰富、稳定的短视频社区公共基础数据,探索更多数据能力的增量价值; 2、通过业务数据需求,提供数据采集埋点方案,跟进埋点全流程,交付结果,推进埋点质量相关建设; 3、各类数据专题体系(如房产、快聘等业务)的建设,通过数据+算法+产品,赋能业务,提供全链路、可分析、可复用的数据能力,提供更直观、更具分析指导性的产品化能力; 4、建设公司层面的核心数据资产,与业务场景深度结合,为社区服务提供数据服务化、数据业务化的数据&产品解决方案; 5、建设全站数据治理和管理体系,结合业务+元数据+技术,保障公司各个业务服务的数据质量和产出稳定。 任职要求 1、较为丰富的数据仓库及数据平台架构经验,期望通过对业务的深入理解,进行数据仓库、数据体系和数据价值的建设和优化; 2、有从事分布式数据存储与计算平台应用开发经验,熟悉Hive,Kafka,Spark,Storm,Hbase,Flink 等相关技术并有相关开发经验; 3、有系统化的思维和工程化的能力,有工程化落地的经验尤佳; 4、有较丰富的应用算法开发经验,对机器学习和AI有一定的了解。
  • 企业服务,工具,物联网 / 不需要融资 / 15-50人
    具备5年以上JAVA开发实际工作经验,计算机专业毕业,基础扎实; 熟悉TCP、UDP等协议通信过程,使用netty开发过自定义协议 熟悉MySQL、InfluxDB、Hadoop等数据库存储,熟练使用Maven、Git、IDEA进行开发; 熟悉分布式、RPC、缓存、消息队列、搜索等开源组件,如Zookeeper、Redis、RocketMQ、Kafka、ES等; 能够解决系统的高并发访问、海量数据处理等各种技术问题,不断进行系统建设及架构升级; 责任心强,工作积极,能主动学习,适应一定项目压力; 有数据平台或者物联网平台开发经验者优先。
  • 15k-25k·14薪 经验在校/应届 / 本科
    数据服务、人工智能 / 未融资 / 150-500人
    职责描述: 1. 负责/参与分布式实时数据集成(流式ELT/Ingestion)系统的设计与研发工作 2. 参与分布式云数据平台服务化解决方案的设计与开发 任职要求: 1. 热爱编程,熟练掌握JAVA/Rust/C等编程语言,具备较强的代码阅读,模块抽象,接口设计能力 2. 理解数据库基础原理,具备SQL开发/调优能力 3. 计算机、软件、通信、数学等相关专业本科及以上学历 4. 优秀的发现和解决问题能力,良好的沟通能力,具备团队合作精神
  • 20k-40k·15薪 经验在校/应届 / 硕士
    软件服务|咨询,数据服务|咨询,IT技术服务|咨询 / 未融资 / 150-500人
    岗位职责: 1、设计并实施灵活可扩展的支持数据建模、数据治理、数据质量、数据分析和优化的支持企业和产业数字化的数据架构; 2、设计并实施基于支持企业和产业数字化的数据架构并灵活集成统计、运筹和机器学习算法的数据平台; 2、负责数据平台的研发和迭代升级,持续提升平台稳定性,优化改进分布式存储、计算系统性能; 4、推动新型分布式高性能数据存储、计算、传输和访问技术在企业和产业数字化的落地应用。 任职要求: 1、硕士及以上学历,计算机基础扎实。熟悉计算机网络、Linux操作系统、分布式存储、算法和系统相关知识; 2、熟练掌握java、Scala、Go、C++编程语言的一种或多种,具备良好Coding技能和优雅的代码规范; 3、有过Apache开源生态分布式系统经验者优先,学习了解过Spark/Flink/Presto/Impala/Hadoop/HBase/Cassandra/GraphDB一种或多种引擎,有源码阅读或修改者优先; 4、强烈的上进心和求知欲,较强的学习能力和沟通能力,具备良好的团队合作精神。 加分项: 1、计算机领域相关的编程大赛获奖、专业期刊发表文章或者有发明专利等; 2、具备数据云平台、计算存储平台、可视化开发平台经验; 3、具备专业领域的计算机知识和技能: Alluxio/Hive/Hbase/RocksDB/Kafka/JanusGraph/GraphQL等。 4、对知识图谱、数据搜索、分布式算法、关系型数据库内核和优化、非关系型数据库内核和优化、云计算等技术有一定研究者优先。
  • 企业服务,工具,物联网 / 不需要融资 / 15-50人
    工作职责 1、参与工业互联网平台的前端核心方案设计、架构构建、难点攻坚和落地,以及上线后各项性能指标和用户体验的持续提升和优化; 2、参与团队技术规划的制定与实施,包括但不限于:前沿技术的调研与落地、通用组件的设计与开发、技术创新方案的规划与推进; 工作要求 1、本科及以上学历,计算机科学与技术相关专业,具有5年及以上web前端开发经验; 2、精通前端JavaScript(ES6+)、TypeScript、CSS3、HTML5等技术; 3、擅长技术方案设计,精通Vue及其相关技术栈,并理解其原理,熟悉Webpack,Babel等打包构建工具; 4、具备丰富的前端行业知识,了解各相关领域的前沿信息,了解最新前端技术的设计和实现原理,并能灵活在工作中进行应用; 5、深入理解浏览器原理及常见网络协议,能够对项目中的安全和性能问题进行分析解决; 6、有强烈的责任心和进取心,有良好的执行力和沟通能力,能承受较大工作压力,自我驱动力强,具备良好的问题定位分析能力; 7、有主导前端技术架构或技术创新方案设计经验,工业领域应用研发经验或者大型前端工程开发经验优先; 8、具备复杂前端可视化开发经验如echarts/D3,有复杂表格、流程、多图多界面联动、图可视化,低代码等开发经验优先。