• 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
  • 20k-35k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
  • 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责即时零售业务的离线与实时数据仓库的构建; 2、负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3、负责指标体系建设与维护; 4、深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 5、参与大数据应用规划,为数据产品、挖掘团队提供应用指导; 6、参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1、熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
  • 40k-60k·15薪 经验10年以上 / 本科
    汽车丨出行 / 未融资 / 2000人以上
    工作职责 1.负责自动驾驶数据平台、仿真平台、标注平台、训练平台及相关工具链的架构设计和研发工作,打造符合前瞻、量产智驾技术研发需要的数据闭环 2.负责大规模、可伸缩计算集群系统的解决方案的设计和搭建,以及核心技术的研究、开发和优化,负责平台长期运维支持和架构优化 3.负责自动驾驶软件系统框架架构设计和开发,与硬件、算法和测试团队合作,持续集成并优化自动驾驶系统 4.负责量产车型的数据驱动影子模式、数据记录等车端功能设计、系统架构和开发 工作要求 1.学历要求:**本科及以上学历,英语CET-4及以上, 2.工作经验:具有6年及以上相关工作经验,特别优秀者可适当放宽 3.其他: ① 计算机科学与技术、软件工程专业、自动化控制专业、人工智能等相关专业优先 ② 满足以下条件之一: 1)熟悉软件开发流程、具备扎实的算法和数据结构、算法、操作系统、网络、数据库等知识 2)熟悉几何、计算机图形学、动态系统建模等理论和方法 3)精通C/C++/Go/Python/nodejs一种或多种编程语言,熟悉HTML/CSS/React/REST 4)熟悉Linux/RTOS环境下开发与调试,有嵌入式操作系统和实时操作系统的内核或驱动开发经验,有多进程多线程、中间件、计算机视觉应用(OpenCV)、CUDA、TensorRT等开发经验优先 5)有丰富的Gin/Pylons/Django Web框架开发经验 6)熟悉PyTorch,TensorFlow,TensorRT等深度学习框架,有模型训练、调优相关经验 7)熟悉Spark/K8S相关技术,有相关开发经验,有过海量数据系统开发经验优先,有过集群系统开发、部署和优化经验优先 8)熟悉软件开发流程以及DevOps完整流程,熟悉DevOps相关系统原理,有相关工具和使用经验、如Jenkins,Argo, K8S,Docker,Kubernetes等 ③ 工作认真负责,具有良好的团队合作能力、沟通协调能力和学习能力 ④ 有Tier 1或主机厂相关工作经验优先
  • 18k-30k 经验5-10年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1.应用系统运维,通过完备的应用监控部署,发现异常事件并快速恢复,确保业务正常 2.主动预防,分析应用的运行趋势找出潜在问题并防止其发生 3.系统优化,从运维角度评估应用架构可用性、变更风险、性能和容量瓶颈,确保系统运行稳定 4.运维工具开发,通过前后端开发框架或运维脚本,提升运维工作效率 5.应用系统运营,负责应用产品问题收集、分析定位、问题优化推进和闭环跟踪 6.应用系统版本支持,参与业务需求讨论、版本部署管理和底层资源维护 岗位要求: 1.计算机相关专业,***本科及以上学历,3年以上系统运维(SRE)经验 2.责任心强,工作积极主动、自我驱动,有较好的沟通协调、事件推动和闭环能力 3.基础开发能力扎实,具备shell/java一种以上开发技术和项目经验 4.熟悉ITIL体系,能结合实际使用制定和优化日常流程规范和标准 5.对应用系统管理有一定经验,能快速上手并解决线上问题 6.熟悉运用主流的运维或监控工具提升运维效率,对当前系统架构和流程进行持续优化 7.熟悉MySQL、PostgreSQL、Redis等主流数据库架构和日常运维,熟悉SQL操作 8.运维技术熟悉以下两种或以上: 1)linux/Unix的操作和维护,K8S容器应用运维 2)J2EE平台架构或springboot微服务架构的开发技术及流程 3)keepalived、nginx、kafka和zookeeper等应用中间件的配置和维护 4)网络四层及七层协议在应用系统的应用和优化
  • 35k-50k·14薪 经验10年以上 / 本科
    移动互联网,广告营销 / 上市公司 / 2000人以上
    工作职责: 1、负责部门内部AI创新产品速览的后端架构设计与研发工作,从需求分析到落地实施,提供全流程技术支持,与产品经理、算法团队、前端开发团队紧密协作,共同完成AI产品开发任务; 2、对现有AI产品和后端系统进行性能优化,确保系统在高并发、大数据量场景下的稳定性和效率; 3、通过技术分享、代码评审和经验指导,提升团队整体能力,打造高效且富有战斗力的研发团队,提升团队整体研发效率; 4、持续关注AI领域的新技术、新工具,并评估其对业务的潜在价值。 任职要求: 1、本科以上学历,有8年以上后端工作经验,3年以上团队小组管理经验; 2、主导过一个项目从0到1的研发过程; 3、精通至少一种主流后端开发语言(Java、Go、Python等),熟悉常用开发框架(如 Spring等); 4、熟悉关系型数据库(MySQL、PostgreSQL)和非关系型数据库(Redis、MongoDB); 5、了解分布式系统设计与开发,具备大规模高并发场景的开发经验; 6、深入了解大语言模型相关技术以及应用,有大规模系统架构经验优先; 7、对Langchain,dify等AI应用框架熟悉着优先; 8、有一定的抗压能力。
  • 30k-60k 经验3-5年 / 本科
    社交媒体 / 上市公司 / 2000人以上
    职位描述 1. 负责大模型技术在微博搜索场景的应用,提升用户满意度,包括但不局限于基于微博结果的内容生成、内容分析、搜索规划、搜索增强等。 2. 负责大模型技术在在文本生成、知识库建设、记忆能力、对话、推理能力增强等方面前沿技的跟进、创新,探索适合微博场景的应用解决方案; 任职要求 1. 计算机、人工智能等相关专业***硕士研究生及以上学历,2-5年NLP算法模型实践经验; 2. 熟练掌握NLP和深度学习模型算法,熟悉Pytorch/Tensorflow等算法框架 3. 熟悉RAG相关原理,熟悉大语言模型 SFT/RLHF 等技术; 4. 沟通表达能力强,逻辑思维和抽象思维能力优秀; 5. 有NLP顶会论文或国际NLP比赛奖项者优先;
  • 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
  • 25k-50k 经验5-10年 / 不限
    工具类产品,内容社区,音频|视频媒体 / 上市公司 / 2000人以上
    岗位职责: 1. 负责研发部基建运维,设计、部署并维护可靠、可扩展的基础设施系统,包括云计算、容器、分布式系统等; 2. 负责参与持续交付和自动化建设,制定持续集成和持续交付的流程和工具; 3. 负责事故响应和故障排查,快速定位并解决生产环境中的问题,分析事故原因,制定预防措施,持续改进系统可靠性。 岗位要求: 1.熟悉至少一种主流编程语言,如Python、Go、Java等,熟练进行代码编写、调试和优化; 2.熟悉常见的系统架构模式及常见云计算平台, 如微服务架构、分布式系统等,具备部署架构设计和优化经验及在云环境下构建和优化系统的经验; 3.熟悉SLI/SLO/SLA指标管理,对系统可用性、容错性等进行持续监控和优化,同时具备成本优化意识, 能够通过资源分析、负载预测等手段,优化系统运行成本。
  • 30k-60k 经验1-3年 / 本科
    社交媒体 / 上市公司 / 2000人以上
    职位描述 1. 负责大模型技术在微博搜索场景的应用,提升用户满意度,包括但不局限于基于微博结果的内容生成、内容分析、搜索规划、搜索增强等。 2. 负责基于构建检索增强推理链路、构建知识库、高效的对话系统、以及SFT等优化流程,优化大模型的生成能力; 职位要求 1. 计算机相关专业,本科及以上学历; 2. 良好的沟通与表达能力、思路清晰,较强的动手能力、逻辑分析能力和数据分析能力 3. 2年以上后端系统研发经验或者基础架构开发经验,熟练掌握 C/C++/Python,具备扎实的算法和数据结构功底 4. 参与过高并发分布式在线系统的研发,解决过相关性能问题 5. 熟悉NoSQL 数据库技术、内存数据库技术以及向量数据库(如 redis、memcache、faiss等) 6. 有大模型相关工作经验优先
  • 15k-25k 经验1-3年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1.异常分析处理,快速恢复应用系统故障,确保业务正常运行; 2.主动预防,分析应用的运行趋势找出潜在问题并防止其发生; 3.从运维角度评估应用架构可用性,变更风险,确保系统运行稳定; 4.有自动化理念,不断优化运维规范,搭建配置标准化及运维自动化平台建设; 5.探索前沿AI技术在运维领域的创新应用,推动新技术在运维场景中的落地应用。 任职要求 1、本科及以上学历,计算机相关专业,3年以上系统运维(SRE)或开发经验; 2、深入理解运维体系架构,具备扎实的运维专业知识,有故障排查、性能优化、容量规划等运维实战经验; 3、熟悉容器、微服务等云原生技术,有运维大规模服务架构应用经验; 4、熟悉主流AI框架,具备运维模型训练、调优和部署经验; 5、有良好的逻辑思维和分析能力,热衷于解决实际问题、追求极致 6、强烈的责任心、进取心、团队合作精神; 7、有知名互联网公司工作经历优先,有AI应用运维经验优先。
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • IT技术服务|咨询,新媒体,文化传媒 / 不需要融资 / 150-500人
    ■岗位职责 负责智慧政务、智慧城市业务国内、省内党政机关、企事业单位的市场开拓、活动策划和项目运维; 负责大河智库(大数据与人工智能)业务国内、省内党政机关、企事业单位的市场开拓、营销策划和项目运维。 ■岗位条件 (1)学历:普通高招大学本科及以上学历。 (2)年龄:原则上本科生不超过28周岁,硕士研究生不超过30岁,特别优秀者可适当放宽。 (3)专业:新闻与传播学、文学、法学、商学、经济学、统计学、管理学、马克思主义哲学、历史文化学、文化产业与旅游管理学、广播电视编导、摄影摄像、导演剪辑、市场营销学、经济金融、工业设计、电子商务、公共事业管理等相关专业。 (4)基础能力: 熟悉我国国体、政体,谙熟党政机关、企事业单位(包括金融保险证券投资、大型国企、上市公司等)的运行机制,了解智慧政务、智慧城市、智慧产业、大数字与人工智能在本行业的应用和运行规律,掌握政务、媒体行业信息化项目的发展趋势、业务流程和操作规范; 具备2-3年项目管理经验,精通项目管理的知识体系,如项目启动、规划、执行、监控和收尾等各个阶段的工作流程和方法,熟悉项目管理工具和技术; 具备优秀的协调沟通能力、团队管理能力、实践管理能力和问题解决能力; 具备风险管理知识,能够识别、评估和应对项目中的风险; 了解质量管理知识,确保项目交付成果符合质量标准。 (5)放宽及优先条件 具有符合本岗位特殊才能的,学历和年龄可适当放宽; 具有相关从业经历、从业经验且业绩卓著的,或者有客户资源、媒体工作经验的,学历和年龄可适当放宽,并优先考虑; 其他符合放宽或优先条件的。
  • 18k-24k 经验不限 / 本科
    工具类产品 / 上市公司 / 2000人以上
    岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: •基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; •设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; •通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 •负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; •基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; •针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 •**本科及以上学历,计算机相关专业,大数据开发相关经验; •​​熟练掌握并使用​​(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; •熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; •具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 •具有良好的沟通能力和组织协调能 ​​加分项:​​ •有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; •理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; •对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
  • 18k-24k 经验3-5年 / 本科
    工具类产品 / 上市公司 / 2000人以上
    团队背景 隶属于6767搜推工程策略组6767,是公司搜索与推荐业务的核心技术支撑团队。团队技术氛围开放,鼓励创新实践,团队成员具备丰富的分布式系统与海量数据处理经验。 岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: 61基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; 61设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; 61通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 61负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; 61基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; 61针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 61**本科及以上学历,计算机相关专业,大数据开发相关经验; 616767熟练掌握并使用6767(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; 61熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; 61具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 61具有良好的沟通能力和组织协调能 6767加分项:6767 61有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; 61理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; 61对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。