• 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:大模型数据服务中心,是抖音集团旗下为大模型业务提供数据、评估、运营等专业解决方案的团队; 主要承接大模型数据生产、大模型评估及运营相关的业务,与研发、产品等团队紧密合作,在预训练、数据监督微调、模型强化学习、模型能力评估、产品运营等大模型全链路数据环节,共同推动模型能力持续提升与应用。 1、参与GUI大模型相关训练集、评测数据的标准制定、标注、评估工作,独立完成Agent等自动化标注&评测工具的搭建,协助产品,算法快速提升模型能力; 2、与业务方、产品、算法团队紧密协作,深度探索并构建全、半自动化机标注流程的数据处理策略,通过不断尝试创新技术方案,优化标注流程效率与质量; 3、基于数据处理策略确认数据理想态,综合运用PE、搜索、知识库、代码等手段,探索前沿技术在机标工作流中的应用,构建完整且高效的机标工作流,显著助力业务提效; 4、针对部分涉及数据抓取、数据处理、工具开发的项目,联动业务方共同探索并制定创新性技术方案,完成技术开发工作,推动项目落地; 5、基于各业务发展动态、数据特性,积极探索行业前沿技术,打造通用提效产品与工具,严格确保工具的准确率与覆盖率,为业务发展提供坚实技术支撑。 职位要求: 1、2026届本科及以上学历在读,计算机科学、统计学等专业背景优先; 2、至少熟练掌握一种编程语言,具备快速学习新技术的能力优先; 3、有开发工作经验、工程化经验(重点掌握Python数据处理、SQL等数据库工作、Hadoop/Spark等集群环境),熟悉分布式系统原理与实践; 4、具备敏锐的产品思维,密切关注并深入了解生成式AI大模型前沿技术,尤其是VLM多模态模型等,具备优秀的内容理解和推理分析能力,能将前沿技术转化为实际业务价值; 5、具备较强的自驱力,工作细心且责任心强,具备出色的团队沟通、协作能力与推动能力,能够在跨部门协作中有效整合资源,推进技术方案落地实施; 6、有GUI项目产品研发经验优先。
  • 6k-8k 经验在校/应届 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:字节数据BP团队以数据高效赋能业务为使命,在字节内部深入各业务线,以数据建设为基础,业务目标为导向,提供专业,稳定,高效的数据服务和架构方案。 1、参与字节跳动抖音、直播、番茄小说等业务离线和实时数据仓库建设工作; 2、面向PB级超大规模数据问题,每天处理千亿增量的用户行为数据; 3、为大数据的全生命周期提供服务,覆盖数据产生,传输,建模,统计分析,实验评估,可视化的全流程; 4、构建设计良好的数据流、数据仓库、调度系统、查询引擎,数据服务、分析系统、流程规范,数据工具/产品,降低数据的使用门槛,保证系统稳定高效运行,以实现数据的最大价值。 职位要求: 1、2026届本科及以上学历在读,计算机、软件工程等相关专业优先; 2、熟悉数据仓库实施方法论、了解数据仓库体系; 3、会使用SQL,掌握Java、Python、R、Scala、C/C++中任意一门编程语言; 4、有大数据集、分布式计算工具(Map/Reduce,Hadoop,Hive等)工作经验优先; 5、思路清晰,善于思考,有很强的数据分析能力,能独立分析问题并推动解决问题; 6、每周可以实习5天以上,连续实习3个月以上。
  • 企业服务,金融 / 不需要融资 / 500-2000人
    工作职责: 1、从产品、推广与业务的角度,运用数据挖掘/统计学的理论和方法构建相应数据体系与数据模型,并负责对数据模型进行优化、迭代和提升; 2、根据业务发展需求,合理运用、设计业务指标、报表,推动产品化相关工作; 3、了解用户提出的需求,完成需求分析和设计文档,保证与用户原始需求的一致性以及设计的合理性; 4、负责算法模型咨询和日常维护,对日常运行中问题进行统计、分析; 5、完成领导交办的任务; 任职资格: 1、本科及以上学历,计算机、数学、统计或相关专业; 2、具备一定的算法研发实践经验:如掌握Python/C++/Java等编程语言,熟悉TensorFlow/PyTorch等框架,具备海量数据处理经验(Hadoop/Hive/Spark等),在机器学习、深度学习、NLP等领域有实际项目经验,熟悉大模型(如GPT、BERT)的调优与应用; 3、具备良好沟通和跨部门协作能力,能快速理解业务需求并转化为技术方案。
  • 5k-10k 经验不限 / 本科
    企业服务 / 未融资 / 少于15人
    岗位职责: 1. 负责公司数据采集系统的设计与开发,实现高效、稳定的数据爬取; 2. 根据业务需求,制定数据抓取策略,优化爬虫算法,提高数据抓取速度和准确性; 3. 负责数据清洗、去重、存储等后端处理工作,确保数据质量; 4. 跟踪分析爬虫技术的发展趋势,对现有系统进行优化升级; 5. 与其他团队密切配合,完成数据挖掘、分析等相关工作; 6. 遵守相关法律法规,确保数据采集的合规性。 岗位要求: 1. 计算机相关专业本科及以上学历,2年以上爬虫相关工作经验; 2. 熟练掌握Python、Java、C++等至少一种编程语言,具备良好的编程基础; 3. 熟悉主流的爬虫框架,如Scrapy、requests等; 4. 熟悉Web前端技术,如HTML、CSS、JavaScript等; 5. 熟悉数据库技术,如MySQL、MongoDB等; 6. 熟悉Linux操作系统,能熟练使用shell脚本; 7. 具备良好的数据结构和算法基础,能独立解决复杂问题; 8. 具备良好的沟通能力和团队协作精神,能承受工作压力; 9. 有以下经验者优先: - 有大规模分布式爬虫开发经验; - 熟悉反爬虫技术,能应对网站反爬措施; - 熟悉大数据处理技术,如Hadoop、Spark等。 薪资待遇: 1. 薪资范围:面议,根据个人能力及经验水平; 2. 享有五险一金、年终奖、项目奖金等; 3. 提供完善的职业发展路径和晋升机会; 4. 提供良好的工作环境和发展空间。 联系方式: 有意者请将个人简历发送至:[邮箱地址],邮件主题请注明“爬虫工程师+姓名”。我们会尽快回复您的邮件,谢谢!
  • 5k-7k 经验不限 / 本科
    移动互联网 / 未融资 / 50-150人
    【岗位职责】 1.协助完成业务数据的收集、清洗、整理与分析,为业务决策提供数据支持; 2.参与数据可视化工作,通过图表、报告等形式清晰呈现分析结果; 3.协助开发和优化数据分析工具或脚本,提升数据处理效率; 4.跟踪业务关键指标,发现数据异常或趋势,并提出优化建议; 5.配合团队完成其他与数据相关的临时性任务。 【任职要求】 1.学历专业:本科及以上学历,数学/统计学/计算机相关专业优先; 2.技能要求: 熟练使用Python或R进行数据处理和分析(需掌握Pandas/Numpy等工具); 熟悉SQL,能独立完成数据提取和简单ETL流程; 了解常用数据分析方法(如回归分析、聚类分析等); 3.加分项: 有信息流广告优化师经验或广告投放系统实操经历者优先; 熟悉Hadoop/Spark等大数据处理框架,或有用户画像建模经验; 具备机器学习基础,能应用聚类、回归等算法解决业务问题。 4.其他要求: 逻辑清晰,对数据敏感,具备良好的学习能力和沟通能力; 至少保证3个月全职实习,每周出勤5天以上,优秀者可转正。 【公司优势】 资源支持:专注数字营销领域,提供行业前沿资源及实战机会; 成长体系:每半年一次考评的调薪机会 福利关怀:五险一金、年度体检、下午茶福利 行业地位:通信行业信息流广告****0,连续3年业绩增长率超200% 数据资产:日处理亿级广告曝光数据,接触OCPX智能投放等前沿业务场景 决策影响:分析结论直接触达CEO及业务负责人,驱动千万级预算分配 技术赋能:配备专业数仓团队支持,提供GPU算力资源及数据中台工具 行业视野:定期开展头部媒体(如巨量引擎)数据方法论专项研讨 期待您的加入:与我们一起深度挖掘信息流广告的商业价值,打造数字营销行业标杆案例!
  • 12k-23k 经验不限 / 本科
    企业服务,人工智能 / 不需要融资 / 50-150人
    岗位要求: 1.本科3年及以上或硕士研究生2年及以上机器学习建模开发经验 2.计算机科学与技术、信息管理、数学、统计、计量或金融和财经相关专业 2.具有扎实的建模理论基础和数理统计基础,熟练掌握建模的一般过程 3.熟悉主流的机器学习(聚类、xgboost、lightgbm、随机森林、回归等)、深度学习开发框架,熟悉分布式计算框架 4.具有金融领域精准营销、智能风控相关项目经验优先 技能要求: 1.熟练使用SQL、Hadoop、Hive等数据必备技能; 2.熟悉各类机器学习算法(聚类、xgboost、lightgbm、随机森林、回归等)及其在金融领域的应用,具体独立建模和跟踪迭代能力; 3.精通Python、R等至少一门编程语言,熟悉常用的数据处理和分析库,如Pandas、Numpy、Scikit-learn、TensorFlow等。
  • 10k-20k 经验不限 / 本科
    IT技术服务|咨询 / 未融资 / 50-150人
    株式会社サマシー是一家专注于[行业领域,如:人工智能、大数据、云计算、企业数字化解决方案等]的创新型企业,致力于通过前沿技术推动行业变革,助力客户实现数字化转型。公司在日本成立于[2018年11月],总部位于[日本东京],汇聚了一支由资深技术专家、行业顾问和研发人才组成的精英团队,核心成员均来自国内外知名高校和科技企业。 我们以技术创新为驱动,为客户提供[具体服务或解决方案,如:智能数据分析平台、企业级SaaS服务、AIoT解决方案等],广泛应用于[金融、医疗、制造、零售等行业],帮助客户提升效率、优化决策并创造长期价值。 愿景:成为[行业领域]的技术领导者,用科技赋能全球企业。 株式会社サマシー招聘职位需求 1. 高级Java开发工程师 薪资范围:20K-40K/月(13-16薪) 岗位职责: 负责公司核心业务系统的架构设计、开发和优化; 参与高并发、分布式系统的性能调优与稳定性保障; 协同团队完成技术攻关,推动代码规范与技术创新。 任职要求: 5年以上Java开发经验,精通Spring Boot、微服务架构; 熟悉MySQL、Redis、MQ等中间件,有分布式系统设计经验; 具备良好的编码习惯,对高可用、高并发场景有实战经验; 有云计算(AWS/Azure/阿里云)经验者优先。 2. 前端开发工程师(React/Vue方向) 薪资范围:15K-30K/月 岗位职责: 负责公司Web端及移动端H5产品的开发与优化; 参与前端架构设计,提升用户体验和性能; 与产品、后端团队协作,高效交付高质量代码。 任职要求: 3年以上前端开发经验,精通Vue.js或React框架; 熟悉TypeScript、Webpack,掌握前端工程化实践; 有Hybrid App或小程序开发经验者优先; 对UI/UX有敏感度,能独立解决复杂交互问题。 3. 大数据开发工程师 薪资范围:25K-45K/月 岗位职责: 构建和维护大数据平台,处理海量数据存储与计算需求; 开发数据ETL流程,支持数据分析与机器学习应用; 优化Hadoop、Spark、Flink等框架的性能与稳定性。 任职要求: 熟悉Hadoop生态,精通Spark/Flink实时计算框架; 掌握SQL/NoSQL数据库(Hive、HBase、ClickHouse等); 有数据仓库建模经验,熟悉数据治理流程; 熟悉Python/Java/Scala至少一门语言。 4. DevOps工程师 薪资范围:18K-35K/月 岗位职责: 设计并维护CI/CD流水线,实现自动化部署与监控; 管理Kubernetes集群,优化云原生架构的稳定性; 负责运维工具链开发,提升团队效率。 任职要求: 熟悉Docker/K8s、Jenkins、Ansible等工具; 精通Linux系统及Shell/Python脚本开发; 了解公有云(AWS/Azure/阿里云)服务; 有监控系统(Prometheus/Zabbix)经验者优先。 5. 测试开发工程师 薪资范围:15K-30K/月 岗位职责: 设计自动化测试框架,提升测试覆盖率与效率; 参与性能测试与安全测试,保障系统可靠性; 推动质量保障流程,与研发团队协作优化代码质量。 任职要求: 熟悉Selenium/Jmeter等工具,掌握Python/Java编程; 了解接口测试、压力测试方法论; 有持续集成(CI/CD)经验者优先; 计算机相关专业,3年以上测试开发经验。 福利待遇 五险一金 + 补充商业保险 弹性工作制 & 远程办公机会 年度体检、带薪年假、节日福利 技术培训 & 职业发展通道
  • 10k-15k 经验不限 / 硕士
    企业服务,人工智能 / 未融资 / 15-50人
    岗位职责: 1.负责使用爬虫,NLP,大语言模型等进行微生物RNA,培养基环境数据采集、清洗、预先处理和分析工作。 2.参与预测算法的设计与实施,包括数据模型的设计、数据流程的优化等。 3.协助进行大数据相关的研究工作,包括新技术、新方法的探索和应用。 4.需要英文材料阅读能力 任职要求: 1.计算机科学、统计学、数学或相关专业研究生及以上。 2.对大数据有浓厚的兴趣,愿意从事大数据相关的工作。 3.熟悉至少一种编程语言,如Python、Java、Scala等。 4.了解大数据相关的技术和工具,如Hadoop、Spark、Hive等。 5.具备良好的逻辑思维能力,能够解决复杂的问题。 6.具备良好的沟通能力和团队合作精神,能够承受工作压力。 7.英语四六级或者雅思托福 8.有国际论文期刊发表经验者优先 *******.面试通过后能够即可到岗*********
  • 10k-16k 经验不限 / 本科
    数据服务,通讯电子 / 未融资 / 50-150人
    岗位职责: 1.负责大数据分析平台的系统部署、运行和系统维护工作; 2.负责集群的稳定性维护、性能调优; 3.负责大数据分析平台的系统监控、应急响应和故障排除; 4.负责系统运维、监控、部署相关的功能开发和技术文档编写; 5.负责开发运维工具、简化日常运维工作。 岗位要求: 1.了解日志系统、监控告警系统、自动化运维平台,有相关开发经验优先; 2.深入了解Linux系统,能独立部署开源软件,熟悉并掌握shell或python脚本语言; 3.深入了解运维体系技术、熟悉容量规划,架构设计和性能优化; 4.懂信息技术安全者优先考虑。 5.熟悉Hadoop生态组件,对于HDFS、Yarn等组件的日常操作较为熟练,能够对组件的运行日志进行简单分析 6.熟悉ansible等批量集群管理工具优先
  • 通讯电子 / 不需要融资 / 2000人以上
    1、具备人工智能AI算法、大数据算法、数据结构算法设计和开发能力; 2、具备前沿人工智能技术跟踪和业界趋势的跟踪和算法应用能力; 3、至少掌握Java/Python/C/Rust其中一种开发语言,掌握Hadoop开源工具使用更佳; 4、至少掌握一种数据挖掘工具和深度模型训练工具,如Tensorflow、caffe、matlab; 5、具备较强的动手实践能力,能够快速把想法用算法程序的实现; 6、具备挑战不可能的精神和创新意识,主动担责,攻坚破难; 7、具备良好的团队合作精神,善于沟通。
  • 10k-20k 经验在校/应届 / 本科
    电商 / 上市公司 / 2000人以上
    我们是淘天集团内覆盖从生产制造到消费者购物的全场景、全链路,并深度重塑各业务环节的电商技术团队;我们支持天猫超市、天猫国际等全部淘天自营业务,他们都是淘宝APP亿级流量入口的核心购物场景。 岗位职责: 1、支持的业务场景:支持淘天集团下的天猫超市、天猫国际、淘宝买菜等自营业务场景; 2、负责业务数据资产体系的建设,抽象提炼面向零售业务的从供应链到消费者端的全链路通用数据模型并实现BC联动,同时建立统一的数据标准; 3、负责业务的数据应用能力体系建设,让数据更好的赋能业务并基于业务的痛点、挑战来沉淀抽象通用的数据应用解决方案,让数据驱动业务的精细化运营并带来增量的价值; 4、探索AI大模型在数据技术能力和工具平台的建设,通过深度集成自营业务场景的核心需求,全面提升研发效能与经营智能化水平,为多元化业务场景打造高效、精准的智能化解决方案,驱动业务价值持续增长。 5、良好的业务前景和自身的全面发展,你将具备供应链领域的系统知识,同时具备互联网 + 供应链的综合型人才,成为全社会数据领域中的稀缺人才。团队氛围轻松愉快,技术氛围浓厚,团队组织、目标、成员稳定,欢迎小伙伴一起来造梦。 任职要求: 1、有从事分布式数据存储与计算平台应用开发经验,熟悉Hadoop生态相关技术并有相关开发经验,有Spark/Flink/java/python/机器学习算法的开发经验尤佳; 2、良好的思维逻辑性、语言表达能力及沟通协同能力,对技术由热情,愿意接受新的技术,有较强的自我驱动学习的能力。
  • 教育,数据服务 / 不需要融资 / 15-50人
    数据分析、大数据、人工智能、区块链培训讲师 工作地点:成都/全国 工作性质:全职/兼职 薪资:面谈 要求: 1. 熟悉数理统计、商业智能、数据分析、数据挖掘、可视化、大数据等理论内容之一。 2. 熟练运用SPSS、SAS、R、EXCEL、Python等软件之一。 3. 有一定的项目实战经验 4. 熟悉hadoop生态,具备数据挖掘项目能力, 5.对任何数据领域有一定特长皆可考虑 各层次培训需求都会有,有共同创业精神考虑的朋友可以提出交流。 欢迎有志于CDA数据科学事业的朋友加入。
  • 6k-8k·14薪 经验在校/应届 / 本科
    人工智能服务,IT技术服务|咨询 / B轮 / 500-2000人
    岗位职责: 1.参与工业互联网平台的对外运营工作,包括平台部署、技术工单处理、漏洞修复; 2.参与相关项目实施保障,配合项目组完成平台运营维护相关任务; 3.编制运营相关文档、手册,制作平台运营能力所需的内外部文档材料; 4.参与运营管理标准与规范,并配合上级推进执行。 任职要求: 1.本科以上学历,计算机科学、软件工程、网络工程、计算机网络技术电子科学等理工类专业。 2.具有云计算平台技术运维工作经验,熟悉容器技术底层原理和K8S架构,熟悉云原生技术; 3.对Hadoop的大数据体系有深入认识,不限于Hadoop、Hive、HBase、Yarn、Spark、Flink、Kafka、ES等大数据项目,具备集群搭建、管理、配置优化经验者优先; 4.熟悉自动化运维及监控相关工具软件,熟悉ansible脚本等优先;操作系统、网络、数据库等基础扎实,能够从原理上分析和解决问题,熟悉至少一种脚本语言(Shell、Python),能够编写执行脚本; 5.熟悉实施文档、部署文档的编制工作; 6.具备良好的语言表达与文档编写能力,乐于为各类用户解决平台相关问题,并持续促进平台改进;
  • 2k-3k 经验在校/应届 / 本科
    其他 / 不需要融资 / 2000人以上
    岗位职责 1.制定和维护数据治理框架,包括数据质量、数据安全和数据合规性。 2.与业务部门合作,确保数据治理政策与业务需求相符合。 3.监控数据治理政策的执行情况,定期进行审计和评估。 4.管理数据分类和数据生命周期。 5.协调数据治理相关的项目和倡议。 6.为数据治理相关的技术和工具提供支持和指导。 7.确保数据治理流程符合相关法律法规和行业标准。 任职要求 1.计算机类相关专业本科以上学历(优秀者学历与专业适当放宽)。 2.强大的分析和解决问题的能力。 3.优秀的沟通和人际交往能力。 4.熟悉SQL、数据仓库和ETL工具。 5.熟悉Hadoop、Spark和Flink等分布式框架使用与运维。 6.熟悉java、python、C等其中至少一种开发语言。 7.有使用数据治理工具,ETL工具(如kettle)的经验者优先。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:负责公司数个产品的推荐引擎、平台开发和大数据等工作。我们的工作涉及海量数据处理和对产品数据复杂深入的分析。在这里,你可以深入钻研大数据产品的改进和优化,探索前沿的技术;可以通过对产品的深度理解和思考,将数据应用到业务中去;也可以通过对产品和内容生态的深度分析,影响产品未来的发展方向。 1、参与字节跳动抖音、直播、番茄小说等业务离线和实时数据仓库建设工作; 2、面向PB级超大规模数据问题,每天处理千亿增量的用户行为数据; 3、为大数据的全生命周期提供服务,覆盖数据产生,传输,建模,统计分析,实验评估,可视化的全流程; 4、构建设计良好的数据流、数据仓库、调度系统、查询引擎,数据服务、分析系统、流程规范,数据工具/产品,降低数据的使用门槛,保证系统稳定高效运行,以实现数据的最大价值。 职位要求: 1、2026届本科及以上学历在读,计算机、软件工程等相关专业优先; 2、熟悉数据仓库实施方法论、了解数据仓库体系; 3、会使用SQL,掌握Java、Python、R、Scala、C/C++中任意一门编程语言; 4、有大数据集、分布式计算工具(Map/Reduce,Hadoop,Hive等)工作经验优先; 5、思路清晰,善于思考,有很强的数据分析能力,能独立分析问题并推动解决问题; 6、每周可以实习5天以上,连续实习3个月以上。