• 50k-80k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 团队介绍:集团信息系统部(Corporate Information System)负责字节跳动信息系统建设。通过构建领先的信息系统,助力公司业务和组织的长期高效经营与发展。与此同时,在安全、隐私、合规层面持续治理,为公司的稳健发展保驾护航。字节跳动的员工分布在全球超过120个城市,业务模式复杂,用户规模大。到现在,集团信息系统部已经覆盖人事、财务、法务、采购、审批、职场等多个领域,隐私安全工作同步开展,AIGC创新孵化也在逐步落地实现。 1、负责公司统一数据引擎大数据方向的架构设计和技术研发工作; 2、负责设计安全高效的大数据架构,推动数仓、BI团队搭建高效的数据流程与服务栈; 3、深入了解字节跳动各业务线的数据业务,发现并总结数据研发、数据质量、数据安全等方面数据问题,合理抽象方案,推动相关业务实施落地。 职位要求: 1、计算机基础知识扎实,具备良好的工程和算法能力; 2、有大数据体系工作经验,对数仓或BI体系的建设流程和分工有清晰的认识; 3、熟悉大数据相关工具/框架经验者优先,如Hadoop、Hive、Spark、Kafka、Flink、Clickhouse等; 4、有分布式、高性能系统研发经验者优先;对系统稳定性建设有实践经验者优先;熟悉多种存储系统者优先; 5、对技术有热情,具备良好的问题分析和解决能力,喜欢思考问题深层次的原因,并善于归纳和总结。
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、综合收入和支出,预测用户生命价值,打造渠道投放和内容采买评估体系; 2、基于用户表现,建立用户衰减模型,打造DAU预测和多产品互导平台; 3、整合业务、财务、人力数据,提供一站式查询平台。 职位要求: 1、强悍的编码、系统设计和troubleshooting能力; 2、熟悉至少一个分布式框架,如Hadoop、Hive、Spark、Storm、Kafka、Flink等; 3、有扎实的数据结构和算法功底,熟悉统计学习、机器学习、深度学习中一项或多项; 4、有数据挖掘、指导业务策略的经验(如渠道投放、内容采买和产品互导等)优先。
  • 18k-24k 经验3-5年 / 本科
    工具类产品 / 上市公司 / 2000人以上
    团队背景 隶属于6767搜推工程策略组6767,是公司搜索与推荐业务的核心技术支撑团队。团队技术氛围开放,鼓励创新实践,团队成员具备丰富的分布式系统与海量数据处理经验。 岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: 61基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; 61设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; 61通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 61负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; 61基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; 61针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 61**本科及以上学历,计算机相关专业,大数据开发相关经验; 616767熟练掌握并使用6767(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; 61熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; 61具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 61具有良好的沟通能力和组织协调能 6767加分项:6767 61有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; 61理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; 61对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
  • 20k-35k·16薪 经验5-10年 / 本科
    软件开发、金融 / 未融资 / 500-2000人
    岗位职责: 1.负责大数据相关项目的架构设计; 2.负责数据仓库的建设、模型设计及研发工作; 3.负责大数据离线及实时程序的设计.研发及调优工作; 4.负责完成数据治理工作落地要求; 5.负责大数据相关新技术的研究及本地化应用。" 任职要求: 1.具有5年以上大数据平台和相关产品设计研发经验; 2.精通Hadoop、HDFS分布式存储系统原理; 3.精通Hive,精通HQL、SQL,并具有一定的调优能力; 4.熟悉Kafka/Kylin/Elasticsearch/Flume等主流工具; 5.精通数据仓库的体系架构理论,具有数据仓库模型设计和数据治理实战经验; 6.了解数据治理相关领域,能够牵头数据标准制定。"
  • 金融 / 上市公司 / 2000人以上
    岗位职责: 1、参与风控决策、智能应用等项目的开发工作,包括需求分析、方案设计、编码和测试; 2、与团队成员协作,完成项目任务,确保项目按时交付; 3、学习和掌握新的技术和工具,提升自身的技术能力; 4、编写清晰、规范的代码,注重代码质量和可维护性。 任职要求: 1、本科及以上学历计算机或相关专业,熟练掌握golang/java/python其中一种编程语言; 2、理解IO、多线程、集合,熟练掌握MySQL应用和相关原理; 3、熟悉缓存、消息队列等分布式中间件,并有自己的理解; 4、有良好的系统分析、设计能力,熟悉软件系统分析/设计的方法论,并有实践经验; 5、有独立分析、解决问题的能力和经验,具有中大型互联网企业实习经验优先。
  • 11k-15k·13薪 经验1-3年 / 硕士
    移动互联网,数据服务 / 未融资 / 150-500人
    岗位职责 1)负责大数据相关系统架构设计与优化,推动项目和平台产品落地; 2)负责数据建模,基于人工智能算法进行数据挖掘,支持面向应用的数据统计、展示、评估、预测; 3)瞄准大数据相关项目、产品中的关键问题,开展重、难点技术攻关,提供有先进性的技术解决方案; 4)深度参与大数据存储平台的研发、测试、优化,进行大数据存储计算平台等基础设施的搭建、维护、优化与改造,提高系统可用性,扩展性和性能。 任职要求 1)3年及以上大数据、人工智能算法(如NLP、知识图谱等)相关研究或工作经验; 2)熟悉分布式系统、数据库管理优化及大数据技术,具备大数据智能分析、机器学习、智能推演博弈等领域技术理解者优先; 3)具备总体论证和设计能力,逻辑思维清晰,文档能力强者优先;
  • 40k-70k·14薪 经验5-10年 / 本科
    医疗丨健康,其他 / 不需要融资 / 500-2000人
    **职位名称:数据开发专家** **岗位职责:** 1. 负责公司数据平台的架构设计、开发与优化,提升数据平台的稳定性、性能和扩展性。 2. 参与数据仓库、数据湖、数据集成等数据架构的设计与实施,满足公司业务发展需求。 3. 负责数据开发流程的优化,提高数据开发效率,降低开发成本。 4. 与业务团队紧密合作,深入了解业务需求,为业务提供高效、准确的数据支持。 5. 负责数据质量监控与改进,确保数据准确性、完整性和一致性。 **任职要求:** 1. 本科及以上学历,计算机相关专业,5-10年及以上数据开发相关工作经验。 2. 具备优秀的数据架构能力,熟悉主流数据仓库、数据湖、数据集成技术,如Hadoop、Spark、Flink、Kafka等。 3. 熟悉至少一种数据库技术,如MySQL、Oracle、PostgreSQL、MongoDB等,具备良好的SQL编写能力。 4. 具备良好的编程基础,熟悉Java、Python、Scala等编程语言。 5. 具备出色的沟通能力,能够与业务团队、技术团队高效协作,确保项目顺利进行。 6. 具备以下大厂经验者优先:     - 腾讯、阿里巴巴、百度、京东等知名互联网公司;     - 国内外知名金融机构;     - 世界500强企业。 7. 具备以下技能者优先:     - 熟悉数据治理、数据安全、数据合规等相关知识;     - 具备大数据项目实施经验,熟悉数据仓库建模方法; **工作地点:**北京 **薪资待遇:**40K-80K 我们期待您的加入,共同推动公司数据平台的发展,为业务创造更多价值!
  • 15k-25k 经验5-10年 / 本科
    企业服务,数据服务 / 上市公司 / 500-2000人
    1、数据库内核研发工作、包括元数据服务、存储引擎等新功能开发; 2、根据公司流程,完成数据库模块的需求分析、概要设计、详细设计、编码、自测工作。 任职要求: 1、精通Go编程语言,熟练掌握MPP技术栈; 2、熟悉postgresql、greenplum内核,具备数据库内核开发经验; 3、熟悉分布式存储、缓存等技术; 4、熟悉linux下服务端多线程开发; 5、四维纵横、偶数、酷克数据优先考虑; 6、能接受半年以内的驻场开发,每月可轮换; 7、本科毕业工作年限不低于9年、硕士毕业工作年限不低于6年。
  • 10k-20k 经验在校/应届 / 本科
    电商 / 上市公司 / 2000人以上
    我们是淘天集团内覆盖从生产制造到消费者购物的全场景、全链路,并深度重塑各业务环节的电商技术团队;我们支持天猫超市、天猫国际等全部淘天自营业务,他们都是淘宝APP亿级流量入口的核心购物场景。 岗位职责: 1、支持的业务场景:支持淘天集团下的天猫超市、天猫国际、淘宝买菜等自营业务场景; 2、负责业务数据资产体系的建设,抽象提炼面向零售业务的从供应链到消费者端的全链路通用数据模型并实现BC联动,同时建立统一的数据标准; 3、负责业务的数据应用能力体系建设,让数据更好的赋能业务并基于业务的痛点、挑战来沉淀抽象通用的数据应用解决方案,让数据驱动业务的精细化运营并带来增量的价值; 4、探索AI大模型在数据技术能力和工具平台的建设,通过深度集成自营业务场景的核心需求,全面提升研发效能与经营智能化水平,为多元化业务场景打造高效、精准的智能化解决方案,驱动业务价值持续增长。 5、良好的业务前景和自身的全面发展,你将具备供应链领域的系统知识,同时具备互联网 + 供应链的综合型人才,成为全社会数据领域中的稀缺人才。团队氛围轻松愉快,技术氛围浓厚,团队组织、目标、成员稳定,欢迎小伙伴一起来造梦。 任职要求: 1、有从事分布式数据存储与计算平台应用开发经验,熟悉Hadoop生态相关技术并有相关开发经验,有Spark/Flink/java/python/机器学习算法的开发经验尤佳; 2、良好的思维逻辑性、语言表达能力及沟通协同能力,对技术由热情,愿意接受新的技术,有较强的自我驱动学习的能力。
  • 数据服务 / 上市公司 / 2000人以上
    ‌职位描述‌: 我们正在寻找一位在网络和数据安全领域拥有深厚技术功底的高级研发工程师,来加入我们的创新团队,共同打造行业领先的安全产品。作为团队的核心成员,您将负责设计并实现高效、可靠的解决方案,确保我们的安全产品能够有效保护用户的数据和网络安全。 加入思特奇你将: ‌1、产设计与架构规划‌:参与安全产品设计与架构规划,确保产品具有高可用性、可扩展性和安全性。 2、‌技术选型与实现‌:根据产品需求,选择合适的技术栈和工具链,完成关键模块的开发与实现。 ‌3、代码审查与优化‌:参与代码审查,提出改进意见,优化系统性能与稳定性。 ‌4、安全漏洞挖掘与修复‌:定期进行安全漏洞扫描与渗透测试,及时发现并修复潜在的安全问题。 ‌5、技术研究与创新‌:跟踪安全领域的最新技术动态,与团队在网络安全、数据安全等方面进行技术创新。 如果你是: 1、计算机科学及相关专业本科及以上学历,具有3-5年以上网络或数据安全相关领域的研发经验。 2、精通C/C++、Java、Python等至少一种编程语言,具备良好的编程习惯和代码质量意识。 3、深入理解网络安全原理,熟悉常见的网络攻击与防御手段。 4、熟悉TCP/IP协议栈、网络编程、加密算法等基础知识。 5、具备良好的问题分析与解决能力,能够独立承担复杂系统的设计与开发工作。 6、强烈的责任心和团队合作精神,能够在高压环境下保持高效工作。 期待心怀远大理想,不断追求卓越的您加入我们,与思特奇一起用软件改变世界! 思特奇——成立于1995年的中国信息化建设创领者和信息通信行业的领军企业(股票代码:300608.SZ); 在这里,我们立足自主可控、研发创新,凭借领先的5G、云、大数据、人工智能、物联网、区块链等新一代信息技术,为政府和企业客户提供全面的数字化转型和智慧运营服务;同时拥有思特奇研究院和未来科技研究院为自主研发和科研创新保驾护航; 【我们的愿景】 Our Vision 专注ICT技术,做全球化软件产品和服务企业,成为行业的权威和领导! 【我们的使命】 Our Mission 用创新的理念、独特的方法、有机的组织,打造东方文化背景下,提供一流软件产品和优质服务的现代化企业。 【我们的宗旨】 Our Business Purpose 云、大数据、万物互联、人工智能和智慧运营时代,产品、技术、服务、运营的可信赖专家! 【我们的价值观】 Our Values 正直诚实、客观公正、否定自我、敏捷迭代、追求卓越、坚持不懈、不断进步。 【我们的文化】Our Culture 员工与企业共同成长、企业与社会和谐发展 倡导开放、透明、无等级的沟通、无障碍的交流 谨慎稳健、诚信守诺、经验共享、团结合作 学习 思考 创新 行动 改进 成功
  • 25k-50k 经验3-5年 / 本科
    科技金融 / 未融资 / 2000人以上
    岗位职责 为大模型应用和智能化业务提供高质量数据集 1. 在安全领域包含内容认知、流媒体、智能审标、智能凭证等场景,参与建设高质量、多样性的数据,通过数据采集、AIGC生成等技术手段不断提高数据规模 2. 深入了解数据内容,分析数据的特征,持续优化数据低质过滤、去重和增强等能力,提升数据的质量 3. 制定严格的数据质量标准,对数据进行分析和分类,评估数据质量,解决数据主题分布、内容合规、反毒性、反偏见等问题 4. 构建Data-Centric AI数据闭环,探索在固定模型和评测情况下提高数据质量的路径,包括持续优化数据质量,复现大模型数据相关论文,研究数据和模型的Scaling Law、研究数据配比、数据混入策略与混入时机 5. 围绕更具体细分类数据(如内容检测、图像理解、视频理解等)构建相应大模型的数据-训练-评测链条,并针对细分类数据建立质量评估与优化体系,促进细分类数据质量提升。 岗位要求 1. 本科学历及以上,3年及以上工作经验,人工智能、机器学习、模式识别、统计学相关专业优先 2. 较为丰富的大数据研发经验,有PB级别数据处理经验;熟悉Spark/ODPS/Ray等大数据分布式平台 3. 熟悉数据挖掘、人工智能、多模态领域的相关研究工作和实践经验,拥有发表顶会论文、大模型研究工作、知名竞赛获奖、研究机构或一线互联网工作经验者优先 4. 熟练使用Python、Pytorch和CUDA等语言及工具,具备快速阅读和复现论文的能力,能够系统性对比研究领域的相关成果,并制定改进计划 5. 具备优秀的数据分析和解决问题能力,良好的团队合作精神及沟通意识 6. 具备良好的学习能力和主动性,能够跟进领域内最新技术研究成果,并结合应用场景快速实验和调优
  • 15k-30k·14薪 经验不限 / 本科
    金融 / 不需要融资 / 少于15人
    岗位职责: 1. 负责金融数据的清洗、校验、入库和定制开发 2. 负责大数据平台的建设、维护和优化 岗位要求: 1. **本科及以上学历,要求计算机、数学、统计等理工科专业,硕博士优先 2. 熟练掌握Python/C++,掌握Linux系统环境和Bash 3. 熟练掌握DolphinDB/Mysql等数据库,有时序数据处理经验优先 4. 熟悉Hadoop/Kafka等大数据平台框架及相关工具,了解k8s相关配置、操作及原理 5. 具有良好的沟通能力和团队协作能力,喜欢挑战困难,有Geek精神 经验要求:0-5年 福利待遇: 1. 薪资:15k-30k(14薪)
  • 20k-30k·16薪 经验3-5年 / 本科
    工具 / 上市公司 / 2000人以上
    工作职责: -负责构建大数据分析平台以及数据分析和挖掘工作 -跟进相关产品线的数据梳理,各数据指标的计算和分析 -参与海量数据的存储、查询和运营数据分析体系搭建 -运用hadoop、hive、spark、ES等分布式计算和存储平台 职责要求: -计算机相关专业,3年及以上相关工作经验,有扎实的计算机理论基础 -研究过Hadoop或者Spark源代码的优先 -熟悉Java/Python等编程语言,熟练使用SQL,有良好的编码习惯 -技术视野开阔,有强烈的上进心和求知欲,善于学习和运用新知识 -善于沟通和逻辑表达,良好的团队合作精神和积极主动的沟通意识 -具备大数据云平台、计算存储平台、可视化开发平台经验优先 百度地图
  • 20k-40k·14薪 经验不限 / 本科
    金融 / 不需要融资 / 少于15人
    岗位职责: 1. 负责金融数据的清洗、校验、入库和定制开发 2. 负责大数据平台的建设、维护和优化 岗位要求: 1. **本科及以上学历,要求计算机、数学、统计等理工科专业,硕博士优先 2. 熟练掌握Python/C++,掌握Linux系统环境和Bash,具有3年及以上项目开发经验 3. 熟练掌握DolphinDB/Mysql等数据库,有时序数据处理经验优先 4. 熟悉Hadoop/Kafka等大数据平台框架及相关工具,了解k8s相关配置、操作及原理 5. 具有良好的沟通能力和团队协作能力,喜欢挑战困难,有Geek精神
  • 短视频 / 上市公司 / 2000人以上
    职位描述 1、负责快手电商数据仓库的建设,构建各垂直应用的数据集市; 2、负责快手电商新产品数据统计、报表产出、效果监测、归因分析和商务支持; 3、定义并开发业务核心指标数据,负责垂直业务数据建模; 4、根据业务需求,提供大数据计算应用服务,并持续优化改进; 5、参与埋点设计、数据生产全流程等技术体系建设和保障工作; 任职要求 1、本科以上学历,两年以上大数据相关开发经验; 2、熟悉Linux平台,熟练使用Java、Python编程语言,编码基本功扎实; 3、有Hive、Kafka、Spark、Flink、HBase等两种以上两年以上使用经验; 4、熟悉数据仓库理论方法,并有实际模型设计及ETL开发经验,对于数据的架构和设计有一定的思考,具备良好的数学思维和建模思维; 5、熟悉分布式计算框架,掌握分布式计算的设计与优化能力,对Hadoop生态其他组件有一定了解,比如 HBase,Hadoop, Hive, Druid等 6、了解流式计算,熟悉至少一种实时计算引擎:Storm, Spark, Flink; 7、有很强的学习、分析和解决问题的能力,良好的团队合作意识,较强的沟通能力。 加分项: 有电商数据开发经验优先。