• 25k-50k 经验3-5年 / 本科
    企业服务 / 未融资 / 15-50人
    岗位职责 1、设计、开发和维护企业级大数据平台和解决方案,包括数据采集、数据存储、数据处理和数据分析等。 2、使用Flink等流式计算引擎,实现实时数据处理和流式分析,提供实时的业务洞察和决策支持。 3、针对OLAP需求,设计和实现数据立方体、多维数据模型和数据聚合查询,以支持复杂的联机分析处理。 4、编写高效且可扩展的大数据处理和分析代码,提高数据处理和分析的效率和质量。 5、与数据科学团队合作,开发和实现数据处理和分析的需求和解决方案。 6、进行数据模型设计和数据架构优化,提高数据存储和计算的性能和可扩展性。 7、负责数据质量和数据安全的管理和监控,确保数据的合规性和机密性。 8、研究和探索新的大数据技术和解决方案,以不断提高大数据处理和分析的效率和质量。 9、建立和维护技术文档和标准,确保大数据开发的规范和一致性。 任职要求 1、本科及以上学历,计算机科学、软件工程或相关领域。 2、3年以上大数据开发经验,熟悉大数据技术栈和工具,如Hadoop、Spark、Kafka、Hive等。 3、熟悉流式计算引擎Flink,具备在实时数据处理和流式分析方面的经验。 4、了解OLAP(联机分析处理)的概念和技术,具备数据立方体和多维数据模型的设计和开发经验。 5、熟练掌握编程语言,如Java、Python或Scala,具备良好的编码和调试能力。 6、熟悉大数据处理和分析的各种技术和工具,如数据流处理、批处理、数据仓库等。 7、具备良好的数据库和SQL技能,熟悉关系型数据库和NoSQL数据库。 8、具备良好的沟通和团队合作能力,能够与不同背景和专业的人合作,解决技术和业务问题。 9、具备较强的学习能力和自我驱动能力,热爱技术研究和创新。 10、有较好的英文阅读和写作能力,能够阅读和编写英文技术文档。 必备条件 1、在Flink和流式计算领域有深入的研究和实践经验。 2、在OLAP(联机分析处理)领域有相关项目经验。 3、有大数据架构设计和优化经验,能够提供有效的解决方案和建议。 4、具备数据挖掘和机器学习的基础知识和经验。
  • 25k-35k·14薪 经验5-10年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
  • 30k-50k·14薪 经验5-10年 / 本科
    移动互联网,企业服务 / 不需要融资 / 500-2000人
    职位描述 1、负责数据模型设计、数仓建设,维护和优化工作; 2、负责对接部门内数据采集、数据治理、数据分析需求,参与制定和执行对应大数据开发开发工作和对应计划文档输出; 3、负责对接部门外数据需求,参与制定和执行对应大数据开发开发工作和对应文档输出; 4、主导数据经营分析领域项目的实施,推进项目的实施与落地。 任职要求 1、5年以上大数据开发经验,有金融数据开发经验优先; 2、了解常用数据挖掘的原理,有数据建模经验优先; 3、有较为丰富SQL、ETL开发及调优等数据开发经验,至少熟悉Java,Scala,Python,R一种编程语言; 4、熟悉Hadoop、Hive、Sqoop、Kylin、Hbase、Spark等大数据架构经验; 5、能够独立负责数据平台子模块的设计、开发、及部分管理工作。
  • 25k-35k·14薪 经验5-10年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
  • 30k-45k·14薪 经验5-10年 / 本科
    移动互联网,广告营销 / 上市公司 / 2000人以上
    工作职责: 负责搜狐视频商业化的数据平台建设工作,包括: 1.负责数据平台、数据治理系统设计与搭建; 2.负责数据仓库建设、ETL开发、工作流任务优化以及解决相关技术问题; 3.负责行为日志、推荐策略和商业广告数据业务需求对接、数据分析与任务开发。 职位要求: 1.**本科及以上学历,计算机或相关专业优先;3年以上大数据开发、数据分析与处理经验,熟悉互联网产品运营和商业业务; 2.精通Scala/Java语言开发,熟悉Shell、Python等脚本开发,熟悉Linux系统; 3.熟悉大数据生态,精通Hadoop、Kafka、Spark、Flink技术,完成离线或实时大数据仓库设计与开发; 4.掌握数据建模理论,精通SQL开发与性能调优,熟练使用Hive、Doris等数据库组件; 5.有大型数据平台实际建设经验,在数据采集、数据开发、数据分析、数据建模等方面有深刻认识和实践经验; 6.有复杂业务系统的抽象设计能力,能独立对接业务需求和解决业务与技术问题; 7.具有良好的逻辑思维、表达和沟通能力,具备良好的团队合作精神,有较强的承压能力和工作责任心。
  • 25k-50k 经验5-10年 / 本科
    移动互联网 / 不需要融资 / 150-500人
    职责和任务: 1.架构设计: 设计和评估大数据架构,确保满足业务需求,包括数据采集、存储、处理和分析。 2.技术选型: 选择和评估大数据技术栈,包括但不限于Hadoop、Spark、Flink、Kafka等,确保系统的可维护性和性能。 3.数据治理: 制定和实施数据治理策略,确保数据质量、一致性和安全性。 4.性能优化: 分析和优化大数据处理流程,提高系统的性能和效率。 5.团队协作: 与数据工程师、数据科学家和其他相关团队密切合作,共同推动大数据项目的成功实施。 6.监控和维护: 建立监控机制,定期检查系统健康状况,并采取措施解决潜在问题。 7.新技术研究: 关注大数据领域的最新技术趋势,评估其在公司业务中的应用价值。 8.培训与指导: 培训团队成员,分享大数据领域的最佳实践,并提供技术指导。 资格要求: 1.本科及以上学历,计算机科学、信息技术或相关领域优先。 2.至少8年以上的大数据架构设计和实施经验。 3.深入理解Hadoop生态系统,包括HDFS、MapReduce、Hive等。 4.精通大数据处理框架,如Spark、Flink等。 5.熟悉实时数据处理和流处理技术,如Kafka。 6.具备良好的团队合作和沟通能力,能够与多学科团队协作。 7.出色的问题解决能力和创新思维。 8.有良好的领导力和项目管理经验。 9.具备数据治理和安全性的实践经验。 10.英语书写流利。
  • 短视频 / 上市公司 / 2000人以上
    职位描述 1、负责快手亿级用户的大数据平台产品的落地,包括分析工具、元数据管理、实时数据加工等系列平台产品; 2、负责数据产品架构设计和后端开发,不断优化系统架构,支撑业务规模增长,保障服务稳定; 3、负责数产品的功能迭代和性能优化,提高效率,优化流程。 任职要求 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力; 2、具备扎实的计算机基础,对技术有热情,愿意不断尝试新技术和业务挑战; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、熟练使用clickhouse、flink、HBase等开源大数据组件,具备数据组件化开发的能力; 5、有足够的耐心梳理和解决复杂而又繁多的产品研发问题,善于沟通与团队协作。
  • 15k-30k 经验1-3年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据组件开发。 2. 基于Python 体系下的数据质量引擎开发; 3. 基于Java及Linkis开源框架的质量引擎开发; 4. 大数据资产应用的开发、部署、调优; 5. 数据稽核引擎开发,数据共享交换能力对接。 任职要求: 1. 本科及以上学历,计算机相关专业; 2. 3年以上互联网或软件行业工作经验,熟悉Linux环境;熟悉Linux和Python开发; 3. 熟悉Spring,Spring boot,Spring Cloud等框架、熟悉Eclipse或IntelliJ IDEA开发工具等使用 以下满足其一即可: 4. 熟悉Hadoop,MapReduce,Hbase,Flink等大数据部署、运维、开发; 5. 熟悉数据治理理论概念、架构,有元数据、数据质量、数据标准、主数据等相关数据治理经验; 6. 有分布式相关项目(分布式存储/分布式计算/高性能并行计算/分布式cache)经验; 7. 对数据库的架构、扩展特点非常熟悉,能熟练进行SQL优化、集群部署、数据同步等。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 基于字节跳动海量数据,搭建字节跳动旗下商业化营销数据产品云图,提供人群、内容、货品、渠道洞察与分析、投后度量营销效果等能力,通过数据赋能商业化客户生意长效经营。 1、负责云图数仓架构设计与云图人群、内容、投后结案等功能模块数据开发; 2、负责云图数据治理工作,不局限于数据稳定性、数据质量等; 3、参与OLAP引擎选型,解决云图实时数据查询痛点问题。 职位要求: 1、具备数仓建模、数据治理设计与开发经验,掌握至少一门编程语言,如python、java、golang等; 2、熟悉掌握Spark/Hive/Hadoop/Flink工作原理及应用,具有海量数据处理经验优先; 3、熟悉掌握Clickhouse/Doris/ES/Druid其中一种或多种OLAP存储引擎,具备使用与调优经验优先; 4、对数据敏感,具备较强的业务能力,能够挖掘业务痛点并解决加分; 5、对互联网广告有较强的兴趣优先,具备良好的沟通协作能力、责任心。
  • 18k-36k 经验5-10年 / 本科
    人工智能服务 / B轮 / 150-500人
    工作职责: 1. 负责数据采集爬虫项目的开发维护、性能优化等, 2. 以架构思维,确保数据采集架构的扩展性、稳定性 3. 规划数据采集爬虫的技术路线,研究和破解相关平台的反爬措施,保证数据获取的速度和稳定性。 任职条件: 1. 熟练掌握各种爬虫技能,丰富的Java/Python数据采集开发经验,编程基础扎实; 2. 熟悉常见分布式系统架构和设计,熟悉分布式、缓存、消息等机制;能对分布式常用技术进行合理应用,解决问题; 3. 熟悉反爬机制,有安卓逆向 / ios逆向经验的优先
  • 15k-30k·13薪 经验3-5年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1、基于客户战略目标规划,负责大数据领域(数据治理/数据中台等)的产品规划、设计和推进落地; 2、充分深入业务,推动数据分析、数据治理框架等落地数据产品,赋能业务团队和业务系统; 3、进行产品全生命周期管理,持续改进和提升产品质量,配合业务发展需要,把控产品发展方向; 4、与团队成员协作配合,确保按时、高质量完成功能开发、上线。 任职要求: 1、本科以上学历,3年以上数据产品(数据中台/数据仓/数据治理等)的工作经验,负责行业级或平台级数据中台产品,具有toB/toG领域产品设计经验优先; 2、了解DataOps等数据中台理论与方法; 3、逻辑思维能力强,具备良好的业务理解能力和产品设计能力; 4、具备优秀的沟通和团队合作能力,擅于表达和沟通,具备较强的产品owner意识。
  • 12k-18k 经验3-5年 / 本科
    数据服务 / 上市公司 / 500-2000人
    岗位职责: 1、利用大数据相关技术,根据业务需求,对海量数据进行处理、分析、统计等; 2、数据组件性能调优运维及问题解决。 任职要求: 1、计算机及相关专业毕业,三年以上相关工作经验; 2、熟悉Java语言,精通SQL,熟悉至少一种主流数据库MySQL等; 3、熟悉Linux系统及常用命令,熟悉Shell脚本编程; 4、熟悉大数据生态圈,不限于HDFS、Hive、Hbase、Redis等组件,有Spark相关经验更优; 5、具有良好的沟通能力,工作态度积极主动,有良好的团队合作意识。
  • 20k-40k·16薪 经验3-5年 / 本科
    智能硬件,电商平台 / 上市公司 / 2000人以上
    1、负责小米集团数据中台核心产品的设计与研发,代码测试用例的编写,保障产品质量 2、负责大数据相关新技术的预研,探索在小米的落地场景 3、负责对重点项目提供技术支持和保障
  • 移动互联网,游戏 / 不需要融资 / 150-500人
    岗位职责: 1. 理解游戏数据业务,负责核心数据资产内容的设计与开发工作。 2. 负责数据仓库、数据集市的数据模型设计。 3. 负责数据仓库ETL规则设计和开发。 任职要求: 1. 本科及以上学历,计算机相关专业。 2. 3年以上数据仓库开发建设经验。1年以上游戏数据开发经验,熟悉数据仓库架构和模型设计。 3. 精通ETL开发和SQL开发及SQL性能调优。 4. 熟悉Python编程,了解相关编程框架。 5. 了解大数据生态相关技术,包括但不限于Hadoop, Spark, Flink, Kafka, ELK, Impala, Kudu等,有相关维护调优经验者优先。 6. 良好的数据敏感度,能从数据中发现问题并解释,较强的数据和业务理解能力。 7. 具有良好的表达能力和沟通能力,态度积极,责任心强,思维清晰。 8. 具有较强的抗压能力。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 飞书企业应用专注于泛财务领域。我们致力于建设基于大数据,搭建智能化、业财一体的财务中台,为互联网生态业务提供合规可控、效能卓越、业务洞察强的平台化能力,让经营者看清现状、预见未来。以技术中台的形式支撑财务税务,提供一站式产品能力,包括应收应付、发票、计税、付款,以及海量数据的清算、核算、报表、风控、分析。 欢迎对技术有孜孜追求的你,加入我们,一起探索和研究互联网时代的企业应用产品! 1、负责财务数据全链路质量保障和治理,包括但不限于数据同步、数据加工(离线+实时)、数据资产化(指标、标签等)、数据业务支撑(财报、管报、应用服务数据等); 2、负责数据类产品的质量保障方案设计及执行落地; 3、通过数据资产审计、制定准入准出机制、设计及执行数据校验核对、资产巡检、变更防控、仿真预演、监控应急等方式保障数据资产及数据产品的质量; 4、通过测试流程标准、方法和技术创新、自动化工具化等方式提升业务数据资产质量、数据产品质量、研测效率; 5、不断探究和建设一流的大数据领域技术风险保障体系和技术风险保障平台。 职位要求: 1、数据或数据产品相关的开发或测试4年以上经验,对数据仓库、数据挖掘、数据平台、数据引擎领域知识有较好储备; 2、熟练掌握一门或多门编程语言,如Java、SQL、Python、go等;有测试框架或质量平台开发经验、大型项目开发编码经验者优先; 3、熟悉数据仓库模型设计、ETL开发,维度建模设计方法,具备海量数据处理经验者优先;具备数据研发平台、数据服务等数据产品开发测试经验者优先;具备分布式数据存储与计算平台应用开发经验,熟悉Hadoop生态相关技术者优先; 4、具备大型项目的整体质量保障经验者优先;具备性能、异常、稳定性、用例自动生成等专业测试领域经验者优先; 5、具备较强的逻辑思维能力,谈判能力和冲突管理能力;良好的沟通能力和团队协作能力;快速适应变化、结果导向、追求上进。