• 25k-50k 经验3-5年 / 本科
    企业服务 / 未融资 / 15-50人
    岗位职责 1、设计、开发和维护企业级大数据平台和解决方案,包括数据采集、数据存储、数据处理和数据分析等。 2、使用Flink等流式计算引擎,实现实时数据处理和流式分析,提供实时的业务洞察和决策支持。 3、针对OLAP需求,设计和实现数据立方体、多维数据模型和数据聚合查询,以支持复杂的联机分析处理。 4、编写高效且可扩展的大数据处理和分析代码,提高数据处理和分析的效率和质量。 5、与数据科学团队合作,开发和实现数据处理和分析的需求和解决方案。 6、进行数据模型设计和数据架构优化,提高数据存储和计算的性能和可扩展性。 7、负责数据质量和数据安全的管理和监控,确保数据的合规性和机密性。 8、研究和探索新的大数据技术和解决方案,以不断提高大数据处理和分析的效率和质量。 9、建立和维护技术文档和标准,确保大数据开发的规范和一致性。 任职要求 1、本科及以上学历,计算机科学、软件工程或相关领域。 2、3年以上大数据开发经验,熟悉大数据技术栈和工具,如Hadoop、Spark、Kafka、Hive等。 3、熟悉流式计算引擎Flink,具备在实时数据处理和流式分析方面的经验。 4、了解OLAP(联机分析处理)的概念和技术,具备数据立方体和多维数据模型的设计和开发经验。 5、熟练掌握编程语言,如Java、Python或Scala,具备良好的编码和调试能力。 6、熟悉大数据处理和分析的各种技术和工具,如数据流处理、批处理、数据仓库等。 7、具备良好的数据库和SQL技能,熟悉关系型数据库和NoSQL数据库。 8、具备良好的沟通和团队合作能力,能够与不同背景和专业的人合作,解决技术和业务问题。 9、具备较强的学习能力和自我驱动能力,热爱技术研究和创新。 10、有较好的英文阅读和写作能力,能够阅读和编写英文技术文档。 必备条件 1、在Flink和流式计算领域有深入的研究和实践经验。 2、在OLAP(联机分析处理)领域有相关项目经验。 3、有大数据架构设计和优化经验,能够提供有效的解决方案和建议。 4、具备数据挖掘和机器学习的基础知识和经验。
  • 15k-30k·14薪 经验3-5年 / 本科
    新零售 / 不需要融资 / 500-2000人
    1、负责大数据平台方向规划和系统设计,参与核心代码编写,进行业务场景和平台实现; 2、构建高效,实时,稳定的流式计算引擎,支撑公司内数产品线的实时数据分析业务; 3、搭建大数据平台实时数仓,基于模型运用大数据技术,进行数据清洗、计算,提供稳定可靠的数据。 1、计算机或信息技术相关专业,本科以上学历,有5年以上的大数据领域工作经验,对大数据体系有深入的理解; 2、熟练使用python进行复杂业务逻辑的数据处理工作,具备海量数据处理以及性能优化的能力; 3、具有扎实的大数据系统构建经验,对Hadoop、Spark、Flink、HDFS、Hbase、Kafka等分布式框架和中间件有深刻理解,有大数据中间件开发经验者优先; 4、丰富的数据仓库及数据平台的架构经验,熟悉ETL设计开发,对大数据一站式处理有一定产品化经验者优先。
  • 15k-25k 经验3-5年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    岗位职责: 1、负责大数据设备部署、hadoop、MPPDB等常见商用平台的搭建、应用以及运维; 2、负责海量数据下精准营销平台流计算、实时计算的设计开发; 3、负责海量数据下可视化模块开发,依据业务需求和方案开发可视化品; 4、负责海量用户行为分析和预测,以及专家模型、分布式算法模型在精准营销方面的实现和应用等。 任职条件: 1、大学本科及以上学历,计算机、金融科技、应用数学、人工智能等相关专业,具有3年以上大数据相关工作经验; 2、精通至少一种编程语言,Java、Scala、Python; 3、熟悉hadoop、mppdb、hive、hbase、zookeeper、hue等中的多个,或者有相关工作经验优先; 4、熟悉spark streaming、storm、flink、redis、es中的多个,或者有相关工作经验优先; 5、熟悉spark mllib/GraphX、图计算、mahout中的多个,或者有相关工作经验优先; 6、具备数据挖掘、数据分析、机器学习知识背景,拥有反欺诈系统、推荐系统、精准营销、信息检索等方面的工作经验优先。
  • 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责大数据方向相关数据内容,数据产品的测试和质量保障; 2、根据需求文档、设计文档分析测试点、确定测试范围、制定测试方案和策略、编写测试计划及用例; 3、根据业务逻辑编写测试SQL脚本,独立完成项目中数据指标,服务的测试,保证数据质量和稳定性; 4、负责规划、设计、实施监控每日数据产品的质量情况,提前检测发现数据的异常; 5、编写自动化测试脚本提升测试效率。 职位要求: 1、计算机及软件相关专业本科以上学历; 2、3年以上大数据相关平台、产品、应用测试经验, 有Hadoop、hbsae、Oracle等大规模数据监控,处理测试经验者优先; 3、精通一门脚本语言,Python 或 shell,解决复杂问题和编写自动测试工具和系统的能力; 4、熟悉常见软件测试流程、方法、系统,有敏捷团队经验者尤佳; 5、参与测试效果评估和软件质量核查,通过测试相关流程、策略、方法和工具等创新,提升测试的质量和效率; 6、对互联网质量保证领域有强烈的兴趣,有互联网或数据测试开发经验优先; 7、有性能、安全、白盒测试等专业测试领域经验者优先,能主动进行技术钻研; 8、性格开朗乐观,积极主动,善于沟通,具有很强团队协作能力。
  • 30k-45k·14薪 经验5-10年 / 本科
    移动互联网,广告营销 / 上市公司 / 2000人以上
    工作职责: 负责搜狐视频商业化的数据平台建设工作,包括: 1.负责数据平台、数据治理系统设计与搭建; 2.负责数据仓库建设、ETL开发、工作流任务优化以及解决相关技术问题; 3.负责行为日志、推荐策略和商业广告数据业务需求对接、数据分析与任务开发。 职位要求: 1.**本科及以上学历,计算机或相关专业优先;3年以上大数据开发、数据分析与处理经验,熟悉互联网产品运营和商业业务; 2.精通Scala/Java语言开发,熟悉Shell、Python等脚本开发,熟悉Linux系统; 3.熟悉大数据生态,精通Hadoop、Kafka、Spark、Flink技术,完成离线或实时大数据仓库设计与开发; 4.掌握数据建模理论,精通SQL开发与性能调优,熟练使用Hive、Doris等数据库组件; 5.有大型数据平台实际建设经验,在数据采集、数据开发、数据分析、数据建模等方面有深刻认识和实践经验; 6.有复杂业务系统的抽象设计能力,能独立对接业务需求和解决业务与技术问题; 7.具有良好的逻辑思维、表达和沟通能力,具备良好的团队合作精神,有较强的承压能力和工作责任心。
  • 35k-70k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、 负责相关业务大数据项目整体架构规划; 2、 负责指导工程师进行技术验证与实现,关键技术问题的攻关,解决项目开发过程中的技术难题; 3、 负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、 根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、 熟练使用Hadoop、Hive、spark,flink等大数据框架,熟悉SQL、Java、Python等编程语言; 2、 有PB级大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、 6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。
  • 12k-18k 经验3-5年 / 本科
    数据服务 / 上市公司 / 500-2000人
    岗位职责: 1、利用大数据相关技术,根据业务需求,对海量数据进行处理、分析、统计等; 2、数据组件性能调优运维及问题解决。 任职要求: 1、计算机及相关专业毕业,三年以上相关工作经验; 2、熟悉Java语言,精通SQL,熟悉至少一种主流数据库MySQL等; 3、熟悉Linux系统及常用命令,熟悉Shell脚本编程; 4、熟悉大数据生态圈,不限于HDFS、Hive、Hbase、Redis等组件,有Spark相关经验更优; 5、具有良好的沟通能力,工作态度积极主动,有良好的团队合作意识。
  • 15k-22k·13薪 经验5-10年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    工作职责: 1、负责数据平台相关应用开发,平台建设、优化和维护; 2、负责业务数据的离线处理和流处理; 3、调研和跟进大数据平台的技术发展趋势; 4、编写和维护开发规范等文档。 工作要求: 1、本科及以上学历,计算机相关专业; 2、有扎实的SQL功底,过硬的Python、Shell的编程基础,熟悉数仓建设经验等,有机器学习、深度学习算法经验者优先。 3、熟练使用Spark、Flink等数据计算框架,Kafka消息中间件,Apache Doris或ClickHouse存储组件,对业界常见大数据中台产品较为熟悉,并具备5年以上项目实战经验; 4、具备5年及以上数据仓库相关项目实施经验,有数据目录、数据资产、数据服务等数据中台项目实施经验优先; 5、有责任心,具备独立工作的能力,工作态度端正、耐心、细致,抗压力强。
  • 20k-30k·13薪 经验5-10年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1、负责数据的批处理、流处理,数据湖、数据仓库的设计、开发,各业务分析主题的数据模型设计,指标整理,维度建模和业务分析专题建模; 2、负责数据挖掘专题的需求分析、业务场景建模、实验模拟、制定分析挖掘目标,数据挖掘模型的设计、开发,数据模型的研究、设计、实现、优化,结果分析及验证,挖掘结果展现,知识提取和整理; 3、负责将研究成果与数据分析系统应用专题整合,在业务领域推广应用、并与客户沟通。 任职资格: 1、大学本科以上学历,五年以上工作经验,具备一个以上数据挖掘相关项目经验,有项目管理经验优先; 2、有数据挖掘项目的开发经验,具有独立完成建模、调试、优化和展现汇报的能力;有电信行业数据仓库系统开发经验者优先; 3、熟练掌握 spark、flink、clickhouse、presto 等常见大数据开发技术; 4、熟悉一种数据展现工具;熟练掌握ETL工具或能够编写程序进行数据操作; 5、有耐心,有钻研精神,严谨,细致;具有良好的团队合作精神,善于沟通;有强烈的责任心,积极主动; 6、有过运营商从业经验者优先; 7、有云平台、营销平台、推荐系统、BI等产品的从业经验者优先 。
  • 企业服务 / 未融资 / 15-50人
    岗位职责 1、设计、开发和维护企业级大数据平台和解决方案,包括数据采集、数据存储、数据处理和数据分析等。 2、使用Flink等流式计算引擎,实现实时数据处理和流式分析,提供实时的业务洞察和决策支持。 3、针对OLAP需求,设计和实现数据立方体、多维数据模型和数据聚合查询,以支持复杂的联机分析处理。 4、编写高效且可扩展的大数据处理和分析代码,提高数据处理和分析的效率和质量。 5、与数据科学团队合作,开发和实现数据处理和分析的需求和解决方案。 6、进行数据模型设计和数据架构优化,提高数据存储和计算的性能和可扩展性。 7、负责数据质量和数据安全的管理和监控,确保数据的合规性和机密性。 8、研究和探索新的大数据技术和解决方案,以不断提高大数据处理和分析的效率和质量。 9、建立和维护技术文档和标准,确保大数据开发的规范和一致性。 任职要求 1、本科及以上学历,计算机科学、软件工程或相关领域。 2、3年以上大数据开发经验,熟悉大数据技术栈和工具,如Hadoop、Spark、Kafka、Hive等。 3、熟悉流式计算引擎Flink,具备在实时数据处理和流式分析方面的经验。 4、了解OLAP(联机分析处理)的概念和技术,具备数据立方体和多维数据模型的设计和开发经验。 5、熟练掌握编程语言,如Java、Python或Scala,具备良好的编码和调试能力。 6、熟悉大数据处理和分析的各种技术和工具,如数据流处理、批处理、数据仓库等。 7、具备良好的数据库和SQL技能,熟悉关系型数据库和NoSQL数据库。 8、具备良好的沟通和团队合作能力,能够与不同背景和专业的人合作,解决技术和业务问题。 9、具备较强的学习能力和自我驱动能力,热爱技术研究和创新。 10、有较好的英文阅读和写作能力,能够阅读和编写英文技术文档。 必备条件 1、在Flink和流式计算领域有深入的研究和实践经验。 2、在OLAP(联机分析处理)领域有相关项目经验。 3、有大数据架构设计和优化经验,能够提供有效的解决方案和建议。 4、具备数据挖掘和机器学习的基础知识和经验。
  • 12k-18k 经验3-5年 / 本科
    数据服务,硬件 / 未融资 / 50-150人
    1、主要负责金融证券行业项目B端系统、原型、可视化大屏等设计工作; 2、参与产品前期讨论,输出高保真体验demo和原型交互,制定系统和大屏的视觉设计方案,完成产品UI设计; 3、能独立与客户沟通,分析调研客户使用习惯,对产品用户体验提出专业建议与方案,有处理紧急项目的能力; 4、与产品、开发等沟通协作,推动项目高效,高质落地上线; 5、参与公司其他设计需求支持,制定设计标准规范。 职位要求: 1、本科以上学历,计算机、美术、设计等相关专业优先; 2、精通设计、交互方面相关软件,有三维、动效辅助更佳; 3、熟悉各平台设计原则,知晓交互设计流程及规范,可以独立完成整个设计过程;(简历请附上作品或链接) 4、了解金融行业知识,了解金融客户UI/UE特点,充分理解产品和用户; 5、清晰的设计方案表达能力和沟通能力。 岗位重点关注方向:B端后台和数据可视化。
  • 20k-35k 经验5-10年 / 本科
    汽车丨出行 / 上市公司 / 2000人以上
    职位描述 1. 负责大数据平台的运维,包括部署、管理、优化等,保障平台稳定运行; 2. 负责大数据集群的架构升级、容量规划、资源管理、成本优化、业务管控; 3. 理解大数据平台架构和业务流程,发现并解决系统问题或瓶颈; 4. 开发自动化运维、监控报警、故障处理脚本和工具,优化整个运维的流程; 岗位要求: 1. 本科及以上学历,5年以上规模集群管理和运维经验; 2. 熟悉Linux操作系统,熟悉TCP/IP基本原理,有系统调优经验; 3. 掌握Shell、Python等至少一门常见脚本语言; 4. 熟悉常用的监控工具,熟悉自动化运维工具(如Saltstack/Ansible/Puppet等),有二次开发能力者优先; 5. 熟悉hadoop/hbase/elasticseach等大数据组件的架构及基本原理; 6. 对运维体系有一定认识,善于思考总结,做事积极主动,责任心强、细心谨慎,能独立解决问题。
  • 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1、分析业务需求,建设数据库仓库,对业务部门提供数据支持; 2、参与数据源分析,完成大数据平台与各业务系统的数据对接; 3、完成基于大数据技术平台基础上的数据仓库设计和ETL开发; 4、调研相关技术,优化大数据开发流程,规划大数据平台应用。 任职标准: 1、3年以上数据仓库相关工作经验, 有互联网、电商行业数据仓库建设经验; 2、精通Hive-sql编写和优化,精通常用etl工具,至少熟悉java、python、shell等语言中一种; 3、精通大数据背景下数据仓库模型设计,熟练掌握OLAP的维度建模设计方法; 4、有数据平台(数据开发、治理、资产等)相关建设经验; 5、责任心强,有较强沟通能力和团队合作精神; 6、有spark streaming、flink等实时数据开发经验; 7、有统计学数学知识,海量数据处理、数据分析和挖掘经验者优先
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;