• 15k-25k 经验3-5年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    岗位职责: 1、负责大数据设备部署、hadoop、MPPDB等常见商用平台的搭建、应用以及运维; 2、负责海量数据下精准营销平台流计算、实时计算的设计开发; 3、负责海量数据下可视化模块开发,依据业务需求和方案开发可视化品; 4、负责海量用户行为分析和预测,以及专家模型、分布式算法模型在精准营销方面的实现和应用等。 任职条件: 1、大学本科及以上学历,计算机、金融科技、应用数学、人工智能等相关专业,具有3年以上大数据相关工作经验; 2、精通至少一种编程语言,Java、Scala、Python; 3、熟悉hadoop、mppdb、hive、hbase、zookeeper、hue等中的多个,或者有相关工作经验优先; 4、熟悉spark streaming、storm、flink、redis、es中的多个,或者有相关工作经验优先; 5、熟悉spark mllib/GraphX、图计算、mahout中的多个,或者有相关工作经验优先; 6、具备数据挖掘、数据分析、机器学习知识背景,拥有反欺诈系统、推荐系统、精准营销、信息检索等方面的工作经验优先。
  • 15k-22k·13薪 经验5-10年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    工作职责: 1、负责数据平台相关应用开发,平台建设、优化和维护; 2、负责业务数据的离线处理和流处理; 3、调研和跟进大数据平台的技术发展趋势; 4、编写和维护开发规范等文档。 工作要求: 1、本科及以上学历,计算机相关专业; 2、有扎实的SQL功底,过硬的Python、Shell的编程基础,熟悉数仓建设经验等,有机器学习、深度学习算法经验者优先。 3、熟练使用Spark、Flink等数据计算框架,Kafka消息中间件,Apache Doris或ClickHouse存储组件,对业界常见大数据中台产品较为熟悉,并具备5年以上项目实战经验; 4、具备5年及以上数据仓库相关项目实施经验,有数据目录、数据资产、数据服务等数据中台项目实施经验优先; 5、有责任心,具备独立工作的能力,工作态度端正、耐心、细致,抗压力强。
  • 18k-22k 经验5-10年 / 本科
    人工智能服务,科技金融 / 上市公司 / 500-2000人
    大数据开发工程师 岗位职责: 1、负责搭建大数据技术架构,负责主导从0到1建设数据中台产品。 2、参与公司技术架构的升级迭代工作,参与应用软件系统的分析、设计、编码工作; 任职资格: 1、本科及以上学历,计算机相关专业毕业,有五年以上开发经验; 2、熟悉Java, 同时掌握scala、python等语言者优先; 3、熟悉springCloud及周边技术架构体系:springboot、mybatis、nacos、MQ等; 2、熟悉大数据Hadoop/Yarn/Presto/Spark/Hive/Flink等相关技术栈,熟悉大数据应用场景; 熟悉Hive/MySQL/ES/Clickhouse/StarRocks的基本原理和调优策略,熟悉大数据处理相关技术,具有丰富的大数据开发经验; 5、熟悉分布式高可用系统架构设计,对网络安全技术有一定的了解。 6、熟练掌握mysql、Hbase、redis等主流关系型与非关系型数据库的应用与配置,具备一定的sql优化能力,对事务理解深刻; 7、具备很强的系统分析与设计能力;能够熟练地完成需求分析、概要设计、详细设计、数据库设计、系统上线等项目设计工作以及编写相关文档; 9、具有很强责任心、良好的学习能力、团队协作能力和沟通协调能力,工作认真、积极、主动; 10、思维活跃、逻辑缜密。
  • 20k-30k·14薪 经验3-5年 / 本科
    移动互联网,文娱丨内容 / 上市公司 / 500-2000人
    岗位职责: 1、负责酷我业务所需的数据中台搭建,参与核心代码的编写开发,包括数据分析体系,数据资产管理,为产品、增长提供数据服务支持; 2、负责数据中台底层/应用层/分析层规划设计,与内、外部高效合作,积极推动业务进展、项目落地实施; 3、负责数据质量和效率提升,优化链路与改进,实现自动化检测,保障业务数据在采集、消费链路上的稳定性。 岗位要求: 1、计算机或相关专业本科及以上学历(理工类相关专业,统计、数学),3年以上互联网产品经验;有过数据挖掘、DMP、用户生命周期管理相关经验为佳; 2、具备数据产品架构规划能力,目标驱动意识强,有完整的数据体系经验; 3、具有较丰富的数据仓库数据建模、数据管理、数据分析、数据挖掘的项目实践经验, 对市场上各类数据产品有深刻的了解; 4、技术背景深厚,掌握HiveSQL ,Spark,Hadoop,clickhouse,flink生态组件原理和相关技能。
  • 25k-50k 经验5-10年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    岗位职责: 负责大数据平台的技术方案设计、推动大数据平台的架构落地并持续完善、同时负责信贷大数据相关应用的开发及实施 岗位要求: 1)本科及以上学历,5年以上相关工作经验,35周岁以下,XX大学XX学院若写成XX大学视为简历造假; 2)具备DW/BI架构体系的建设经历并熟悉Hadoop生态圈; 3)熟悉了解shell、java、python、sql等计算机技术知识,具备极强的数据挖掘和分析能力。 4)具备金融或科技行业大数据项目开发经验者优先。
  • 15k-30k 经验1-3年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据组件开发。 2. 基于Python 体系下的数据质量引擎开发; 3. 基于Java及Linkis开源框架的质量引擎开发; 4. 大数据资产应用的开发、部署、调优; 5. 数据稽核引擎开发,数据共享交换能力对接。 任职要求: 1. 本科及以上学历,计算机相关专业; 2. 3年以上互联网或软件行业工作经验,熟悉Linux环境;熟悉Linux和Python开发; 3. 熟悉Spring,Spring boot,Spring Cloud等框架、熟悉Eclipse或IntelliJ IDEA开发工具等使用 以下满足其一即可: 4. 熟悉Hadoop,MapReduce,Hbase,Flink等大数据部署、运维、开发; 5. 熟悉数据治理理论概念、架构,有元数据、数据质量、数据标准、主数据等相关数据治理经验; 6. 有分布式相关项目(分布式存储/分布式计算/高性能并行计算/分布式cache)经验; 7. 对数据库的架构、扩展特点非常熟悉,能熟练进行SQL优化、集群部署、数据同步等。
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
  • 30k-45k·14薪 经验5-10年 / 本科
    移动互联网,广告营销 / 上市公司 / 2000人以上
    工作职责: 负责搜狐视频商业化的数据平台建设工作,包括: 1.负责数据平台、数据治理系统设计与搭建; 2.负责数据仓库建设、ETL开发、工作流任务优化以及解决相关技术问题; 3.负责行为日志、推荐策略和商业广告数据业务需求对接、数据分析与任务开发。 职位要求: 1.**本科及以上学历,计算机或相关专业优先;3年以上大数据开发、数据分析与处理经验,熟悉互联网产品运营和商业业务; 2.精通Scala/Java语言开发,熟悉Shell、Python等脚本开发,熟悉Linux系统; 3.熟悉大数据生态,精通Hadoop、Kafka、Spark、Flink技术,完成离线或实时大数据仓库设计与开发; 4.掌握数据建模理论,精通SQL开发与性能调优,熟练使用Hive、Doris等数据库组件; 5.有大型数据平台实际建设经验,在数据采集、数据开发、数据分析、数据建模等方面有深刻认识和实践经验; 6.有复杂业务系统的抽象设计能力,能独立对接业务需求和解决业务与技术问题; 7.具有良好的逻辑思维、表达和沟通能力,具备良好的团队合作精神,有较强的承压能力和工作责任心。
  • 11k-22k 经验3-5年 / 本科
    软件服务|咨询 / 上市公司 / 2000人以上
    工作内容: 1、负责公司大数据平台的开发、调优以及日常管理维护工作; 2、负责Hadoop生态圈的建设和兼顾日常数据采集、管理维护和监控; 3、能够独立或参与需求文档、设计文档的编写,满足质量要求。 任职要求: 1、本科或以上学历,计算机相关专业,2年以上大数据项目开发经验; 2、具有Hadoop/Spark开发与应用经验,有较大规模的项目经历; 3、熟悉hbase、hive、spark、kafka、flink等相关工具,有实际的项目经验; 4、熟悉java,熟练使用python, shell等脚本语言,有基于Hadoop平台开发经验者优先。
  • 25k-50k 经验3-5年 / 本科
    企业服务 / 未融资 / 15-50人
    岗位职责 1、设计、开发和维护企业级大数据平台和解决方案,包括数据采集、数据存储、数据处理和数据分析等。 2、使用Flink等流式计算引擎,实现实时数据处理和流式分析,提供实时的业务洞察和决策支持。 3、针对OLAP需求,设计和实现数据立方体、多维数据模型和数据聚合查询,以支持复杂的联机分析处理。 4、编写高效且可扩展的大数据处理和分析代码,提高数据处理和分析的效率和质量。 5、与数据科学团队合作,开发和实现数据处理和分析的需求和解决方案。 6、进行数据模型设计和数据架构优化,提高数据存储和计算的性能和可扩展性。 7、负责数据质量和数据安全的管理和监控,确保数据的合规性和机密性。 8、研究和探索新的大数据技术和解决方案,以不断提高大数据处理和分析的效率和质量。 9、建立和维护技术文档和标准,确保大数据开发的规范和一致性。 任职要求 1、本科及以上学历,计算机科学、软件工程或相关领域。 2、3年以上大数据开发经验,熟悉大数据技术栈和工具,如Hadoop、Spark、Kafka、Hive等。 3、熟悉流式计算引擎Flink,具备在实时数据处理和流式分析方面的经验。 4、了解OLAP(联机分析处理)的概念和技术,具备数据立方体和多维数据模型的设计和开发经验。 5、熟练掌握编程语言,如Java、Python或Scala,具备良好的编码和调试能力。 6、熟悉大数据处理和分析的各种技术和工具,如数据流处理、批处理、数据仓库等。 7、具备良好的数据库和SQL技能,熟悉关系型数据库和NoSQL数据库。 8、具备良好的沟通和团队合作能力,能够与不同背景和专业的人合作,解决技术和业务问题。 9、具备较强的学习能力和自我驱动能力,热爱技术研究和创新。 10、有较好的英文阅读和写作能力,能够阅读和编写英文技术文档。 必备条件 1、在Flink和流式计算领域有深入的研究和实践经验。 2、在OLAP(联机分析处理)领域有相关项目经验。 3、有大数据架构设计和优化经验,能够提供有效的解决方案和建议。 4、具备数据挖掘和机器学习的基础知识和经验。
  • 25k-45k 经验不限 / 本科
    社交 / 上市公司 / 2000人以上
    岗位职责: 1、负责私域电商业务的离线和实时数据仓库建设,搭建和完善各业务模块的数据指标和报表体系; 2、负责私域电商业务相关的数据分析工作,配合数据产品经理,进行产品和运营核心策略的分析建模; 并协助搭建用户画像体系; 3、跨团队沟通和协作,确保项目顺利推进。 岗位要求: 1、2年及以上大数据项目架构/开发/调优经验,具有电商行业数据平台数据架构和开发工作经验优先; 2、熟悉数据治理、数据质量管理体系,有实际业务落地经验优先; 3、熟悉常见的算法和数据结构,熟练设计数据模型、ETL设计、Cube多维建模、OLAP开发等; 4、熟练使用大数据处理框架(Hadoop/Hive/Spark/Kylin)相关技术; 5、熟悉流式计算引擎,对相关框架(Kafka/Storm/SparkStreaming/Flink)熟悉了解,有实际应用经验优先; 6、熟悉Linux/Unix系统,精通至少一门编程语言PHP/Python/Java等;熟悉TDW优先; 7、沟通主动,有较强的工作激情和抗压能力,能组织协同团队开发
  • 10k-20k 经验不限 / 不限
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责网络基础业务的数据开发、数仓建模工作; 2、负责网络基础业务的数据分析、挖掘工作; 3、参与网络基础数据治理工作,提升数据易用性与数据质量; 4、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、本科及以上学历,计算机、通信、统计、数学等相关专业; 2、熟悉 Hive/Spark/Flink 等分布式计算框架,熟悉大数据的离线和实时处理技术; 3、熟悉常用的数据建模理论,可独立把控数据仓库的各层级设计; 4、有丰富的数据开发经验,对数据处理、数据建模、数据治理等有深刻认识和实战经验; 5、具有优秀的逻辑思维能力、很强的数据分析和解决问题能力; 6、有数据中心网络业务背景者优先。
  • 15k-25k·15薪 经验3-5年 / 本科
    其他,金融 / 不需要融资 / 2000人以上
    岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等;    技能要求: 1.计算机相关专业本科及以上学历 ;  2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构;  4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
  • 15k-20k 经验3-5年 / 本科
    企业服务,工具 / 未融资 / 500-2000人
    岗位职责 1、负责Finereport报表开发; 2、负责Finereport与外部系统的接口交互开发; 3、依据开发详细设计,负责数据仓库报表设计,报表设计代码开发; 4、负责帆软PC端、移动端报表产品的开发、调优、测试与上线、发版工作; 5、配合上级进行技术决策,进行技术风险评估,确保报表产品稳定性强、响应性能优秀、用户体验友好; 任职条件 1、计算机、电子信息学科相关专业,大学本科及以上学历;5年以上帆软报表开发经验; 2、精通Fine Report,FineBI产品设计,熟悉帆软报表产品的性能调优,有移动端报表开发经验和有FCRP证书者优先; 3、熟练运用ETL工具,了解各种ETL工具的优缺点,依据需求合理选择ETL工具; 4、具有报表平台以及服务器的运维技能; 5、熟练使用SqlServer,MySql等关系数据库,有SQL优化经验,会编写复杂的存储过程和自定义方法; 6、逻辑思维能力较强,具有良好的学习能力、团队协作能力和沟通能力; 7、能够积极创新,乐于面对挑战,负责敬业,具有高度的责任心及团队精神,执行力强; 8、有软件开发经验优先;
  • 10k-20k 经验不限 / 不限
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责网络基础业务的数据开发、数仓建模工作; 2、负责网络基础业务的数据分析、挖掘工作; 3、参与网络基础数据治理工作,提升数据易用性与数据质量; 4、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、本科及以上学历,计算机、通信、统计、数学等相关专业; 2、熟悉 Hive/Spark/Flink 等分布式计算框架,熟悉大数据的离线和实时处理技术; 3、熟悉常用的数据建模理论,可独立把控数据仓库的各层级设计; 4、有丰富的数据开发经验,对数据处理、数据建模、数据治理等有深刻认识和实战经验; 5、具有优秀的逻辑思维能力、很强的数据分析和解决问题能力; 6、有数据中心网络业务背景者优先。