• 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、设计与开发智能测试与诊断工具:构建下一代测试平台,利用静态代码分析、动态插桩、故障注入等技术,对大数据核心组件进行深度质量探测; 2、推进AI在质量保障领域的落地:探索AI/ML技术在大数据平台质量保障与稳定性的应用场景,如代码风险挖掘、智能异常检测、故障根因定位等; 3、参与大数据平台稳定性架构建设:从测试和可观测性视角,参与平台架构评审,设计和开发高可用、可测试的框架与规范; 4、建立平台级的质量洞察能力:通过代码覆盖率、性能基准测试、混沌工程等手段,构建平台质量度量体系,为研发团队提供可视化的质量数据和改进方向。 职位要求: 1、计算机相关专业本科及以上学历,3年以上测试开发或后端开发经验,具备扎实的计算机基础和编码能力; 2、精通至少一门主流编程语言(如:Java/Python/Go),具备软件设计能力,能独立完成工具或框架的开发与迭代; 3、对软件测试理论和质量保障体系有一定理解,熟悉自动化测试、性能测试、混沌工程等; 4、具备良好的项目推动能力、沟通能力和团队合作精神,能够独立解决问题并承担压力; 5、有AI或机器学习相关项目经验优先;有代码分析经验或了解工具或库优先(例如:AST分析、代码插桩);有大数据平台开发测试运维经验优先;或具备优秀英语能力者优先。
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 40k-70k·13薪 经验10年以上 / 本科
    旅游|出行 / D轮及以上 / 500-2000人
    岗位职责 1、负责客路下一代大数据湖平台的规划、建设与持续优化,打造高效稳定的数据处理与分析能力; 2、负责数据基础架构的设计与研发,提供高性能的离线与实时计算能力,支撑公司在海量数据分析、机器学习等场景下的业务需求,实现数据平台价值的持续交付; 3、牵头大数据平台研发团队的建设与管理,制定并落地大数据平台相关技术标准与规范; 4、打造数据服务与预警机制,赋能业务与运营团队的数据化运营; 5、建设埋点,AB实验,用户圈选,CDP等数据应用,提供离线和实时的数据服务; 6、推动数据治理与数据资产管理平台的建设与完善,提升数据质量与资产价值。 任职要求 1、本科及以上学历,计算机、数学、统计等相关专业优先;具备5-8年数据平台开发经验,有一定团队管理经验者优先; 2、扎实的大数据平台架构设计能力,深入理解大数据生态及关键组件,熟悉以下技术: 3、Doris、Spark、Hadoop 等核心组件; 4、Flink、Iceberg等实时与湖仓一体技术; 5、有AWS / GCP / 阿里云平台经验者优先; 6、对埋点、广告投放、用户圈选系统等有深刻理解与实战经验; 7、具备较强的业务理解力,能够结合业务场景构建数据产品与解决方案,具备数据化运营经验优先; 8、具备优秀的跨团队沟通与协作能力,善于总结与规范化,推动多部门协作与项目落地,责任心强,具备良好的团队合作意识。
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1.大数据基础平台、应用平台功能设计和开发。 2.负责大数据平台及组件的调研选型,部署,日常监控及问题解决。 3.参与海量数据处理方案设计,提供业务系统技术支撑。 任职要求: 1.本科以上,计算机相关专业。 2.至少精通java/scala其中一种开发语言,熟悉主流后端开发框架。 3.熟悉大数据平台常用框架(hadoop/hive/spark/hbase/flink/presto/clickhouse/kafka)原理及常用应用场景,至少有3年以上大型生产系统相关经验。 4.熟悉linux系统,熟悉常用的操作系统命令和shell脚本编写。 5.责任心强,有较强的沟通能力和团队合作精神。 6.了解docker、k8s相关技术,有大数据组件容器化经验优先。
  • 12k-22k 经验5-10年 / 本科
    电商 / 未融资 / 50-150人
    现招聘后端开发(java)工程师,参与中国电信电商大数据平台相关项目的系统开发: 任职资格: 1、***本科或以上学历,计算机软件或相关专业,五年以上,知名软件或互联网公司工作经验; 2、熟悉java编程语言,以及io、多线程、集合等基础框架; 3、熟悉主流开发框架,包括Spring、SpringMVC、SpringBoot,mybatis等 4、熟悉基于Mysql关系数据库设计和开发、对数据库性能优化有丰富的经验; 5、熟悉底层中间件、分布式技术(如RCP框架、缓存、消息系统等)以及物联网技术与协议; 6、具有一定的分析复杂问题和解决问题的能力,有强烈的责任心和使命感,良好的沟通表达能力和团队协作能力。 加分项: 1、了解大数据开发相关知识,熟悉Hadoop生态圈及MPP体系相关技术 工作职责: 1、参与企业电商大数据开发平台相关的应用开发,平台建设、优化和维护。 2、负责根据项目进度及质量管理体系要求,完成项目开发工作,完成系统编码及单元测试等相关工作。 3、负责开发规范等wiki文档的编写与维护,以及其他与项目相关的工作。 4、愿意接受大数据领域海量数据、服务高可用的挑战,推动系统可用性和可扩展性的提升。 求职邮箱:***************,请邮件主题标注姓名和应聘职位。
  • YY
    社交媒体 / 上市公司 / 500-2000人
    岗位职责: 1、负责公司大数据平台及应用平台的设计、开发、环境搭建、调优及故障诊断; 2、负责公司大数据计算组件平台级支持服务,以及大数据计算组件的研发和性能优化工作; 3、跟进相关计算组件社区最新动态,在确保平台稳定运行的同时升级新特性; 能力要求: 本科及以上学历,计算机相关专业,3年及以上大数据平台研发经验; 熟悉操作系统、计算机网络、分布式系统原理、Java后端程序设计; 熟悉大数据技术栈,熟悉HDFS、Kafka、Hive、HBase、Flink、Yarn等多种组件和技术,有一定的系统性能优化及故障排除能力; 有Owner精神,善于沟通,主动性和责任心强,对数据敏感,逻辑性强,有良好的抗压能力,有良好的团队合作精神; 具备Spark,Flink,Presto至少一种源码分析经验或者开源社区有代码贡献者优先;
  • 15k-25k 经验3-5年 / 本科
    其他 / 上市公司 / 2000人以上
    职位描述: (1)负责大数据平台的维护与稳定性建设; (2)负责集团大数据平台的运维工作(安装,部署,扩容,迁移等); (3)负责解决大数据领域出现的技术问题和故障,全面分析,定位根因,并给出解决方案; (4)根据大数据业务发展,引入新组件或新技术满足数据存储和计算的需求。 职位要求: (1)教育程度: 本科毕业3年以上,计算机,信息工程,数学等相关专业毕业; (2)相关经验: 具有3年以上大数据平台搭建与维护相关经验; (3)专业能力: 1、熟悉Hadoop大数据生态圈,包括但不限于CDH/HDFS/YARN/Hive/Hbase/Spark/Zookeeper/Flink等 2、具备安装、部署、维护hadoop集群及相关组件的工作经验,有生产环境实施变更和维护管理的经验 3、掌握至少有一种开发语言(Shell、Java、GO、C++等) 4、具备排查和解决技术难题和故障的能力,有Hadoop其中一个组件源码阅读或维护的经验优先 5、精通服务器监控(Prometheus,zabbix等)、日志分析,熟悉运维自动化 6、熟悉Linux软硬件环境、系统管理和优化,熟练部署各种基础组件和服务 7、具有很好的沟通表达能力,勤奋好学,具有很好的团队合作意识,喜欢技术研究
  • 19k-27k·15薪 经验3-5年 / 本科
    游戏 / 不需要融资 / 150-500人
    岗位职责: 1、负责公司大数据平台(采集/加工/调度等)建设,承担相关服务、平台的研发、集成和运维工作,工作中主要使用python; 2、保障应用系统稳定可靠,熟练运用合适技术对复杂场景做出合理技术设计,保障和提升数据平台相关系统的性能和稳定性; 3、工作范围涉及包括但不限于:分布式任务调度系统,数据采集系统,数据加工处理平台,数据应用服务等领域。 任职要求: 1、本科及以上学历,具有2年以上大数据平台应用系统开发及运维经验; 2、拥有扎实的计算机基础和代码能力,具备良好的编码习惯,有较强的问题处理能力; 3、熟悉常见大数据处理/分析相关的工具/框架,如Hive、Spark、Presto、Kafka、Clickhouse、Superset等; 4、具备良好的理解能力,能快速理解业务背景,具有良好的团队沟通与协作能力。
  • 25k-35k 经验5-10年 / 本科
    移动互联网 / 未融资 / 50-150人
    岗位职责: 1、研究与跟踪大数据新技术发展方向; 2、负责大数据平台的架构设计,参与核心架构部分代码的编写; 3、以技术专家的身份解决项目中所遇到的核心技术问题; 4、审核数据平台项目总体技术方案,对各项目进行质量评估。 岗位要求: 1、计算机相关专业本科及以上学历, 4年以上系统架构经验,至少3年以上大数据系统架构经验;精通开源数据集成和治理工具的使用; 2、深入掌握Hadoop、Hive、HBase、Spark和Flink等大数据处理平台,并有丰富的实践经验; 3、熟悉MySQL、Oracle、SqlServer、PostgreSQL、NoSql、apache druid等主流数据库,了解内存数据库等快速计算技术; 4、熟悉kubernetes和docker部署工具 5、有工业互联网平台搭建和应用经验者佳 6、有强烈的责任心、良好的沟通协调能力、团队合作精神、优秀的执行能力;
  • 15k-25k·15薪 经验1-3年 / 本科
    游戏 / 不需要融资 / 150-500人
    岗位职责: 1、负责业务数据体系建设,合理构建业务数仓建模、埋点体系、应用体系等; 2、负责大数据平台产品的规划、设计、开发跟踪与迭代改进; 3、负责业务数据治理,包含元数据管理、指标设计、埋点治理等工作; 4、负责参与产品部门数据分析工作,并通过产品化形式,提高数据分析的效率。 任职要求: 1、**本科及以上学历,计算机、数学、统计学等理工类专业优先; 2、有大数据平台设计或使用经验,了解数据埋点、数仓建模、数据治理等相关知识; 3、熟练掌握SQL语言,能完成复杂数据环境下的数据提取、分析、可视化; 4、勤奋细致,有责任心,对数据敏感,执行力强,能在压力下工作; 5、良好的沟通能力和团队合作精神,有一定的组织协调和推动能力。
  • 30k-50k·16薪 经验3-5年 / 本科
    软件服务|咨询 / C轮 / 500-2000人
    工作职责: 1、参与设计/研发一站式大数据平台,降低数据技术使用门槛,提高数据生产效率; 2、基于多云环境,构建满足 Data&AI 链路需求的 SaaS 化产品,沉淀和输出解决方案; 3、负责大数据各计算引擎的性能分析与体系优化,提高性能和降低成本。 任职资格: 1、熟悉 Spark/Flink,Hive,Presto,Clickhouse,Tensorflow/Pytorch 等 Data&AI 开源组件; 2、丰富云上经验,熟悉 Kubernetes; 3、强悍的编码和 troubleshooting 能力,掌握Java,Python,Go等语言; 4、具备快速学习能力和结构性思维,热衷于思考和解决客户难题。
  • 30k-50k·17薪 经验5-10年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1、负责大数据平台资源规划、权限控制、运维架构设计,为各产品业务提供稳定、高效、安全的运行环境; 2、负责基于海量数据采集、存储、治理及服务方案的技术选型及架构设计; 3、负责实时、离线数据分析处理及实时平台的建设和搭建; 4、从整体技术架构角度协助并推动战略落地,开发大数据平台的核心代码; 5、负责产品研发过程中的技术架构设计、数据处理逻辑等方面文档的沉淀与积累。 参与研发团队的日常技术交流与分享,为其他同事提供技术指导与帮助; 6、深入研究大数据前沿技术和产品,与业界先进技术保持同步。 任职资格: 1. **计算机相关本科以上学历,有5 年以上PB级别以上大数据平台项目工作经验; 2. 精通大数据相关组件技术,包括但不限于DataX/Canal、 Hadoop体系、Flink、OLAP、调度系统、权限系统等,理解其内部原理和适用场景,了解核心源码及调优方法; 3. 熟练运用Java和Python,熟悉分布式系统的设计和应用,熟悉数据库、缓存、消息队列、RPC等内部机制; 4. 有实际的大数据工程平台建设实践经验,在 ETL 开发和大数据集成、数据开发等领域有实战经验; 5. 有强烈的主人翁意识,能适应一定工作压力,并有较强沟通能力和理解能力,有一定的团队管理能力; 6. 有大数据中台建设经验、数据治理经验或出行大数据从业经验者优先。
  • 10k-15k 经验在校/应届 / 本科
    数据服务、人工智能 / 未融资 / 150-500人
    职责描述: 参与新型大数据平台/数据库后端的研发,在资深工程师的指导下完成特性的设计、开发、测试和相关文档的撰写; 任职要求: 1、 计算机、软件、通信、数学等相关专业本科及以上学历,具备扎实的计算机基础理论知识;有志于云化、智能化数据管理、数据库相关研发工作; 2、 热爱编程,熟练掌握C/C++/RUST中一种及以上编程语言; 3、对分布式系统的架构和原理有深入的了解; 熟悉 MySQL/PostgreSQL/Greenplum 等数据库系统实现原理; 4、 优秀的发现和解决问题能力,良好的沟通能力,具备团队合作精神。 满足以下三项其中之一的优先考虑: 5、拥抱开源,对前沿技术有浓厚的热情和探索欲望,有开源项目经历; 6、熟悉 MySQL/PostgreSQL实现,并熟悉其源码; 7、熟悉分布式计算引擎或数据库,例如 Spark/ Greenplumn/ Clickhouse,并熟悉其源码。