• 16k-28k 经验3-5年 / 本科
    人工智能服务,科技金融 / 不需要融资 / 500-2000人
    岗位职责: (1)参与兴业银行大数据平台湖仓一体、存算分离、流批一体等前沿技术的基础架构体系规划与研究,并推动落地实施; (2)负责兴业银行大数据平台运维保障,存储、计算等各类组件性能调优,以提升平台稳定性; (3)协助兴业银行大数据平台信创迁移与相关系统改造、适配等工作; (4)联系上下游业务需求方与应用开发团队,对接协调大数据平台使用、建设、推广相关工作。 岗位要求: (1)熟悉大数据生态体系中分布式存储、缓存、高并发等底层技术协议与原理; (2)具有海量数据计算组件(Hive、Spark),OLAP查询引擎(Clickhouse、Presto、Doris等)故障排查与优化经验,有源码阅读与调试经验优先; (3)熟练掌握Flink等主流大数据组件原理及应用,具有Hudi或Iceberg等流批一体相关组件应用经验; (4)熟悉Docker、K8s等容器化、大数据组件云原生相关技术。 工作地点:上海
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责星图客户平台能力建设,负责制定账号、资金、权限等平台核心底层能力方案,赋能各业务场景达成目标; 2、与多团队协同,推进平台基建稳定性与通用性的提升; 3、从基础能力视角设计合理的数据指标体系,通过数据监控衡量业务赋能价值; 4、收集用户反馈,抽象提炼基础能力建设问题,并推动各方协同改进。 职位要求: 1、本科及以上学历,计算机、软件工程等相关专业优先; 2、有账号、资金等平台产品工作经验优先; 3、有激情,有韧性,善于思考,有良好的沟通和协同能力,可在复杂的业务情况下高效推动项目进展解决问题,自驱力强。
  • 20k-40k 经验3-5年 / 本科
    移动互联网,金融 / 上市公司 / 2000人以上
    岗位职责: 岗位职责: 1、负责大数据基础平台系统、大数据组件需求共性功能抽象、收集、整理; 2、负责大数据基础平台系统、大数据组件需求开发、测试、部署、系统优化及运营; 3、负责制定大数据平台系统、组件开发规范、流程和制度; 4、负责大数据平台系统、组件开发培训课件制作并开展培训; 5、负责内外部大数据项目需求分析及数据建模、方案评估; 6、负责追踪大数据和云计算技术的最新科技成果,协调团队应用于内部业务实践。 任职要求: 任职要求: 1. 本科及以上学历,计算机相关专业,3年以上大数据相关开发经验; 2. 使用过Java/Scala/Python/C++/C 至少其中一门编程语言进行项目开发、实施; 3. 具备Hadoop/Spark/Hbase/ES/Flink/Yarn/MPP架构计算引擎的使用经验(生产环境),熟悉大数据类软件体系架构及源码,了解核心组件内部原理,有集群部署及运维运营经验; 4. 熟练使用Linux操作系统,熟练使用Shell/Python/Perl编写自动化脚本; 5. 具备数百TB级别Hadoop大数据集群运营、监控开发以及性能调优经验;(优先) 6. 有较强的学习能力, 对于新技术和开源生态具有强烈好奇心和持续关注的热情; 7. 较强的人际关系能力、有团队精神,较强的执行与推动能力,有一定抗压力。
  • 工具类产品,内容社区,音频|视频媒体 / 上市公司 / 2000人以上
    岗位职责: 1.负责管理和提升音乐人开放平台的基础体验和后端服务质量:围绕发歌、结算、审核等平台核心产品环节不断进行迭代优化,持续提升产品体验,提高业务流转效率; 2.负责音乐人开放平台的商业化建设,围绕用户发歌、推广链路持续探索营收模式,通过产品能力搭建、营销事件策划和核心用户运营等方式,联动商务和运营团队,不断提升收入规模。 岗位要求: 1.本科及以上学历,具有结算产品、商业化产品、增长产品经验者优先; 2.具备较强的数据分析能力,掌握常用的数据分析工具如SQL等; 3.强目标和结果导向,强烈的责任心和自驱力,热爱音乐类产品赛道。
  • 9k-12k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1、华三云、易捷云、传统架构系统运维工作,包括日常监控,问题处理等; 2、华三云、易捷云、传统架构系统运营工作,及时响应、支持应用开发运维团队服务请求,资源需求评估、资源分配与回收、云平台策略开通等; 3、相关文档编写及传统架构项目组交办的其它工作。 4、参与7*24小时值班工作。 任职要求: 1.熟练掌握操作系统、服务器操作; 2.熟悉基于Openstack技术的IaaS云计算技术和应用,具有Openstack云平台运维经验,有独立处理IaaS平台问题能力; 3.熟悉python、shell等脚本语言,并能够使用脚本语言编写系统运维和管理工具; 4.具有较良好的沟通能力和较强的服务意识。 工作地点: 北京市通州区经海路6号院
  • 15k-25k 经验1-3年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1. 负责或参与大数据平台的架构设计以及基础组件的调优、改造、升级; 2. 结合客户需求,负责和参与大数据产品的设计与研发; 3. 负责数据平台新技术的研究及应用落地。 任职要求 1. 计算机或相关专业,3年以上大数据相关开发经验; 2. 熟悉linux/UNIX shell、熟悉(python/shell)任意一种脚本语言、熟悉Java/Scala/C++任意一种开发语言; 3. 熟悉大数据基础平台技术的原理和内部机制,包括但不限于Hadoop、ClickHouse、Hbase、Doris等; 4. 有大规模集群调优及容器化经验优先。 5.对新技术充满热情,具有良好的学习能力、团队协作能力和沟通能力; 6.逻辑思维能力及快速持续的学习能力。
  • 工具类产品,软件服务|咨询,IT技术服务|咨询 / 不需要融资 / 500-2000人
    岗位职责: 1、负责蚂蚁链平台基础和应用技术的关键模块、系统的建设及开发工作; 2、能够独立负责一块业务,参与技术研发的全生命周期(设计、开发、推动商业化); 3、承接业务需求,配合团队技术人员完成复杂开发任务,开发、测试和自测等; 4、具备良好的技术和产品Sense,对自己负责的工作有较好的Owner意识; 5、具备较强的问题解决能力,并有一定的编写自动化测试工具和子系统能力。 岗位要求: 1、大学本科及以上,计算机/电子类/自动化/通信等理工科专业背景,有2年以上后端类相关工作经验。 2、专业技能要求: - 熟练Linux且两年以上使用C++/Python/Shell等语言软件开发设计工作经验,能快速上手进行工程实践; - 扎实的计算机基础,熟练掌握数据结构、算法、计算机网络、操作系统等基础知识及实际应用; - 熟悉服务类架构网络编程(RPC)、数据处理、数据分析等软件开发; - 熟悉常见中间件及数据库组件,MySQL、Redis等并具备一年以上开发经验; 3、有较好的程序设计思维能力,有较强的沟通协调能力、团队协作能力、文档撰写能力。 4、加分项: - 参与过隐私保护类项目经验者优先,如TEE、密码学、密钥管理等技术; - 熟练使用Spark大数据分析工具,并参与过相关项目; - 参与过区块链、Web3等平台类项目。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责基础设施平台数据平台建设,负责稳定性、成本预算、资源容量规划相关方向的数据能力建设,包括方向规划、架构设计、团队建设等; 2、构建成本和资源等数仓体系,包括成本账单,机器/资源分布和利用率,业务等级/标签等数据; 3、构建和持续迭代相关模型,如成本/资源预估模型,业务资源转换模型等,优化预算交付体系; 4、将资源成本和业务场景/功能关联,并建立相关指标体系,搭建相关服务,持续驱动上下游进行成本优化; 5、基于相关基础数据,搭建相关数据视图和看板,帮助分析和洞察成本和资源情况,驱动成本优化和容量治理。 职位要求: 1、本科以上学历,计算机相关专业,有大数据体系相关经验; 2、熟练使用至少一种编程语言,例如Python、Go、Java、Ruby等; 3、具备系统化解决问题的能力,良好的沟通技巧和主人翁责任感,具备团队合作和沟通能力; 4、有稳定性、资源容量规划、成本预算相关业务经验优先; 5、有AI经验的优先;
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 18k-30k·16薪 经验1-3年 / 硕士
    其他,人工智能 / 不需要融资 / 150-500人
    岗位职责: 1. 负责大数据实时、离线、异构数据的同步和传输生态的研发,提供灵活高效的接入能力; 2. 负责大数据接入组件的性能、效率、稳定性分析与优化。 任职要求: 1. 熟悉Flume/DataX/Logkit/Kafka等大数据接入技术和相关组件,有1年以上大数据接入研发经验; 2. 具备扎实的计算机基础,熟悉分布式系统研发,有云原生技术经验优先; 3. 精通Java/Scala研发语言,具有良好的编程研发能力; 4. 能够深刻理解业务,善于利用技术实现相关业务价值;
  • 19k-27k·15薪 经验3-5年 / 本科
    游戏 / 不需要融资 / 150-500人
    岗位职责: 1、负责公司大数据平台(采集/加工/调度等)建设,承担相关服务、平台的研发、集成和运维工作,工作中主要使用python; 2、保障应用系统稳定可靠,熟练运用合适技术对复杂场景做出合理技术设计,保障和提升数据平台相关系统的性能和稳定性; 3、工作范围涉及包括但不限于:分布式任务调度系统,数据采集系统,数据加工处理平台,数据应用服务等领域。 任职要求: 1、本科及以上学历,具有2年以上大数据平台应用系统开发及运维经验; 2、拥有扎实的计算机基础和代码能力,具备良好的编码习惯,有较强的问题处理能力; 3、熟悉常见大数据处理/分析相关的工具/框架,如Hive、Spark、Presto、Kafka、Clickhouse、Superset等; 4、具备良好的理解能力,能快速理解业务背景,具有良好的团队沟通与协作能力。
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 短视频 / 上市公司 / 2000人以上
    职位描述 1、负责快手亿级用户的大数据平台产品的落地,包括分析工具、元数据管理、实时数据加工等系列平台产品; 2、负责数据产品架构设计和后端开发,不断优化系统架构,支撑业务规模增长,保障服务稳定; 3、负责数产品的功能迭代和性能优化,提高效率,优化流程。 任职要求 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力; 2、具备扎实的计算机基础,对技术有热情,愿意不断尝试新技术和业务挑战; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、熟练使用clickhouse、flink、HBase等开源大数据组件,具备数据组件化开发的能力; 5、有足够的耐心梳理和解决复杂而又繁多的产品研发问题,善于沟通与团队协作。
  • 22k-42k·15薪 经验5-10年 / 本科
    移动互联网,企业服务 / 不需要融资 / 500-2000人
    岗位职责: 1. 负责复杂业务场景下数据体系构建,赋能业务数字化运营,保障数据的质量和数据生产的稳定性; 2. 负责基于大数据技术平台基础上的数据仓库建设,包括数据模型设计、离线/实时计算、性能优化以及相关技术问题的解决; 3. 负责数据质量、稳定性、数据资产管理等数据治理工作,构建全链路数据质量监控治理体系; 4. 参与数据产品的需求沟通、架构设计、数据开发以及系统优化。 任职要求: 1. 扎实的代码编程能力,具备良好的数据结构基础,熟悉常见设计模式,熟练使用Java/Scala/Python等至少一种语言; 2. 熟练掌握Hadoop生态,包括但不限于Hive/Spark/Flink等一种或几种大数据计算框架; 3. 熟悉数仓原理和实施,有实时数仓、离线数仓设计与开发经验; 4. 熟悉SpringCloud,SpringBoot等常用的开源框架优先 5. 熟悉OLAP平台建设或有过经验、熟悉业务指标设计且熟练掌握OLAP的维度建模设计方法优先 6. 熟悉常见数据挖掘、用户画像、搜索推荐、知识图谱、自然语言理解等相关算法及模型优先
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1、分析业务需求,建设数据库仓库,对业务部门提供数据支持; 2、参与数据源分析,完成大数据平台与各业务系统的数据对接; 3、完成基于大数据技术平台基础上的数据仓库设计和ETL开发; 4、调研相关技术,优化大数据开发流程,规划大数据平台应用。 任职标准: 1、3年以上数据仓库相关工作经验, 有互联网、电商行业数据仓库建设经验; 2、精通Hive-sql编写和优化,精通常用etl工具,至少熟悉java、python、shell等语言中一种; 3、精通大数据背景下数据仓库模型设计,熟练掌握OLAP的维度建模设计方法; 4、有数据平台(数据开发、治理、资产等)相关建设经验; 5、责任心强,有较强沟通能力和团队合作精神; 6、有spark streaming、flink等实时数据开发经验; 7、有统计学数学知识,海量数据处理、数据分析和挖掘经验者优先