• 20k-35k 经验5-10年 / 本科
    汽车丨出行 / 上市公司 / 2000人以上
    职位描述 1. 负责大数据平台的运维,包括部署、管理、优化等,保障平台稳定运行; 2. 负责大数据集群的架构升级、容量规划、资源管理、成本优化、业务管控; 3. 理解大数据平台架构和业务流程,发现并解决系统问题或瓶颈; 4. 开发自动化运维、监控报警、故障处理脚本和工具,优化整个运维的流程; 岗位要求: 1. 本科及以上学历,5年以上规模集群管理和运维经验; 2. 熟悉Linux操作系统,熟悉TCP/IP基本原理,有系统调优经验; 3. 掌握Shell、Python等至少一门常见脚本语言; 4. 熟悉常用的监控工具,熟悉自动化运维工具(如Saltstack/Ansible/Puppet等),有二次开发能力者优先; 5. 熟悉hadoop/hbase/elasticseach等大数据组件的架构及基本原理; 6. 对运维体系有一定认识,善于思考总结,做事积极主动,责任心强、细心谨慎,能独立解决问题。
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
  • 15k-30k·13薪 经验5-10年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    1. 本科及以上学历,计算机、通信、电子工程等相关专业; 2. 3年以上相关经验; 3. 熟悉运营商IT架构,有经分系统、大数据、数据中台、数据治理、数据资产管理从业经验者优先; 4. 了解大数据处理及分布式系统前沿技术(包括Hadoop/Flink/Spark/Kafka/ClickHouse等开源框架)及主流的数据应用产品或工具; 岗位职责: 1.负责运营商市场大数据项目售前支撑工作,为客户提供高质量的解决方案,以此促进客户业务需求和技术需求在公司产品和项目中的实现; 2. 参加运营商客户IT规划与规范制定,主导项目竞标或者议标,协助销售赢得订单。 3.从商机发掘、方案制定、客户交流、立项跟进到投标工作的全流程售前支持。
  • 30k-45k·14薪 经验5-10年 / 本科
    移动互联网,广告营销 / 上市公司 / 2000人以上
    工作职责: 负责搜狐视频商业化的数据平台建设工作,包括: 1.负责数据平台、数据治理系统设计与搭建; 2.负责数据仓库建设、ETL开发、工作流任务优化以及解决相关技术问题; 3.负责行为日志、推荐策略和商业广告数据业务需求对接、数据分析与任务开发。 职位要求: 1.**本科及以上学历,计算机或相关专业优先;3年以上大数据开发、数据分析与处理经验,熟悉互联网产品运营和商业业务; 2.精通Scala/Java语言开发,熟悉Shell、Python等脚本开发,熟悉Linux系统; 3.熟悉大数据生态,精通Hadoop、Kafka、Spark、Flink技术,完成离线或实时大数据仓库设计与开发; 4.掌握数据建模理论,精通SQL开发与性能调优,熟练使用Hive、Doris等数据库组件; 5.有大型数据平台实际建设经验,在数据采集、数据开发、数据分析、数据建模等方面有深刻认识和实践经验; 6.有复杂业务系统的抽象设计能力,能独立对接业务需求和解决业务与技术问题; 7.具有良好的逻辑思维、表达和沟通能力,具备良好的团队合作精神,有较强的承压能力和工作责任心。
  • 25k-35k 经验5-10年 / 本科
    居住服务 / C轮 / 2000人以上
    工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
  • 15k-30k 经验3-5年 / 本科
    短视频 / 上市公司 / 2000人以上
    职位描述 1、负责快手亿级用户的大数据平台产品的落地,包括分析工具、元数据管理、实时数据加工等系列平台产品; 2、负责数据产品架构设计和后端开发,不断优化系统架构,支撑业务规模增长,保障服务稳定; 3、负责数产品的功能迭代和性能优化,提高效率,优化流程。 任职要求 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力; 2、具备扎实的计算机基础,对技术有热情,愿意不断尝试新技术和业务挑战; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、熟练使用clickhouse、flink、HBase等开源大数据组件,具备数据组件化开发的能力; 5、有足够的耐心梳理和解决复杂而又繁多的产品研发问题,善于沟通与团队协作。
  • 15k-30k·13薪 经验3-5年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1、基于客户战略目标规划,负责大数据领域(数据治理/数据中台等)的产品规划、设计和推进落地; 2、充分深入业务,推动数据分析、数据治理框架等落地数据产品,赋能业务团队和业务系统; 3、进行产品全生命周期管理,持续改进和提升产品质量,配合业务发展需要,把控产品发展方向; 4、与团队成员协作配合,确保按时、高质量完成功能开发、上线。 任职要求: 1、本科以上学历,3年以上数据产品(数据中台/数据仓/数据治理等)的工作经验,负责行业级或平台级数据中台产品,具有toB/toG领域产品设计经验优先; 2、了解DataOps等数据中台理论与方法; 3、逻辑思维能力强,具备良好的业务理解能力和产品设计能力; 4、具备优秀的沟通和团队合作能力,擅于表达和沟通,具备较强的产品owner意识。
  • 20k-40k·16薪 经验3-5年 / 本科
    智能硬件,电商平台 / 上市公司 / 2000人以上
    1、负责小米集团数据中台核心产品的设计与研发,代码测试用例的编写,保障产品质量 2、负责大数据相关新技术的预研,探索在小米的落地场景 3、负责对重点项目提供技术支持和保障
  • 10k-15k 经验3-5年 / 本科
    数据服务 / 上市公司 / 500-2000人
    岗位职责 1.负责大数据后台离线分析、实时计算业务功能的实现,并能独立解决开发过程中的技术难题; 2.配合项目实施团队进行大数据后台、分布式数据库的性能调优; 3.配合项目实施团队进行例行的系统上线部署工作; 4.编写与大数据平台相关的技术文档及进行知识分享。 任职要求 1.理工科相关专业本科及以上学历,3年以上大数据项目实施经验; 2.具备一定的Java基础,熟悉scala,shell,python优先考虑; 3.熟悉MySQL、Oracle等关系型数据库的使用及配置; 4.熟悉主流Hadoop生态技术,包括Flink、Spark、Hive、HBase、ES等,且具备一定的调优经验; 5.熟悉redis分布式缓存、kafka消息组件、任意一款olap组件; 6.有ETL、实时计算项目、BI项目开发相关经验; 7.有大数据平台搭建、组件选型经验者优先考虑; 8.具备良好的沟通能力,能独立分析并解决问题; 9.具备互联网金融行业经验者或建行P9数仓项目经验者优先。
  • 15k-22k 经验不限 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 飞书企业应用专注于泛财务领域。我们致力于建设基于大数据,搭建智能化、业财一体的财务中台,为互联网生态业务提供合规可控、效能卓越、业务洞察强的平台化能力,让经营者看清现状、预见未来。以技术中台的形式支撑财务税务,提供一站式产品能力,包括应收应付、发票、计税、付款,以及海量数据的清算、核算、报表、风控、分析。 欢迎对技术有孜孜追求的你,加入我们,一起探索和研究互联网时代的企业应用产品! 1、负责财务数据全链路质量保障和治理,包括但不限于数据同步、数据加工(离线+实时)、数据资产化(指标、标签等)、数据业务支撑(财报、管报、应用服务数据等); 2、负责数据类产品的质量保障方案设计及执行落地; 3、通过数据资产审计、制定准入准出机制、设计及执行数据校验核对、资产巡检、变更防控、仿真预演、监控应急等方式保障数据资产及数据产品的质量; 4、通过测试流程标准、方法和技术创新、自动化工具化等方式提升业务数据资产质量、数据产品质量、研测效率; 5、不断探究和建设一流的大数据领域技术风险保障体系和技术风险保障平台。 职位要求: 1、数据或数据产品相关的开发或测试4年以上经验,对数据仓库、数据挖掘、数据平台、数据引擎领域知识有较好储备; 2、熟练掌握一门或多门编程语言,如Java、SQL、Python、go等;有测试框架或质量平台开发经验、大型项目开发编码经验者优先; 3、熟悉数据仓库模型设计、ETL开发,维度建模设计方法,具备海量数据处理经验者优先;具备数据研发平台、数据服务等数据产品开发测试经验者优先;具备分布式数据存储与计算平台应用开发经验,熟悉Hadoop生态相关技术者优先; 4、具备大型项目的整体质量保障经验者优先;具备性能、异常、稳定性、用例自动生成等专业测试领域经验者优先; 5、具备较强的逻辑思维能力,谈判能力和冲突管理能力;良好的沟通能力和团队协作能力;快速适应变化、结果导向、追求上进。
  • 25k-35k·14薪 经验5-10年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
  • 25k-50k·16薪 经验5-10年 / 本科
    广告营销 / 上市公司 / 500-2000人
    工作职责 1、负责负责大数据离线、实时处理需求的开发工作; 2、负责通用数据仓库的规划、实施,以及优化迭代; 3、负责大数据计算引擎的性能调优、资源调度优化和大数据处理任务的性能优化; 任职资格 1、计算机相关专业,本科以上学历,有三年以及以上大数据分析和数据仓库等相关业务的开发经验; 2、熟练掌握Flink主流实时大数据计算系统原理;熟悉数仓模型,有离线和实时数仓建设实战经验; 3、熟悉Spark、Hadoop、hive、HBase、clickhouse等数据平台的基本原理和开发、使用调优经验; 4、具备扎实的Java/Python语言基础,对技术有热情,愿意尝试新技术; 5、良好的沟通、团队合作、主动思考、学习能力和强烈的责任心;具备持续集成、持续交付、质量保障的经验; 6、有互联网BI相关产品的开发经验,有用户数据分析、电商数据分析和互联网广告等相关业务经验优先;
  • 25k-50k 经验5-10年 / 本科
    企业服务 / 未融资 / 15-50人
    岗位职责: 1、负责HDFS、HBase、Hive、Yarn、Flume,Kafka、ES等大数据平台的规划、部署、监控和系统优化等工作; 2、负责Hadoop平台的用户管理、权限分配、资源分配; 3、负责Flink集群的部署维护、资源调度及任务上线等; 4、负责Airflow、Azkaban等大数据任务调度平台的部署、维护、开发支持等; 5、处理大数据平台各类异常和故障,确保系统平台的稳定运行; 6、研究业界前沿的大数据运维技术,负责各种运维工具和系统的设计开发; 任职要求: 1、本科以上学历,计算机或相关专业,具备至少3年以上hadoop及相关组件的运维经验; 2、掌握HDFS、HBase、Kafka、Hive、Yarn、Flink、ES等组件的工作原理; 3、熟练掌握至少一种脚本语言(Shell、Python、Java); 4、对Hadoop各组件的权限、安全、Kerberos有一定的经验; 5、熟悉MapReduce算法,能够编写和提交分布式计算任务; 6、对分布式开源项目有技术兴趣,能跟踪Hadoop开源社区的发展方向,自学能力较强,不断改进和优化集群; 7、具备高度的责任心,较强的故障分析及排除能力; 8、具备良好的团队合作精神,工作认真、细心、虚心好学、沟通能力好。
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。