• 25k-35k 经验3-5年 / 本科
    金融业 / 不需要融资 / 500-2000人
    岗位职责 1、配合前端进行大数据项目的方案支撑,需求场景沟通,资源协同,服务保障,控制风险, 商机挖掘等工作,提前规划项目实施交付计划。 2、负责大数据项目远程及驻场的实施交付。 3、负责大数据项目的项目成果(包括业务、技术、产品)经验和价值衡量的总结归纳,为公司沉淀知识与经验。 4、负责面向客户及公司内部的技术交流、技术培训。 任职要求 1、从事大数据类项目的开发、项目交付工作 3 年以上,有大数据相关工作经验,熟悉主流 大数据技术,熟悉国内外主要大数据产品及技术框架。 2、有丰富的项目经理工作经验,熟悉项目实施交付流程及相关要求,参与过重大项目的实 施交付及日常运维。 3、有政务、金融、医疗、教育、交通、文旅、工业等行业大数据项目经验,熟悉数据治理、 数据建模、数据可视化等内容的优先。 4、熟悉项目管理的相关知识,有 PMP 认证优先。
  • 15k-30k 经验1-3年 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责:1、对ROI数据团队项目的整体实施负责, 全生命周期参与并领导项目的规划、推进和交付, 参与和管理模型开发及应用的合作项目;2、代表ROI数据团队,与包括头条/抖音/短视频等业务的增长/产品/运营/战略/市场/财务/分析等团队沟通,确保项目的顺利实施与交付;3、代表ROI数据团队,与包括基础数据、工程算法、数据仓库、数据产品等基础团队协作,共同管理ROI数据项目,提高模型迭代效率,共同迭代中长期合作模式;4、ROI数据团队内部,对内制定详细项目管理计划(包含进度、资源、沟通、质量和风险管理),保证团队内部分工协作顺利进展,优化团队协作效率。职位要求:1、本科及以上学历,1年及以上项目管理/互联网技术/产品/数据分析等相关经验;2、具有较强的沟通技巧、冲突解决/协作能力,较强的风险识别与资源协调能力;3、较强的项目时间与结果导向管理能力,良好的量化、流程结构化的项目管理能力;4、拥有良好的团队合作精神,诚实正直,积极向上;5、学习能力强,具备良好的业务理解能力, 独立承担项目管理工作。
  • 15k-30k 经验5-10年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1. 负责CDN的Spark集群资源管理和优化,维护Spark引擎,有二次开发能力,解决线上各种问题; 2. 负责优化Spark集群,为海量数据及其上的大规模数据挖掘、数据分析提供可靠、高效的支持; 3. 负责Spark集群的存储、计算的设计、开发; 4. 快速理解业务场景,从具体问题中抽象出通用的解决方案。 工作地点:上海/北京 任职要求 1.有较强的编程能力和编程经验,至少熟悉JAVA\Scale其中之一; 2. 熟悉大数据领域的技术栈,如Spark/Hadoop/Hive等,熟练使用Flume、Hive、HDFS、Hbase、Redis、Kafka、mycat、mysql等组件; 3. 对spark执行原理及使用调优有深入见解者优先; 4. 有CDN业务经验优先; 5. 对数据敏感,有较强的逻辑分析能力,对处理海量数据和分析有热情。
  • 10k-15k·15薪 经验1-3年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 不需要融资 / 500-2000人
    岗位职责: 1、支撑大数据产品和项目,对整个生命周期的大数据流程进行研发。 2、搭建、调试大数据平台,集成相关组件,如spark、ES、hbase、图数据库、dockers等。 3、保障数据质暈,测试验证数据逻辑和数据流程的准确性。 4、完成项目交付开发及交付质量。 任职资格: 1、大学本科及以上学历,2年以上大数据相关工作经验; 2、熟练掌握Hadoop、Hive、Hbase、Spark、Storm等分布式框架原理,有相关的调优、运维、开发经验; 3.熟悉常用的数据挖掘算法,例如聚类、回归、决策树等; 4.有数据仓库、分析系统、用户画像等产品开发经验者优先; 5.有较强的数据和业务结合能力; 6.有较强的独立、主动的学习能力,良好的沟通表达能力。
  • 12k-24k 经验1-3年 / 本科
    其他 / 未融资 / 15-50人
    岗位职责: 1.支持Hadoop集群底座的运维故障分析、解决、性能优化;大数据集相关组件主要包括:Yarn、HDFS、ZooKeeper、Storm、Kafka、Hbase、Hive、Spark、Kerberos、Spark、Flink、Flume、MySQL等组件运维; 2.开展Yarn性能优化,提升集群资源利用率和任务响应速度;队列优化和维护;优化调度器性能; 3.及时关注Apache官方网站、论坛,针对Patch提出升级建议、方案,并组织实施; 4.配合开展HDFS存储、Hive元数据治理优化,建立并完善存储治理方案; 5.配合开展Hive、Spark作业优化,对业务侧提出优化建议。如:作业小文件问题、数据倾斜治理方案等; 6.提出集群优化建设方案,配合建设和优化大规模分布式集群的自动化运维、监控等工具和管理平台。 任职要求: 1.本科及以上学历,通信/计算机等相关专业,具有良好的学习能力、沟通能力、团队合作能力及一定的抗压能力; 2.熟悉Hadoop、Hive、Hbase、Spark等开源项目,理解组件架构及原理; 3.对大数据运维开发有浓厚兴趣,熟悉Apache Hadoop部署、性能调优; 4.能阅读/理解Hadoop等相关开源组件源码; 5.对HQL、SparkSQL等有较深入的研究,能解决实际业务性能问题; 6.熟练掌握LDAP、Kerberos等安全认证体系; 7.熟练掌握Linux命令与工具进行问题定位,熟悉常规的互联网技术架构; 8.具备一定的Java开发能力; 9.擅长Linux Shell、Python脚本编写,有DevOPS/自动化运维经验工作者优先考虑。
  • 12k-17k 经验1-3年 / 本科
    移动互联网,企业服务 / 上市公司 / 2000人以上
    项目经理(技术处项目经理,出差少) 岗位职责: 1、负责牵头完成信息化项目、科技项目的申报、投标、汇报、跟踪等工作; 2、负责项目启动、规划、执行、监控、收尾全过程管理; 3、负责对接国网总部、省(市)公司及其他央企单位,提供专业化技术支持,完成解决方案、工作汇报、可研编制等工作; 4、负责对接项目业务主管部门、建设主管部门,进行沟通汇报,完成相关工作要求; 5、完成公司领导交办的其他任务。 任职要求: 1、本科及以上学历,1年以上工作经验,35周岁以下,具备大中型企业项目管理经验优先; 2、具有较强的沟通能力、组织协调能力、应变能力和执行能力; 3、熟悉区块链技术、应用场景、行业标准优先,对大云物移智等新兴技术有一定了解优先; 4、具有独立完成项目方案、技术方案、工作汇报等材料编制能力; 5、具有PMP等项目管理证书者、国家电网有限公司信息化工作经验者优先。
  • 9k-18k 经验1-3年 / 大专
    移动互联网,企业服务 / 上市公司 / 2000人以上
    岗位职责:1、负责核心业务系统的日常维护、告警处理、各类实施方案的整理和执行;2、对系统进行安全加固,参加安全保障工作;3、响应和处理系统故障,并对故障进行根因分析,优化系统;4、支持临时安排的工作;5、编写、修订和审核技术支持相关文档,配合完成项目实施工作;任职要求:1、熟悉LINUX系统,能够熟练操作,并掌握网络基础知识;2、掌握hadoop、hive、hbase、storm、spark、flink、kafka一种或者几种组件,并对大数据架构有一定的理解;3、熟悉自动化运维工具,熟悉shell脚本编写,熟悉zabbix监控工具;4、具有很强的学习、分析和解决问题能力,良好的团队意识和协作精神,有较强的内外沟通能力;5、两年及以上技术支持工作经验,有电信级产品维护经验背景者优先;
  • 15k-30k 经验3-5年 / 不限
    软件服务|咨询 / A轮 / 2000人以上
    工作职责: 1. 负责大数据平台的运维保障工作,通过不断优化技术架构,为业务提供安全、稳定,高效,易用的数据服务能力,支撑业务和数据量的快速扩张。 2. 负责公司大数据业务的高可用能力保障,沉淀业务保障关键能力,如应急响应、故障恢复,健康巡检,变更管控,日常演练等。 3. 负责公司大数据平台架构,建设公司统一的“自动化、系统化、智能化、开放”的大数据运维平台。 4. 持续的创新和优化能力,提升平台整体质量,改善用户体验,控制系统成本。 任职资格: 1. 计算机相关专业本科及以上学历,深入理解linux系统,运维体系结构,精于容量规划、架构设计、性能优化。 2. 熟悉大数据产品生态圈,包括但不限于KAFKA、HDFS、YARN、Hive、HBase、Spark等; 3. 有5年以上大数据平台相关运维开发经验,了解分布式平台运行的原理,并有实际部署维护经验; 4. 有开发经验优先,精通一门以上脚本语言(shell/python等),熟悉java/python/Golang等开发语言一种及以上,有大数据产品源码阅读能力者优先。
  • 15k-21k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    1、负责行内外大数据应用系统建设、优化; 2、负责大数据相关应用项目管理、实施,保障系统平稳运行; 3、负责设计、开发、建设数据平台相关数据模型,保障大数据平台内数据的可用性和易用性。 4、熟悉大数据平台使用(cdh、hdp、tdh、apache开源版本中任意一种); 能力要求: 1、***大学本科(含)以上学历;3年以上相关经验; 2、具有银行大数据工作经验。 5、具备很强的责任心,较强的沟通和学习能力。
  • 18k-25k 经验5-10年 / 本科
    数据服务 / 不需要融资 / 50-150人
    1.本科以上学历,5年以上大数据开发工作经验,计算机、统计、数学等相关专业毕业; 2.掌握Hadoop、Hive、Hbase、Spark、SparkStreaming、Storm、Sqoop、Kafka、Flink、Zookeeper等分布式框架原理,有相关的调优、运维、开发经验; 3.掌握至少一种OLAP引擎解决方案,如kylin; 4.具有夯实的数据仓库和元数据构建能力; 5.精通掌握mysql、Oracle等数据库集群; 6.精通主流ETL开发工具,如:Informatica、Data Services、Kettle、SSIS;精通主流调度工具,如:Azkaban, Oozie; 7.熟练掌握Java、Scala、python中至少一种开发语言; 8.有较强的数据和业务结合能力; 9.有较强的独立、主动的学习能力、良好的沟通表达能力; 10.熟悉常用机器学习算法者优先; 11.有数据仓库、分析系统、用户画像等产品开发经验者优先。 1.负责视频票大数据项目的需求调研、概要设计、详细设计、编码及测试工作; 2.与其他成员配合完成数据采集、数据处理、数据分析、图形化展示、报表输出等工作; 3.负责基于Spark等主流分布式计算框架进行相关大数据分析功能开发; 4.熟悉Hadoop架构及生态技术栈,如:HBase、Hive、MapReduce、Spark、SparkStreaming、Kafka、ElasticSearch、Flink、Sqoop、Zookeeper等开源组件 5.协助大数据分析工程师对数据进行分析。
  • 其他 / B轮 / 150-500人
    职责描述: 1、负责数据中台建设的整体规划,包括大数据平台的技术选型、架构设计和实施工作; 2、制定数据治理、数据模型、数据安全等大数据领域相关标准; 3、搭建数据平台技术框架,负责指导工程师进行技术验证与实现,核心技术问题的攻关,解决项目开发过程中的技术难题 4、负责大数据应用规划,为数据治理、业务团队提供指导; 5、根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 任职要求: 1、计算机相关专业本科以上学历,3年以上数据仓库开发和管理经验,熟悉数据仓库理论、具备大型数据仓架构设计、模型设计等能力; 2、熟悉海量数据的处理,掌握Hadoop、HBase、Spark、Flink、Kafka、HDFS、Hive、Kylin等主流大数据存储、检索引擎的工作原理、特点及应用场景; 3、对数据采集、数据开发、数据分析、数据建模、算法等有深刻认识和实战经验,具备大规模系统的故障诊断与性能优化能力; 4、具备 Scala/Java/Python其中一种或多种语言的开发能力,掌握java web开发优先; 5、有用户画像体系、个性化推荐、数据中台建设相关经验者优先。
  • 15k-30k 经验3-5年 / 本科
    企业服务 / D轮及以上 / 500-2000人
    1、计算机或相关专业本科及以上学历,2年以上大数据运维或开发工作经验;2、熟悉linux开发环境,熟练掌握JAVA/GO/Python语言中的一种;3、熟练掌握大数据常用开源组件的技术原理, 有hadoop、kafka等开源大数据组件运维或开发经验;4、有较强的逻辑思维能力,思想上开放,主动积极有责任感,能够承担工作压力;有hadoop、kafka、spark、flink等开源组件源码优化经验优先;岗位职责:负责大数据平台消息中间件/Hadoop/实时计算/OLAP的运营支撑和架构优化。
  • 15k-30k·14薪 经验3-5年 / 本科
    企业服务 / D轮及以上 / 500-2000人
    1、计算机或相关专业本科及以上学历,2年以上大数据运维或开发工作经验; 2、熟悉linux开发环境,熟练掌握JAVA/GO/Python语言中的一种; 3、熟练掌握大数据常用开源组件的技术原理, 有hadoop、kafka等开源大数据组件运维或开发经验; 4、有较强的逻辑思维能力,思想上开放,主动积极有责任感,能够承担工作压力; 有hadoop、kafka、spark、flink等开源组件源码优化经验优先; 岗位职责: 负责大数据平台消息中间件/Hadoop/实时计算/OLAP的运营支撑和架构优化。
  • 50k-70k·14薪 经验不限 / 本科
    移动互联网 / D轮及以上 / 500-2000人
    工作职责: 1. 根据实际业务需求,负责实时计算,数据中台服务的架构和核心开发; 2. 负责实时计算中间件工具的调研,设计和核心开发; 3. 负责内部PaaS数据平台的需求分析,平台架构设计,核心开发; 4. 负责内部PaaS数据平台开源组件的调研评估决策,以及二次开发。 岗位要求: 1. 计算机相关专业,本科及以上学历; 2. 扎实的编程功底,熟练掌握java、Scala、Python中至少一门编程语言,能熟练写SQL,对传统数据库有一定了解; 3. 5年以上大数据研发经验,深入使用Spark、Flink中至少一个框架开发应用程序或开发中间件; 4. 熟练使用容器化工具Docker、Kubernetes; 5. 熟悉Kudu/Doris/ClickHouse, Presto(Trino)其中任意组件或有二次开发经验,可以作为加分项; 6. 逻辑思维缜密、工作细致有耐心、良好的自我管理和抗压能力、良好的沟通和团队协作能力。
  • 18k-28k 经验3-5年 / 本科
    数据服务 / B轮 / 500-2000人
    岗位职责: 1、负责数据治理类项目的开展实施,梳理数据资产,提高业务系统的数据质量; 2、负责制定数据标准、数据管理体系和流程; 3、负责大数据的元数据、主数据、数据质量流程处理等工作; 4、负责开展大数据平台、大数据管理系统的建设规划、制度建设、应用推广等工作; 5、跟踪大数据行业进展及市场动态,不断创新完善设计方法论和解决方案,能够突破创新。 任职要求: 1、本科以上学历,具有3年以上数据管理或应用开发经验; 2、熟悉数据架构相关知识,对银行或政务数据有较深理解和认识,具备至少1个大型数据库实施项目经验; 3、具备较高水平的解决方案编制、交流撰写能力; 4、具有较强的工作责任心,良好的沟通和协调能力,严谨、细致、踏实的工作作风和积极主动的工作态度; 5、熟悉数据模型、数据标准、数据质量、元数据、主数据等数据治理相关领域的技术,具有较好的沟通、协调能力,以及文字表达、口头表达能力; 6、具有数据治理、数据仓库、大数据平台建设经验者优先考虑。