• 20k-40k·15薪 经验5-10年 / 本科
    社交媒体 / 上市公司 / 2000人以上
    职位描述: 1、负责⼤数据平台维护,⽀撑各类数据⽣产、挖掘分析业务⾼效稳定开展; 2、负责⼤数据平台相关的关键技术攻坚,解决平台的疑难杂症; 3、负责⼤数据平台技术的选型,新技术的预研,主流前沿技术的引⼊和落地; 4、负责大数据基础设施和平台的改进,解决大规模生产环境集群可用性和性能优化问题; 职位要求: 1、重点院校计算机或相关专业本科及以上学历,5年以上⼤数据平台相关⼯作经验; 2、熟练掌握Java/Scala开发,熟悉java的IO/并发/容器/内存模型; 3、具备较丰富的⼤数据平台相关建设,维护及调优经验,善于容量规划、架构设计和性能优化; 4、熟悉hadoop⽣态环境技术组件:HDFS/YARN/HBase/Kafka/Hive/Spark/Flink/Kylin/Druid等; 5、深⼊理解上述组件中的两个以上(包括功能和原理),阅读过源码,有过⼆次开发经验者优先; 6、具有良好的逻辑思维和快速解决问题能⼒; 素质要求: 1、良好的沟通能力及团队合作精神,具备高度的责任心; 2、具备极强的技术悟性与学习能力,较强的文档撰写能力; 3、开放的心态和良好的学习能力; 4、踏实靠谱,有良好的自驱力,执行力,具备良好的时间管理及流程管理的意识和能力; 5、基础技术扎实,有较强的数据敏感性;
  • 15k-30k 经验3-5年 / 本科
    企业服务,数据服务 / 上市公司 / 500-2000人
    职位描述: 1、基础组件、基础设施的二次开发、L2支撑、交付; 2、围绕大数据组件服务平台开发,围绕组件进行串联部署、功能组合/抽象,给上层数据开发人员提供组件级平台服务 3、对Hadoop、Hbase、Hive、Flink等组件/系统进行持续研究、开发和交付,满足部署、集成、扩展、监控、高可用等生产需求; 4、根据理论与技术研究、产品对标和相关需求,持续产品规划与迭代; 5、根据现场信息搜集,分析、定位和解决现场问题,承担L3支撑 职位要求: 1、计算机相关专业,本科及以上学历; 2、3年及以上hadoop生态的基础设施开发经验,熟悉国内主流大数据平台; 3、熟练掌握Java,熟悉Linux开发环境及常用工具; 4、以下优先: (1)985/211(必备条件,不符合请勿投递,谢谢) (2)深入阅读过相关组件内核源代码 (3)深入理解分布式资源调度系统技术及原理 (4)深入理解linux系统能够独立排查及解决操作系统层问题 (5)有数据仓库经验者 (6)有运维经历者 (7)有C/C++开发经验 (8)有论文阅读、理论研究爱好与能力
  • 13k-16k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    1.熟悉Hadoop,有过大数据开发经验 2.熟悉大数据开源技术,对Spark,flink,Hive, Hdfs等分布式计算存储引擎有实战经验 3.**本科,双证齐全
  • IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1.负责反欺诈系统大数据相关架构的搭建 2.参与集群的部署及搭建,监控与优化 3.参与新技术的调研及预研工作 4.参与当前大数据架构的业务功能开发及优化 技能要求: 1.精通hadoop部署框架及原理,并有落地的部署场景经验 2.熟练掌握flink或者spark之一的应用,并有落地的部署及开发场景经验 3.熟练掌握java开发语言,python脚本或者shell脚本 4.熟练掌握linux的基本知识 5.掌握elasticsearch以及实时数据湖技术的优先
  • 10k-20k·14薪 经验1-3年 / 本科
    移动互联网 / 不需要融资 / 50-150人
    岗位职责: 1、负责公司各产品线服务可靠、稳定、高效运行,提供K8S,Hadoop技术支持。 2、负责运维平台建设 通过技术手段提升工作效率; 3、负责公司各类基础设施监控、自动化、监控体系的持续建设与完善; 4、参与公司各类产品自动化实现,满足严格的质量与效率要求; 岗位要求: 1、***大学本科(计算机专业,获得***书、***书) 2、能熟练编写 Shell或Python脚本,有go/python/shell编程能力者优先 熟悉devops理念 3、熟悉自动化运维工具(saltstack/ansible/Jenkins)的原理及使用,有二次开发经验优先 4、具备kubernetes、docker、HDFS、spark、Hive运维经验者优先。 5、具备一定JAVA/GO开发经验优先。 6、具备良好的学习能力,能够快速掌握一门新的技术。
  • 12k-24k 经验1-3年 / 本科
    其他 / 未融资 / 15-50人
    岗位职责: 1.支持Hadoop集群底座的运维故障分析、解决、性能优化;大数据集相关组件主要包括:Yarn、HDFS、ZooKeeper、Storm、Kafka、Hbase、Hive、Spark、Kerberos、Spark、Flink、Flume、MySQL等组件运维; 2.开展Yarn性能优化,提升集群资源利用率和任务响应速度;队列优化和维护;优化调度器性能; 3.及时关注Apache官方网站、论坛,针对Patch提出升级建议、方案,并组织实施; 4.配合开展HDFS存储、Hive元数据治理优化,建立并完善存储治理方案; 5.配合开展Hive、Spark作业优化,对业务侧提出优化建议。如:作业小文件问题、数据倾斜治理方案等; 6.提出集群优化建设方案,配合建设和优化大规模分布式集群的自动化运维、监控等工具和管理平台。 任职要求: 1.本科及以上学历,通信/计算机等相关专业,具有良好的学习能力、沟通能力、团队合作能力及一定的抗压能力; 2.熟悉Hadoop、Hive、Hbase、Spark等开源项目,理解组件架构及原理; 3.对大数据运维开发有浓厚兴趣,熟悉Apache Hadoop部署、性能调优; 4.能阅读/理解Hadoop等相关开源组件源码; 5.对HQL、SparkSQL等有较深入的研究,能解决实际业务性能问题; 6.熟练掌握LDAP、Kerberos等安全认证体系; 7.熟练掌握Linux命令与工具进行问题定位,熟悉常规的互联网技术架构; 8.具备一定的Java开发能力; 9.擅长Linux Shell、Python脚本编写,有DevOPS/自动化运维经验工作者优先考虑。
  • 8k-10k 经验1-3年 / 本科
    移动互联网,金融 / 不需要融资 / 150-500人
    工作内容: 1.负责hadoop基础技术规划,编制相关规范文档; 2.负责Hadoop数据应用相关的数据存储、查询、计算、元数据管理的架构设计与实现; 3.负责hadoop的实际规划建设,包括环境与框架的规划搭建及部分核心编码工作; 4.负责hadoop相关技术发展方向的预研; 5.独立负责具体功能开发与实现、性能优化,保证系统健壮稳定及临时性数据处理工作的支持; 6.负责数据应用相关的数据存储、查询、计算、元数据管理等方面的架构设计。 岗位要求: 1.1年以上大数据开发经验,熟悉分布式的设计与应用。 2.熟悉hadoop大数据平台框架,包括不限于hadoop、hive、hbase等大数据生态平台组件的部署升级与调优。 3.熟悉hadoop、spark、flink、hbease、es等相关计算机存储框架的底层理论,并能应用至实际开发当中。 4.熟悉至少一款ETL工具,例如kettle、logstash等。 5.熟悉关系型及非关系型数据库的使用及优化,包括但不限于Oracle、PG、hive、clickhouse等。 6.熟悉各类大数据处理组件,sqoop、flume、kafka、azkaban等。 7.根据计划完成模块的编码开发工作,保证开发质量。 8.有良好的沟通能力,积极为项目建设提供建设性意见。 9.本科及以上学历,计算机相关专业,有银行工作、财务会计、管理会计业务经验优先。
  • 11k-15k 经验3-5年 / 大专
    企业服务,软件开发 / 上市公司 / 2000人以上
    1. 熟悉大数据云平台经验,再加Java开发 Java基础扎实,熟练掌握多线程编程,熟悉JVM,以及常规性能优化。 2. 熟悉spring,springboot,springcloud,nacos,mybatis,mybatis-plus等常⻅开源框架。 3. 熟悉redis,RocketMQ等常见中间件。 4. 熟练使用MySQL数据库,良好的数据库设计,SQL编写,索引性能分析能力。 5. 熟练掌握linux系统的使用。 6. 熟练掌握EKL系统的使用。 7. 有良好的逻辑思维能力,沟通能力,有责任心能独立完成需求。 1、本3专4,计算机/互联网/通信相关专业 2.熟悉java开发常用框架组件,能熟练运用到具体项目中 3.配合项目完成研发计划,有独立完成需求的能力
  • 30k-60k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、结合信贷风控模式和信贷流程,开发并优化互联网信贷风控的反欺诈、信用评分、用户画像等模型 2、搭建各业务环节的机器学习模型,并负责模型部署应用、维护、监控和升级迭代; 3、推动自有数据、三方数据的特征挖掘,并对数据挖掘结果进行评估和校验; 4、负责建模流程优化,提升模型开发和部署效率,降低模型维护成本; 5、研究前沿机器学习算法在领域的实践和应用; 6、跟进配合产品和策略同学的数据模型辅助和名单生成规则等工作; 7、根据规则配置决策引擎,灵活响应业务的调整需求。 职位要求: 1、数学或计算机专业本科及以上学历,扎实的计算机算法基础;熟悉机器学习基本理论; 2、熟练掌握Python/Java等建模语言,熟练使用SQL/Hive/SAS/Spark等数据统计工具; 3、精通LR,DT,SVM等常用统计学习方法,熟悉GBDT、LSTM等机器学习算法,良好的编码习惯和工程优化能力; 4、2年以上互联网公司的数据挖掘或机器学习的工作经历; 5、Hadoop分布式模型搭建或者维护经验,自然语言处理、关系网络、强化学习、深度学习经验,大型互金、银行数据智能工作经验优先。
  • 18k-25k 经验5-10年 / 本科
    移动互联网,医疗丨健康 / 不需要融资 / 150-500人
    职责描述: 1、负责复杂业务场景下数据体系构建、赋能业务数字化运营,保障数据质量和数据生产的稳定性 2、负责技术大数据技术平台技术上的数据仓库建设,包括数据模型设计、离线/实时计算、性能优化以及相关技术问题的解决 3、参与产品&数据分析的需求沟通、架构设计、数据开发以及系统优化 4、负责数据质量,数据资产管理等数据治理工作,构建全链路的数据质量监控治理体系 1、本科及以上学历,计算机相关专业,5年以上互联网大数据业务开发经验, 2、数量掌握Java、Python等编程语言中的一种或多种,掌握大数据生态技术如 Hadoop, Hive, HBase,Impala,Kafka 3、熟悉常用的流批架构模式,熟悉实时流处理系统的开发和设计,包括但不限于Flink,Spark,Sql等 4、熟悉数据仓库理论,数据仓库建模、ETL 设计开发,有数据质量与数据治理相关经验; 5、良好的沟通表达能力和团队协作能力,对自己有较高的要求,有自驱力。 6、熟悉OLAP平台建设或有过经验、熟悉业务指标设计,且梳理掌握OLAP维度模型设计方法优先
  • 20k-35k 经验3-5年 / 本科
    人工智能服务,科技金融 / 不需要融资 / 500-2000人
    岗位职责: (1)参与制定兴业银行系统架构整体规划; (2)参与兴业银行系统架构管控,审核系统架构合规性; (3)负责兴业银行系统技术可行性研究、架构设计、整体实施方案设计等工作。 岗位要求: (1)具备应用架构、数据架构、技术架构、安全架构设计能力中的一个或多个; (2)具备宏观架构设计思维,具有主导大型复杂系统架构设计和开发编码经验。了解银行业务概貌,具备银行大型系统开发经验者优先; (3)具备良好的技术前瞻性研究能力,具备优秀的技术方案设计能力和文档能力,能独立完成重要信息系统整体方案的设计; (4)精通Java或C语言,熟悉Hadoop、MySQL、TDSQL、OpenGauss等一种或多种。 工作地点:上海、福州、成都
  • 16k-25k 经验5-10年 / 本科
    移动互联网,医疗丨健康 / 不需要融资 / 150-500人
    职责描述: 1、参与项目的需求分析、设计、开发以及上线,及时解决项目中的技术难点 2、负责大数据平台架构设计以及基础组件的调优、改造、升级 3、负责大数据平台及组件的调研选型,部署,日常监控及问题解决 4、解决潜在系统技术风险,保证系统的安全、稳定、快速运行 任职要求: 1、本科及以上学历,计算机相关专业,5年以上互联网大数据相关开发经验 2、Java基础扎实,理解IO、多线程、状态机等基础框架,熟悉JVM 3、熟练掌握主流技术框架,如Spring、SpringBoot、SpringCloud、Dubbo、ZooKeeper、ELK等 4、熟悉大数据生态组件的原理和内部机制,包括但不限于Flink,Spark,Hadoop,ClickHouse,Hbase,Doris等 5、有BI,调度系统,可视化项目、数据平台开发经验优先 6、有较强的逻辑思维能力,责任心强,具备良好的问题分析解决能力、团队协作能力和抗压能力
  • 30k-60k·15薪 经验3-5年 / 本科
    移动互联网,文娱丨内容 / 上市公司 / 2000人以上
    工作职责: 1. 负责B站商业化策略算法研发,优化模型算法和策略机制,提高广告变现效率,提升用户体验,优化商业生态 2. 结合业务需求,对用户及内容数据进行挖掘和建模,优化用户和内容画像 2. 跟踪学习相关领域前沿进展,实现技术突破和业务落地 工作要求: 1、熟悉机器学习、深度学习、数科类算法等中的一项或者多项技术,具备项目经验。 2、具备优秀的逻辑思维能力,对解决挑战性问题充满热情,善于分析和解决问题 3、熟悉spark、hadoop、hive等大数据处理技术 4、有推荐/广告/搜索算法的工作经验,对相应系统和技术问题有充分理解
  • 15k-30k 经验1-3年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据组件开发。 2. 基于Python 体系下的数据质量引擎开发; 3. 基于Java及Linkis开源框架的质量引擎开发; 4. 大数据资产应用的开发、部署、调优; 5. 数据稽核引擎开发,数据共享交换能力对接。 任职要求: 1. 本科及以上学历,计算机相关专业; 2. 3年以上互联网或软件行业工作经验,熟悉Linux环境;熟悉Linux和Python开发; 3. 熟悉Spring,Spring boot,Spring Cloud等框架、熟悉Eclipse或IntelliJ IDEA开发工具等使用 以下满足其一即可: 4. 熟悉Hadoop,MapReduce,Hbase,Flink等大数据部署、运维、开发; 5. 熟悉数据治理理论概念、架构,有元数据、数据质量、数据标准、主数据等相关数据治理经验; 6. 有分布式相关项目(分布式存储/分布式计算/高性能并行计算/分布式cache)经验; 7. 对数据库的架构、扩展特点非常熟悉,能熟练进行SQL优化、集群部署、数据同步等。
  • 18k-25k 经验3-5年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1、参与构建大数据整合分析平台以及数据分析和挖掘工作; 2、参与基于内外数据的离线和实时流分析; 3、参与支撑业务的数据模型建设及数据指标的计算和分析; 4、参与海量数据的存储、查询和运营数据分析体系搭建. 任职资格: 1、3年以上开发经验,熟练掌握数据仓库、ETL的开发,主导过BI项目的专题模型设计和开发; 2、熟练对于内部数据、外部数据、实时数据、非实时数据进行通过建模进行整合; 3、熟练掌握基于hadoop的大数据开发,熟练使用HBase,熟练运用Hive并能进行查询的性能优化; 4、对海量数据进行分析,有高频实时业务处理经验,熟练运用spark等。 5、有金融行业工作经验的优先,有风控或征信系统等建设经验的优先