• 12k-24k 经验1-3年 / 本科
    其他 / 未融资 / 15-50人
    岗位职责: 1.支持Hadoop集群底座的运维故障分析、解决、性能优化;大数据集相关组件主要包括:Yarn、HDFS、ZooKeeper、Storm、Kafka、Hbase、Hive、Spark、Kerberos、Spark、Flink、Flume、MySQL等组件运维; 2.开展Yarn性能优化,提升集群资源利用率和任务响应速度;队列优化和维护;优化调度器性能; 3.及时关注Apache官方网站、论坛,针对Patch提出升级建议、方案,并组织实施; 4.配合开展HDFS存储、Hive元数据治理优化,建立并完善存储治理方案; 5.配合开展Hive、Spark作业优化,对业务侧提出优化建议。如:作业小文件问题、数据倾斜治理方案等; 6.提出集群优化建设方案,配合建设和优化大规模分布式集群的自动化运维、监控等工具和管理平台。 任职要求: 1.本科及以上学历,通信/计算机等相关专业,具有良好的学习能力、沟通能力、团队合作能力及一定的抗压能力; 2.熟悉Hadoop、Hive、Hbase、Spark等开源项目,理解组件架构及原理; 3.对大数据运维开发有浓厚兴趣,熟悉Apache Hadoop部署、性能调优; 4.能阅读/理解Hadoop等相关开源组件源码; 5.对HQL、SparkSQL等有较深入的研究,能解决实际业务性能问题; 6.熟练掌握LDAP、Kerberos等安全认证体系; 7.熟练掌握Linux命令与工具进行问题定位,熟悉常规的互联网技术架构; 8.具备一定的Java开发能力; 9.擅长Linux Shell、Python脚本编写,有DevOPS/自动化运维经验工作者优先考虑。
  • 50k-80k·16薪 经验3-5年 / 本科
    科技金融 / A轮 / 2000人以上
    岗位职责 1、为度小满研发基础架构服务组件,包括分布式存储、计算引擎; 2、调研新技术,推动适合的技术落地满足业务需求。 岗位要求 1、本科及以上学历,计算机、通信等相关专业; 2、熟练掌握Linux环境下的Java/Go/C/C++/Python等1至2种以上语言; 3、具有linux服务器端软件开发经验; 4、熟悉Hadoop生态、Spark生态优先; 5、善于沟通及主动思考总结、倡导创新与持续优化、思路周密、代码严谨、对待技术有强烈兴趣; 6、 具备一定架构能力、有大容量、高性能、分布式系统的设计开发经验优先; 7、有社区贡献者优先;有阿里云、百度云离线架构解决方案经验者优先。
  • 15k-25k 经验不限 / 本科
    移动互联网,消费生活 / 上市公司 / 2000人以上
    工作职责: 1,基于大数据平台的海量数据,负责地图业务相关数据挖掘技术及核心算法研究; 2,协助数据挖掘分析体系的建设,并建立和规范数据挖掘模型标准; 3,协助团队做好数据和应用的对接,完成项目的执行及交付; 岗位要求: 1,计算机、数学或相关专业本科及以上学历; 2,熟悉Hadoop、Hive、Spark等大数据处理平台者优先; 3,具备团队合作意识和创新意识,具有较强的学习能力和解决问题的能力,喜欢研究算法和新技术者优先。
  • 15k-25k·13薪 经验3-5年 / 本科
    其他 / 不需要融资 / 500-2000人
    岗位职责: 1、依据业务需求文档,完成软件模块的分析、设计、开发、测试,以保证能够按期交付,并稳定运行; 2、分析数据及效率问题,并给出解决方案,及时修复; 3、参与数据设计、数据抽取、数据加工的开发,并依据环境进行效率调优; 4、跟踪了解业界发展、互联网、大数据相关最新技术,参与重点项目新技术研发工作; 5、对低阶岗位人员进行技能培训、指导低阶岗位的技术开发工作; 6、领导交代的其他任务。 任职资格: 1、3年以上开发经验; 2、熟练掌握Hadoop框架及技术,如SparkCore、Hbase、Hive、HDFS、Kudu、Impala、Yarn等 3、熟悉大数据ETL工具及技术,如Sqoop、SparkStreaming、Kafka、Flink等; 4、熟悉大数据常用开发语言,如Java、Scala、Python等; 5、良好的团队合作精神、独立解决问题和沟通能力;正直诚实、有责任心,能够承受一定压力; 6、对Hadoop性能调优有深入了解者优先; 7、有大型Hadoop项目开发、实施经验者优先; 8、有数据中台经验者优先;
  • 14k-22k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    1、大数据方向本科学历,计算机相关专业优先,有银行相关经验着优先  长期驻场在京区范围内银行项目工作,完成上级领导分配的开发任务。
  • 20k-35k 经验不限 / 本科
    ASC
    企业服务 / 不需要融资 / 15-50人
    本科以上学历,熟练掌握Python或Java语言,具有金融机构经验优先,Hadoop开发经验优先; 需要完成数据库搭建,核心代码开发,数据管理等相关工作
  • 19k-21k·15薪 经验3-5年 / 本科
    金融业 / 不需要融资 / 500-2000人
    岗位职责 1. 负责Hadoop/HDFS/Yarn/Hive/HBase等组件的运维保障; 2. 负责大数据平台自动化运维以及数据化运营平台开发工作; 3. 深入理解大数据平台架构,发现并解决重大故障及性能瓶颈,提供解决方案; 4. 负责大数据平台系统的架构审核、业务监控、持续交付、应急响应、容量规划等 任职要求 1. 具有100台+大数据集群运维经验,Apache、CDH、HDP集群部署维护,JVM性能优化; 2. 深入理解 HDFS/Yarn/Hive/HBase等组件原理, 管理过大规模 Hadoop 集群并有实际优化经历优先; 3. 熟悉批量工具ansible及prometheus监控; 4. 熟练Linux操作系统,熟悉Shell脚本编程
  • 2k-4k 经验在校/应届 / 本科
    游戏 / 上市公司 / 500-2000人
    【岗位职责】 1. 游戏海量数据仓库开发 2. 数据中台系统开发 3. 游戏内数据挖掘算法开发 负责对公司游戏业务进行数据挖掘, 分析玩家行为, 预测用户行为趋势 【任职资格】 1. 有Java / Python开发能力, 熟悉MySQL或其他关系数据库使用 2. 熟悉Linux服务器使用 3. 有良好的开发/学习能力 【加分项】 1. 数据挖掘算法使用 2. 独立完成的系统项目 3. 熟悉市面常见热门游戏 4. 熟悉 Hadoop 或者 其他分布式数据系统 5. 有使用博客或者github/gitee等系统
  • 房产家居 / 上市公司 / 2000人以上
    工作职责: 工作职责: 1、负责 CDH Hadoop集群安装、运维、性能调优、故障处理、实施开发 2、支持大数据集群相关组件服务Hive/Kafka/Hbase的升级和运维调优 3、配合开展Hive、Spark作业优化,对业务侧提出优化建议 4、建设大规模分布式集群的自动化运维、监控等工具和管理平台。 5、调研和引入业界OLAP引擎,对OLAP引擎进行部署和调优 任职资格: 1.本科及以上学历,计算机软件或相关专业,3年以上工作经验 2 掌握Hadoop体系及生态,掌握hdfs、hive、hbase、Spark、kafka等原理并能够熟练运用 3.至少两年以上hadoop运维经验,能够独立安装开源体系hadoop及生态组件 4.熟练掌握Linux命令与工具进行问题定位,熟悉 Shell/ Python/Java语言中的一种。 5. 有OLAP引擎运维和调优经验者优先(有Presto/Druid/Doris/Kylin/Clickhouse中的一种维护经验)
  • 30k-60k·16薪 经验5-10年 / 本科
    短视频 / 上市公司 / 2000人以上
    职位描述: 1、整合海量多维数据,进行全站数据挖掘,构建用户画像体系、时空知识体系,并搭建全站核心数据资产管理平台; 2、深入业务场景,利用全站海量多维数据,综合运用统计和数据挖掘/机器学习的方法,探索平台新的业务增长点,为各类业务系统提供特征和模型支撑; 3、深度参与归因分析、异常检测、知识图谱等专题类建设工作。 任职要求: 1、具备机器学习或者数据挖掘的研究和项目背景;熟练掌握分类、回归、聚类等机器学习模型,能够把业务问题拆解成适合的数据、算法问题,并完成价值落地; 2、扎实的编程基础,精通至少一门编程语言; 有大数据计算、分布式算法开发经验; 3、好奇心,有良好的的数据和业务敏感度,对数据驱动业务有极大的兴趣。 4、本科及以上学历,5年以上数据挖掘、机器学习、大规模数据分析相关经验; 5、有较强的数理统计和挖掘算法功底,灵活使用Python/SQL; 6、熟悉Hadoop、Hive、Spark,对数据仓库、特征工程有正确的认识;
  • 30k-55k·16薪 经验5-10年 / 本科
    短视频 / 上市公司 / 2000人以上
    职位描述: 1、理解快手电商相关的业务模式和系统架构,发现潜在的作弊风险点,并制定合理的风控策略架构; 2、独立负责电商某个场景的作弊风险,设计合理的数据埋点体系,通过大数据分析,定量识别潜在的风险和业务影响; 3、针对电商某个业务场景建立合理的指标体系,在对抗中不断完善监控体系,形成可视化的监控系统; 4、与其他相关团队紧密配合,通过大数据挖掘,寻找作弊者的行为特点,快速形成有效的打击策略,持续迭代并优化风控效果。 任职要求: 1、5年以上机器学习、数据挖掘、数据分析或后台研发等的相关经验,计算机、数学、统计学专业优先; 2、对业务和数据敏感,能够从数据上发现风险,提出解决方案,并验证效果; 3、熟练掌握SQL语言,熟悉Hadoop/Spark的操作环境,至少熟悉Python、Java、R语言中的一种; 4、具有电商相关工作经验优先,具有反作弊或安全策略相关经验,对黑灰产对抗有一定了解者优先。
  • 20k-30k·14薪 经验3-5年 / 本科
    软件服务|咨询,数据服务|咨询,人工智能服务 / A轮 / 50-150人
    职位详情 1.负责大数据机房日常的运维,应用运维,大数据平台运维; 2.负责机房及数据平台的安全管理和安全运维方案的架构设计及落地; 3.参与自动化部署、监控等自动化运维平台的松建; 4.基于k8s,容器方式,完成公司产品交付的工程化; 5.负责同各技术,架构,大数据团队的沟通协调,提高运维效率。 任职要求: 1.计算机等相关专业本科及以上学历,3年以上大型系统运维工作经验; 2.有丰富的自动化系统构建、配置管理、监控报警等自动化运维平台建设经验; 3.熟悉Hadoop,flink,ES,Kafka,Mysgl,GP Mongodb,Redis,Nginx,Springboot等常用软件的日常维护和优化; 4.要求有大数据平台的安全运维管理的实际经验,对于网络安全、数据安全等有实际的操作经验; 5.熟悉主流Linux系统(CentOS)的使用和优化,有较强的python,shell脚本经验优先; 6.熟悉k8s,docker,有k8s容器化方式的产品交付经验; 7.熟悉vmware等虚拟化技术,有云系统相关研发或运维经验优先; 8.有基于微服务的应用平台的运维经验优先,熟悉阿里云或者华为云优先。
  • 13k-25k·15薪 经验3-5年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 不需要融资 / 500-2000人
    工作职责 1、参与行业大数据产品的开发,参与大数据分析的数据采集,数据建模,行业算法模型构建等。 2、分析行业的业务数据,能够从多维度,多视角分析发现行业业务数据的特点,规律,异常等,规划形成大数据相关产品; 任职资格 1、大学本科以上学历; 2、3年以上IT行业工作经验,至少1年以上大数据产品开发经验; 3、精通 python 语言,有丰富的 python 工程开发经验; 4、有数据分析的经验,熟悉pandas/numpy/tensorflow 等工具; 5、熟悉 hadoop/hive/hbase 等系统,了解基本的使用和原理; 6、熟悉 Linux 环境,了解基本的指令 7、优秀的沟通协调能力和团队合作意识;
  • 5k-7k·16薪 经验在校/应届 / 硕士
    社交 / 上市公司 / 2000人以上
    负责领域 1.负责PCG高性能高可用基础框架和组件的开发; 2.负责PCG大数据实时传输、存储、实时计算、离线计算等底层基础支撑框架的开发和运营; 3.负责PCG大数据OLAP分析引擎的开发和运营。 岗位要求: 1.熟练掌握多线程、网络编程、异步,熟悉JVM内存结构与GC算法调优; 2.熟悉MySQL以及SQL语言,熟悉NoSQL存储; 3.熟悉常用的数据结构与算法; 4.具有二年以上互联网业务开发经验或大容量网络服务相关经验者优先; 5.具有大数据应用支撑框架(kafka、hadoop、spark、flink等)的深度研发经验者优先; 6.计算机或相关专业本科及以上学历,二年以上相关工作经验; 7.有较强的逻辑思维能力,思想上开放,主动积极有责任感,能够承担工作压力。
  • 20k-35k 经验3-5年 / 硕士
    数据服务|咨询,人工智能服务,软件服务|咨询 / 天使轮 / 少于15人
    工作职责: 1、利用数据挖掘、机器学习相关知识和算法,根据业务的需求进行建模。 2、从海量数据中发现问题,在数据发生异常时及时感知数据反映的业务问题,从数据中找出问题,挖据数据中的核心商业价值,指导业务决策。 3、参与模型专题的设计、实现、算法调优、模型优化、业务验证、模型投产。 4、参与项目的落地开发,作完成模型应用和模型优化。 岗位要求: 1、重点大学硕士及以上学历,统计学、数学、应用数学等数学类相关专业,具备复合专业背景者优先。具有2年以上数据挖掘、数据分析相关工作经验者优先。 2、熟悉常用机器学习、数挖算法及原理,并具备相关项目经验,有金融,保险,快消的业务背景优先。 3、精通SQL,熟练掌握至少一门数据分析编程语言,如:python,熟悉Hadoop、Hive、Spark等大数据处理平台。 4、具备良好的分析问题能力、沟通能力和团队合作能力,具备很强的学习和钻研能力。