• 30k-60k 经验3-5年 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动电商相关业务数据仓库的开发与优化; 2、基于Hive/Flink等平台建设数据仓库,实时数仓建设; 3、负责数据模型的设计,etl实施,etl性能优化以及相关技术问题的解决; 4、负责面向业务的olap,报表,数据提取工具等开发工作。 职位要求: 1、熟悉大数据相关技术:Kafka/Flink/Hadoop/Druid/HBase/Hive 等; 2、熟练使用 Java、Go、Python语言中的一种或者多种; 3、具备数据库系统理论知识,掌握主流数据库管理和应用,精通SQL; 4、了解统计以及数据挖掘、机器学习、人工智能技术,会使用关联分析、分类预测、聚类分析等常用分析方法; 5、有高性能分布式平台开发经验,有电商行业经验优先。
  • 18k-36k 经验1-3年 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、负责数据收集、清洗和规约等工作; 2、提供面向业务的数据服务,完成数据指标的统计、多维分析和展现; 3、根据业务和产品情况,抽象业务逻辑,搭建和开发大数据平台。 职位要求: 1、统招本科或以上学历; 2、精通SQL,有较好的SQL性能调优经验,了解Hive/MySQL的基本原理和调优策略 3、熟悉常用的数据挖掘、分析的工具和方法,熟悉linux平台,精通Shell/Python/PHP等脚本语言的一种或多种,编码基本功扎实 ; 4、精通Java开发,熟悉大数据处理相关技术,有Hadoop开发经验,掌握MapReduce。
  • 25k-40k·14薪 经验5-10年 / 本科
    电商 / 不需要融资 / 150-500人
    有关 AfterShip 2012 年成立于香港,公司自 2014 年起已实现持续盈利,且每年 100% 增长,公司目前暂时不需要融资。业务遍布全球,与全球 700 多家物流公司达成合作,涉及 30 多种主流语言业务体系。客户有 Amazon, Wish, eBay, Paypal, Groupon, Etsy,及各大小电商超过 100,000 家。 if (your_passions.includes('coding')) { switch(your_stacks) { case 'Node.js': case 'Python': case 'Kubernetes': case 'Serverless': console.log('Join AfterShip'); break; } } 岗位职责 1、负责数据进行清洗、处理、分析(每月超过 10 亿条实时数据反馈); 2、负责大数据处理分析平台搭建,数据产品构建; 3、负责生成 BI 报告以及实时生成不同纬度的报告; 4、负责系统的 SLA 代码维护、秩代更新,保证任务质量和交付及时性; 5、负责编写相关的技术文档、单元测试,对产品质量负责; 6、负责基于Hadoop / Spark / Hive / Kafka / Flink等分布式计算平台实现离线分析、实时流分析的计算框架的开发。 岗位要求 1、统招本科及以上学历,英语读写熟练; 2、熟悉 Git / GitHub,通信协议 TCP / HTTP 及 RESTful 标准; 3、五年及以上数据平台构建,Java, Scala 或 Python 开发工作经验; 4、深入了解大数据计算平台架构和产品组件原理和应用场景,如 Spark, Hadoop, Hive, HBase, AWS Redshift, AWS Kinesis, GCP BigQuery, GCP Cloud Dataflow 等。 加分项 1、有 NLP, TensorFlow 或其他相关机器学习使用经验; 2、有 CI/CD 自动化测试经验; 3、有使用 Docker、Kubernetes、AWS 或 GCP 云计算经验; 4、有写 Blog 的习惯,活跃技术社区,参与开源项目等; 5、有代码洁癖,对代码精益求精,对技术有极客热情; 6、有软件著作权申请,有专利发明申请。 为什么加入我们 1、极客氛围: 拥抱开源技术,实践敏捷开发; 2、新技术: Kubernetes, Serverless, TensorFlow, Microservice; 3、特色福利: 每天下午茶,学习成长基金, 提供 MacBook Pro; 4、多元文化: 团队来自全球十几个国家; 5、行业头部企业: 海外驰名企业,细分领域领跑者; 6、朝阳行业: B2B 企业级系统,国际性 SaaS 平台。
  • 10k-20k 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1.负责团队大数据平台的设计与开发 2.对数据进行业务分析,灵活运用可视化工具展示分析结果 3.研究前沿技术,解决实际业务场景中的问题,持续优化数据处理,分析方式 任职要求 1、本科以上学历,计算机及相关专业 2、3-5年大数据开发工作经验 3、精通Hadoop生态及相关的各种组件,包括但不限Hadoop、Hive、Sqoop、HBase等 4、精通数据数据仓库、数据集市的设计与开发,并且有至少两年以上的项目经验 5、熟悉至少一种消息队列,如kafka,rocketmq,rabbitmq等 6、熟练掌握至少一种大数据引擎,如flink,storm,spark streaming等 7、熟练应用Linux系统,并能熟练编写Shell编程 8、熟练使用至少一种关系数据库,包括但不限Mysql、Oracle 9、具备良好的分析解决问题能力,能独立承担任务和有系统进度把控能力,责任心强。
  • 10k-20k 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1、与金融保险业务后台对接,建立不同主题的数据仓库/数据中台; 2、基于Hadoop对数据进行加工整合、深度分析,并将数据整合成数据产品,提供数据服务; 3、对所负责项目或任务主导设计及评审,参与软件程序开发和测试,形成规范化的软件代码和测试文档; 4、进行所在技术领域的技能技巧的研究和引进推广; 任职要求 1、本科及以上学历,985/211高校计算机相关专业; 2、3年以上大数据开发经验,有海量数据开发经验或实时开发经验优先; 3、熟练掌握Hadoop/Spark生态体系,深入理解HDFS和MapReduce和Spark原理及优化技巧; 4、熟练掌握数据仓库概念,精通Oracle或者Mysql SQL,有使用一种ETL方式经验优先; 5、具备良好的设计和编码规范; 6、具备良好的沟通、抗压、分析和解决问题能力,高度的责任心和团队合作精神。
  • 35k-40k·14薪 经验5-10年 / 本科
    企业服务 / D轮及以上 / 500-2000人
    1、计算机或相关专业本科及以上学历,5年以上大数据运维或开发工作经验; 2、熟悉linux开发环境,熟练掌握JAVA/GO/Python语言中的一种; 3、熟练掌握大数据常用开源组件的技术原理, 有hadoop、kafka等开源大数据组件运维或开发经验; 4、有较强的逻辑思维能力,思想上开放,主动积极有责任感,能够承担工作压力; 有hadoop、kafka、spark、flink等开源组件源码优化经验优先; 岗位职责: 负责大数据平台消息中间件/Hadoop/实时计算/OLAP的运营支撑和架构优化。
  • 15k-26k 经验3-5年 / 本科
    移动互联网,金融 / 不需要融资 / 2000人以上
    1、统招本科及以上学历,计算机软件及相关专业;  2、至少具有3年以上大数据数据开发经验,2年以上金融类项目开发经验  3、熟悉关系型数据库基本原理,熟练掌握MYSQL\ORACLE至少一种数据库开发技术,ORACLE优先,具有SQL开发和存储过程开发能力;  4、熟悉Hadoop、Spark集群,熟练掌握Hadoop核心组件:HDFS、MapReduce、Hive、Yarn、Hue等核心组件的原理及开发技能;  5、 有基于Hadoop大数据平台搭建企业级数据仓库项目、应用集市项目经验;
  • 23k-35k 经验5-10年 / 本科
    电商 / 上市公司 / 2000人以上
    【职位描述】 1. 参与邮箱数仓基础设施建设,设计搭建相应的流程工具,负责数据采集、清洗、存储、查询等环节的代码开发和维护; 2. 处理业务数据采集完成后的清洗处理、逻辑汇总、下游对接、报表产出等环节的开发需求; 3. 配合产品市场对业务流程调整优化,推广活动反馈等进行数据支撑。 【职位要求】 1. 掌握常用大数据处理框架基础维护及常见使用技术,包括但不限于:hadoop、hdfs、hive、hbase、clickhouse、impala、es等; 2. 熟练掌握java、python、shell等开发语言,掌握mapreduce、flink等数据处理框架使用技能及经验者优先; 3. 掌握flume、kafka、zookeeper、yarn等数据处理构件的基本使用和配置技能; 4. 熟练掌握类sql的数据查询优化技术,了解互联网行业常见场景数据统计需求及实现方案,有实际项目经验者优先; 5. 关注大数据处理技术发展方向,了解行业内新技术应用,具备对现有流程短板发现及改进的能力。
  • 20k-28k·13薪 经验5-10年 / 本科
    数据服务 / 不需要融资 / 15-50人
    岗位要求: 1.本科以上学历,3年以上ETL相关开发经验; 2.熟悉Hive及Hive SQL,具备性能调优能力; 3.熟悉数据仓库分层设计和建模,能按规范进行设计开发; 4.熟悉Linux操作系统,精通shell脚本,同时熟悉python脚本更佳; 5.熟悉主流数据库如Mysql、Oracle等,熟悉Greenplum; 6.具备良好的沟通能力和团队合作能力,具有跨部门协作的经验、推进能力强,责任心强; 7.具备良好的职业操守,能够服从工作安排。 岗位职责: 1、参与数据仓库的设计与开发,ETL过程脚本的设计与开发; 2、参与各业务系统数据源数据探查调研,准确性完整性验证; 3、为前端展示提供数据支持,为业务人员提供数据查询; 4、数据仓库日常管理、维护;
  • 医疗丨健康 / 不需要融资 / 2000人以上
    职位使命: 1.从事基于HADOOP生态的大数据环境下的数据处理工作; 2.负责大数据相关开发工作,包括数据处理/数仓等的设计及实现; 3.负责进行数据抽取、清洗、调度等工作开发及维护; 4.负责数仓的开发、维护,以及对外的数据服务等功能开发。 基本任职要求: 任职要求: 1.统招本科或以上学历,计算机或数学专业,3年以上大数据开发工作经验; 2.精通scala进行spark开发;熟练linux系统及shell操作; 3.熟练Hadoop、Hive、Hbase、Spark、Spark SQL、Sqoop、Kafka等分布式框架原理,有相关的调优、开发及调优经验; 4.熟悉ETL开发及过程,熟练的spark sql技能;有数据仓库、知识图谱、用户画像等产品开发经验者优先; 5.有较强的独立、主动的学习能力,良好的沟通表达能力,对新技术保持求知欲,有优良的Trouble Shooting能力; 加分项: 1.有电商、医药行业经验; 2.有SAAS系统大数据经验。
  • 15k-25k·14薪 经验3-5年 / 本科
    移动互联网,广告营销 / 不需要融资 / 50-150人
    工作职责: 1、负责广告投放系统中大数据处理部分的系统设计和架设 2、撰写相应的业务处理逻辑代码 3、负责广告投放系统性能调优 4、根据需求负责查询代码的编写和临时性数据查询工作 任职要求: 1、本科及以上学历,熟悉大数据处理技术,并具备10亿级以上数据实时处理经验 2、精通Spark、Storm、Hadoop、kafka 3、具有3年以上大数据系统的搭建及调优经验
  • 25k-50k·17薪 经验5-10年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1、 能独立与相关业务需求方、技术系统负责人沟通,获得开发所需的各种信息; 2、 基于分布式大数据平台,支持银行数字化运营战略; 3、 包括但不限于:ETL开发、优化、报表设计、作业调度和持续维护、数据模型开发中数据支持 任职要求: 1、 全日制大学本科及以上学历,计算机、数学、统计等相关专业,5年以上数据仓库或数据分析经验; 2、 精通数据仓库的开发和设计、数据建模、ETL过程、数据治理等数据仓库主要环节; 3、 精通Oracle/Mysql/SqlServer等主流关系数据库中一种或几种; 4、 至少具备一种脚本语言基础,python/perl/sh等; 5、 熟悉HADOOP/HIVE/HBASE/ES等大数据平台架构,有HIVE调优经验、UDF编写经验优先; 6、 有金融数据仓库建模开发经验,熟悉银行、保险基本业务知识者优先; 7、 具较好的逻辑思维表达能力,善于学习,勇于担当,抗压能力强。
  • 25k-50k·17薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1、负责银行银保业务线的日常需求沟通和数据开发工作。 2、构建银保业务的统一数据集市,规范梳理银保条线数据,为应用层提供统一的数据支撑。 3、配合构建银保分析的因子和标签库,支撑数据分析和算法模型特征工程。 4、业务的可视化报表、经营看板的设计和开发。 任职资格 1、学历本科以上211/985毕业,或者互联网一线大厂三年以上工作经验,计算机、软件工程、数学等相关专业。 2、有数据仓库设计经验,熟悉维度建模,能够根据业务场景对DW进行分层设计和开发落地。 3、熟悉hadoop生态的数据处理经验,精通hive、hbase等,熟悉OLAP查询引擎,例如presto、imapla、kylin。 4、熟悉使用报表可视化工具,能够通过数据设计出符合逻辑故事的报表或看板。
  • 15k-20k 经验1-3年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1、参与完善现有基于CDH的大数据平台,研究大数据组件并进行升级换代,优化开源工具并实现本地化改造,打造有特色、自动化、智能化的先进数据平台。 2、结合公司数据治理项目以及现有的数据管控平台,深入研究和开展元数据管理、数据标准管理、数据质量管理,持续提升公司整体数据质量。 3、根据公司业务需求并结合Kettle和大数据技术实现批量/实时数据交换、数据清洗、数据整合、数据加工、数据模型等实际应用。 任职要求 1、本科及以上学历,有2年及以上大数据开发经验。 2、熟悉Java/Scala/Python语言以及Linux操作系统,熟悉传统关系型数据库。 3、熟悉Hadoop、Hive、Spark、Flink等分布式大数据技术。 4、有较强的逻辑思维能力和创新精神,具备良好的沟通和文字表达能力。 5、有较强的学习能力,对技术有钻研精神,热衷于新技术的学习和实践。 6、有较强的团队合作意识,对工作有热情,能够承受压力、接受挑战。
  • 20k-30k 经验3-5年 / 硕士
    金融 / 上市公司 / 2000人以上
    工作职责 1、负责Hadoop开源系统的大数据计算平台设计、开发和维护; 2、负责大数据算法平台的设计、开发和维护; 3、为业务开发提供大数据技术指导和支持; 4、调研大数据技术,推动公司技术的持续进步。 任职要求 1、硕士及以上学历,计算机相关专业,2年以上大数据开发应用经验; 2、精通Hadoop、Spark、Flink等大数据开源框架,有Elastic search、Cassandra、Hbase等经验优先; 3、熟悉基于Spark平台的典型算法实现,有推荐系统、数据挖掘等实际项目经验优先; 4、对公司和工作有强烈的认同感,具备良好的沟通能力、创新能力和团队精神。