• 15k-30k 经验3-5年 / 本科
    企业服务 / D轮及以上 / 500-2000人
    1、计算机或相关专业本科及以上学历,2年以上大数据运维或开发工作经验; 2、熟悉linux开发环境,熟练掌握JAVA/GO/Python语言中的一种; 3、熟练掌握大数据常用开源组件的技术原理, 有hadoop、kafka等开源大数据组件运维或开发经验; 4、有较强的逻辑思维能力,思想上开放,主动积极有责任感,能够承担工作压力; 有hadoop、kafka、spark、flink等开源组件源码优化经验优先; 岗位职责: 负责大数据平台消息中间件/Hadoop/实时计算/OLAP的运营支撑和架构优化。
  • 18k-28k 经验3-5年 / 本科
    数据服务 / 未融资 / 15-50人
    岗位职责:1 负责大数据平台的维护建设、提升平台安全、稳定及效率2 负责大数据平台工具研发,提高平台及算法工程师的工作效率;负责Hadoop\Hive\Hbase\Spark等平台的实施和定制开发。4负责重点技术攻关和生产环境异常处理;负责大数据相关技术的研究。任职要求:1、本科计算机相关专业,具有3年以上大数据开发经验,熟悉Java,Linux; 2、熟悉Hadoop大数据处理系统的开发,搭建及部署者;3、熟练地处理数据模型、数据ETL以及存储管理;   4、熟悉HDFS/Hive/MapReduce/Kylin/HBase,能独自进行Mapreduce程序开发者优先;   5、熟悉分布式系统概念、架构,有大规模分布式系统设计、实现、部署等经验;   6、有较强的书面与口头沟通表达能力,独立分析、解决问题的能力。
  • 18k-30k·13薪 经验3-5年 / 本科
    数据服务 / 未融资 / 15-50人
    岗位职责: 1、负责基于hadoop的数据ETL设计与开发; 2、负责hadoop集群的搭建、设计、开发和持续优化工作; 3、负责集群流式计算模式和离线计算的开发工作; 4、负责数据对接和对外服务设计、开发和维护; 5、负责基于大数据平台的应用设计、开发和维护; 6、负责大数据子系统问题收集、分析和改进方案建议; 任职要求: 1. 至少3年以上的Java开发经验,2年以上大数据应用系统的开发和设计经验。 2、精通Hadoop、Spark等组件,深刻理解原理和适用场景。 3、精通Hive、HBase仓库设计,深刻理解MR运行原理和机制。 4、精通Java开发,深刻理解J2EE规范和相关技术。 5. 对Hadoop、HBase、Zookeeper、impala、presto之一有深入理解并在现实项目中大规模应用; 6、熟悉Linux、Shell、Nginx、Tomcat、Redis、Kafka、Oracle、Mysql等相关技术。 7、快速研究和学习技术能力,有良好的团队精神。 办公地点:常驻北京市某委办局、国企联合办公
  • 30k-50k·15薪 经验3-5年 / 本科
    广告营销 / 上市公司 / 500-2000人
    岗位职责:1、负责实时、离线计算平台集群的规划、建设、部署集成;2、负责在离线算法业务引擎的持续集成、持续交付、全球化部署等开发工作;3、负责引擎和平台和业务日常发布、监控、扩容等运维保障工作;4、负责引擎和平台的性能调优、资源调度优化和故障排除,保证业务24*7高可用;5、完善线上业务监控系统,及时处理并记录问题、统计分析等工作;6、参与自动化运维平台的设计、开发、建设工作,提高运维效率;7、编写相关运维技术文档,协助完善运维制度和流程。任职要求:1、计算机相关专业,本科以上学历,有两年以上大数据、AI 平台或者相关线上业务运维经验;2、熟悉大数据集群运行的原理及 Hadoop、Kafka、HDFS 集群和各组件的高可用部署方案,熟悉常见故障原因和处理方式;3、熟练掌握 Kubernetes 原理、用法、应用发布和弹性伸缩、监控和多集群的操作维护;4、熟悉 Prometheus、Grafana 等监控系统的使用方法;5、熟悉主流分布式数据库的运行原理和运维操作,例如:Clickhouse、Cassandra 等的扩容、故障处理等;6、具备持续集成、持续交付的开发经验;7、熟练掌握 Python、Shell 等脚本和命令行工具;8、了解云服务相关技术,具备AWS,阿里云等云平台运维经验者优先;9、有良好的沟通、团队合作、主动思考、学习能力和强烈的责任心。
  • 25k-50k 经验不限 / 本科
    消费生活 / 上市公司 / 2000人以上
    美团信息安全部,肩负统筹与负责美团线上安全与平台治理的重要职责。随着业务升级与拓展,我们拥有诸多全球化安全与风控领域人才、依托前瞻的安全技术视野、创新的机器学习技术、领先的产品运营体系,构建全方位、多维度的智能防御体系,为美团业务生态链上亿万C端、B端用户的安全提供有力保障。 我们致力于建设业界卓越的安全团队,落地更多业界认可的实践,同时助力业务奔跑。期待你的加入,让我们奔赴热爱,无畏山海,共筑安全长城。 岗位职责 1. 负责信息安全部数据产品、数据仓库、数据治理等相关研发工作。 2. 深入业务,理解并合理抽象业务需求,发挥数据价值。 3. 与数据产品、算法、策略团队深度合作,致力于数据赋能业务。 岗位基本需求 1. 3年以上大数据研发经验,有丰富的实时、离线数据流搭建与优化经验。 2. 熟悉数据仓库实施方法论,深入了解数据仓库技术体系,并支撑过大规模实际业务场景。 3. 善于沟通,对业务敏感,能快速理解业务场景,具备优秀的技术与业务结合能力。 4. 熟悉大数据生态技术:Hadoop/Spark/Flink/Hive/Hbase/Kafka/Druid/Redis等,熟悉Java语言。 5. 强烈的自驱力与责任感,对技术、业务有热情。 具备以下者优先 1. 有百亿规模数据流搭建与架构优化、超大规模特征工程研发经验者优先。 2. 有搜索、电商等领域引擎开发、架构设计经验者优先。 3. 有开源社区项目贡献者优先。 岗位亮点 我们有海量的数据和复杂的生活服务真实落地场景,我们也有安全领域优秀的人才和团队,在这里,我们开放、直接,以逻辑和事实说话。 期待更多优秀的你加入,持续进步,一起做对社会有价值的事情,帮助人们吃得更好、生活更好。
  • 20k-40k·14薪 经验3-5年 / 本科
    消费生活,医疗丨健康 / 上市公司 / 500-2000人
    工作内容 1、负责公司大数据集群的构建、日常维护、监控预警、故障处理,持续完善大数据平台,保证稳定性、安全性 2、负责集群容量规划、扩容、升级及集群性能优化,参与大数据基础环境的架构设计与改进 3、跟进了解开源社区Hadoop/Hbase/Kafka/Flink/Spark/Druid/Hudi相关的进展,持续优化集群服务架构,探索新的大数据运维技术及发展方向 4、解决开发者日常遇到的问题,梳理相关流程。 任职要求: 1、3年以上devops 相关工作经验 2、熟悉linux操作系统,熟悉python/shell/perl/中至少1种开发语言 3、计算机相关专业本科及以上学历,具有良好的学习能力、沟通能力、团队合作能力及抗压能力 4、能熟练使用互联网公司的常用运维软件,包括但不限于:nginx/open-falcon/prometheus/ansible 5、具备hadoop/kafka/spark/flink/hbase/druid/hbase等集群运维经验者优先 6、熟悉java,熟悉大数据相关组件源码,有BUG修复或者源代码优化经验者优先 7、良好的团队合作精神和沟通能力 8、良好的学习能力和分析问题、解决问题的能力
  • 20k-40k 经验1-3年 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责:1、打造业界领先的广告算法模型流式训练和批式训练架构,包括样本拼接、训练策略、统一样本存储、批流一体训练框架等,为字节跳动的广告算法模型提供高效稳定的学习能力;2、构建高性能、高可用的服务框架,承载高并发、低延迟的广告投放架构需求;支撑广告百万级QPS请求、日均PB级数据增量的算法数据仓库和数据湖建设。职位要求:1、熟悉 Java/C++,2 年以上中大型生产项目开发经验;2、熟悉 Linux 操作系统和开发环境,有良好的数据结构、算法基础和系统设计能力;3、熟悉至少一种大数据系统或主流深度学习框架;4、善于沟通,工作积极主动,责任心强,具备良好的团队协作能力;5、具有互联网广告系统、搜索引擎、个性化推荐开发经验者优先。
  • 20k-40k 经验不限 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、负责实时通信大数据相关基础数据链路的维护,包括但不限于数据质量建设、数据调优、服务稳定性运维、可用性提升等。能够组织定期压测,找到服务瓶颈; 2、负责大盘数据的维护,协助基础架构同学,进行相关基础组件ES、Druid、Kafka、Flink及Hive的运维调优; 3、负责线上疑难数据分析,找到性能瓶颈或者得出数据分析报告; 4、能够从专业视角,组织建设底层数据仓库 职位要求: 1、精通Shell及Hadoop/Spark/HBase/Hive/Flink/ClickHouse/Elasticsearch/调度系统等生态集群的建设及性能优化; 2、熟悉Java/Python语言,并有数据开发经验者优先(如数据仓库、数据分析、用户画像、算法等); 3、有产品sense,主动思考基于业务场景下的数据体系建设,而不单单只会做执行; 4、具有较强的业务理解能力及服务意识,思路敏捷清晰,较强的外部沟通能力。有责任心及抗压能力,有强烈的自驱力,并有良好的团队协作精神;
  • 30k-50k·14薪 经验5-10年 / 本科
    数据服务,企业服务 / 上市公司 / 500-2000人
    岗位职责:1. 深入理解大数据安全分析技术,在理解客户安全业务场景基础上,为政企客户制订行业大数据安全分析与隐私保护体系架构和安全方案。2、负责大数据安全分析产品研发,包括运用大数据技术解决网络安全和数据安全问题、研究大数据平台的数据安全防护问题等;3、根据APT检测、异常行为分析、数据安全防护等业务要求,对大数据平台架构和性能进行迭代优化;4. 根据所设计的技术架构,与研发实施团队共同进行技术攻关,完成项目的研发交付工作。5. 在项目攻坚的关键阶段,需要在客户办公场所驻场设计和开发。任职要求:1. 七年以上工作经验,拥有大中型的大数据类项目的驻场实施交付经验,曾经主导过相应的架构设计工作。2. 有良好的沟通表达能力,可以与客户清楚沟通技术方案,确保在项目成本可控的情况下最大化客户的满意度。3. 精通Hadoop生态系统及相关组件(如HDFS, Spark, MapReduce, Hive, HBase等),具备大数据技术栈丰富的架构与实战经验;4. 至少了解一门NoSQL数据库并具备初步实战经验,如ElasticSearch、MongoDB、Redis、Neo4j等;5. 精通一门或多门通用编程语言(如Java/Scala/Python等),对于编程语言优劣势和发展趋势具有自己的理解和判断;6. 具备大规模ETL实战及数据仓库搭建经验者优先;7. 了解常用网络安全检测和防护技术者优先,了解GDPR、网络安全法、等保2.0等法律法规和标准者优先;8. 熟悉机器学习与自然语言处理技术者优先;
  • 30k-60k 经验3-5年 / 本科
    消费生活 / 上市公司 / 2000人以上
    岗位职责 1.理解业务的本质需求,设计和构建适应公司O2O业务发展特点的实时数据体系; 2.负责实时数据的建设,开发和运维,应用大数据相关存储,交付实时数据应用 3.积极开展业务调研,梳理业务流程体系,并根据用户需求,协助产品经理有效提炼,管理和维护指标体系,响应用户需求。 岗位基本需求 1.认同基于数据指标体系驱动业务成长,深信数据分析对业务优化和决策支持的重要价值; 2.具有良好的逻辑思维和沟通能力。面对挫折与困难,有很强的自我调节能力和自我驱动力; 3.熟悉flink,storm,sparkstreaming等,拥有实时大数据处理和开发经验; 4.两年以上实时数据开发及数据应用经验,计算机科学与技术相关专业,本科及以上学历; 5.熟悉常用存储及OLAP存储引擎,如:Doris,ES,Tair,Clickhouse,Druid,Redis,Tidb等; 6.熟练使用JAVA,SCALA语言其中一种,有良好的工程能力和工程管理思维。 具备以下者优先 1.有互联网实时数据研发、海量数据处理分析、OLAP项目开发相关经验者优先; 2.有实时数据体系建设相关经验者优先; 3.有大型实时项目架构相关经验者优先。 岗位亮点 1.新的业务从0到1搭建数据体系,跟随业务一起成长,上升潜力大; 2.成熟的大数据开发,管理工具链,以及非常成熟的大数据体系建设方法; 3.非常浓厚的团队技术氛围。 其他补充信息 负责充电宝业务整体数据体系的建设及运维, 包括数仓建模,离线/实时数据开发,数据系统开发等
  • 50k-70k·14薪 经验5-10年 / 本科
    移动互联网,电商 / 不需要融资 / 2000人以上
    工作职责:大数据中心总监:1、负责大数据中心的研发及日常管理工作,带领团队完成支撑战略的数据建设;2、全面建设国美数据治理体系,升级数据仓库架构,满足全面实时化的零售业务场景;3、建设集团统一数据服务,为各产业技术提供自助式的标准化数据服务,实现数据共享共建; 4、建立数据安全机制,确保数据资产应用全周期的安全保障;5、与各部门之间协调配合,支持营销、运营日常产品研发需求。负责跨部门级重大项目管理和推进。7、建设项目开发流程、项目质量和项目开发进度的管理机制,制定开发及技术文档规范;8、负责解决核心技术问题及关键技术方案的决策。 任职资格:要求:1. 5年以上大数据及分布式系统相关工作经验,有不低于2年的50人以上团队经验;2. 熟悉Hadoop、Spark、Hive、Flink、HBase等主流的大数据技术,熟悉数仓建模;3. 有极强的项目管理能力和资源协调能力,有很好的沟通能力;4. 良好的系统设计和系统架构能力或者项目经验;5. 有电商领域的大数据应用实践者优先考虑;6. 计算机、数学相关专业,本科以上学历;5年及以上大数据及分布式系统相关经验,不低于2年的50人以上团队管理经验
  • 40k-60k 经验5-10年 / 本科
    移动互联网 / 不需要融资 / 500-2000人
    根据实际技能以及面试评估情况,中高级大数据运维工程师职位也开放接受申请。 岗位职责 1.全面管理大数据平台部,含dba,大数据运维和大数据开发小组 2.根据组织的OKR目标,制定切实可行的行动计划,整合资源,完成交付 3.有前瞻思维,不断推进大数据管理运维的工具化,自动化,服务化 4.识别和培养高潜力人才,提升团队能力 任职要求 1.至少五年以上的一线开发经验,三年以上的技术管理经验 2.非常熟悉大数据技术生态,精通linux系统管理,运维,监控,调优等基本技能 3.有从零搭建大规模大数据集群的能力,特别是目录服务,认证授权,统一管理 4.一线编程,架构能力,熟悉开源社区运作模式,有开源社区提交历史 5.非常熟悉大数据组件的监控管理,含调度系统;熟悉离线和实时数仓(含数据湖)的基本概念,了解基础的数据治理规范 6.熟悉tidb,各种关系非关系数据库优先
  • 35k-55k·15薪 经验5-10年 / 本科
    移动互联网,电商 / 上市公司 / 2000人以上
    工作职责: 1.负责大数据平台架构的设计和性能调优,支持海量数据的离线和实时分析,对数据敏感 2.参与大数据平台的搭建与维护,保证数据平台的稳定和可靠 3.保证大规模的离线、实时任务正常的平稳运行 4.设计并完成ETL等大数据处理任务 5.负责数据仓库的设计与开发 任职要求: 1.有大数据处理分析经验,熟悉Spark、Hive、Flink等大数据处理平台 2.熟悉主流开源数据组件,包括但不限于YARN、HBase、ClickHouse、Kafka、Oozie等相关技术 3.熟悉Linux开发环境,熟悉基础命令操作和shell脚本的编写,熟悉大数据平台组件部署思路 4.熟悉java、scala、python等任一开发语言 备注: 外资背景,五险一金全额缴纳,周末双休,弹性上班,不打卡,早9晚6或者早10晚7,10:30以前到岗都不算迟到,公司有食堂,免费提供三餐,零食下午茶,每月有团建、年度旅游,带薪年假15天,之后每年+1天,试用期3个月,交通补助2000元/月,每月有1天带薪病假,当月有效
  • 30k-50k·15薪 经验3-5年 / 本科
    社交 / D轮及以上 / 500-2000人
    工作职责: 1、负责基于用户侧数据、商业侧数据的数据产品规划及需求方案设计,数据产品的生态建设与拓展。 2、负责用户数据接入与分析、用户商业兴趣挖掘,优化人群画像、人群分析工具、人群管理、舆情监控等数据产品落地,为知乎商业化营销策略提供数据支持。 3、深入理解业务,与运营、策略、技术、销售等团队沟通协作,制定数据产品的规划与方案设计,提供重点行业数据解决方案支持,提升营销的效率和效果。 4、探索数据合作方式,与运营、市场密切协作,定期进行行业分析及竞品分析,探索并创新数据产品应用场景,实现数据价值最大化。职责要求: 1、本科及以上学历,计算机、数学、统计学等相关专业优先。 2、5年以上互联网商业产品/大数据产品等产品规划、设计经验,对互联网程序化广告,数字化营销,数据产品等有较丰富经验。 3、极强的数据敏感度和逻辑分析能力,具有通过数据挖掘解决业务问题的能力,熟练掌握sql、数据分析、效果评估等工具和方法。 4、具有良好的沟通协调和理解能力,较强的责任感及团队合作精神,能够保质保量地推动工作执行落地。
  • 15k-30k·14薪 经验1-3年 / 本科
    移动互联网 / 不需要融资 / 150-500人
    此项目数据量为PB级别,非常有挑战,机遇难得。 岗位职责: 1、负责实时和离线数据清洗、落地数仓;使用的技术 spark、sparksql、flink进行处理; 2、负责部分数仓的DW、DM层的数据的生成; 3、负责自身代码质量维护和单元测试等等。 岗位要求: 1、本科以上学历,计算机相关专业; 2、熟练使用Scala,或熟练使用Java同时有Scala开发经验; 3、熟悉或有以下若干技术领域实际工作经验,有源码优化经验者优先考虑: Hadoop, HDFS, Hive, HBase, ClickHouse, Redis, Spark, Spark Streaming, Flink, Flume, Kafka, Zookeeper 4、1年以上大数据开发相关经验,有大规模数据量处理经验者优先; 5、拥有奋斗者心态,敢于面对挑战,性格稳重开朗,工作积极主动,责任心强。 备注:五险一金无法在北京当地购买,只能在深圳或其他地方购买,如不能接受者请勿投递简历。