• 20k-40k·15薪 经验5-10年 / 本科
    社交媒体 / 上市公司 / 2000人以上
    职位描述: 1、负责⼤数据平台维护,⽀撑各类数据⽣产、挖掘分析业务⾼效稳定开展; 2、负责⼤数据平台相关的关键技术攻坚,解决平台的疑难杂症; 3、负责⼤数据平台技术的选型,新技术的预研,主流前沿技术的引⼊和落地; 4、负责大数据基础设施和平台的改进,解决大规模生产环境集群可用性和性能优化问题; 职位要求: 1、重点院校计算机或相关专业本科及以上学历,5年以上⼤数据平台相关⼯作经验; 2、熟练掌握Java/Scala开发,熟悉java的IO/并发/容器/内存模型; 3、具备较丰富的⼤数据平台相关建设,维护及调优经验,善于容量规划、架构设计和性能优化; 4、熟悉hadoop⽣态环境技术组件:HDFS/YARN/HBase/Kafka/Hive/Spark/Flink/Kylin/Druid等; 5、深⼊理解上述组件中的两个以上(包括功能和原理),阅读过源码,有过⼆次开发经验者优先; 6、具有良好的逻辑思维和快速解决问题能⼒; 素质要求: 1、良好的沟通能力及团队合作精神,具备高度的责任心; 2、具备极强的技术悟性与学习能力,较强的文档撰写能力; 3、开放的心态和良好的学习能力; 4、踏实靠谱,有良好的自驱力,执行力,具备良好的时间管理及流程管理的意识和能力; 5、基础技术扎实,有较强的数据敏感性;
  • 15k-30k 经验3-5年 / 本科
    企业服务,数据服务 / 上市公司 / 500-2000人
    职位描述: 1、基础组件、基础设施的二次开发、L2支撑、交付; 2、围绕大数据组件服务平台开发,围绕组件进行串联部署、功能组合/抽象,给上层数据开发人员提供组件级平台服务 3、对Hadoop、Hbase、Hive、Flink等组件/系统进行持续研究、开发和交付,满足部署、集成、扩展、监控、高可用等生产需求; 4、根据理论与技术研究、产品对标和相关需求,持续产品规划与迭代; 5、根据现场信息搜集,分析、定位和解决现场问题,承担L3支撑 职位要求: 1、计算机相关专业,本科及以上学历; 2、3年及以上hadoop生态的基础设施开发经验,熟悉国内主流大数据平台; 3、熟练掌握Java,熟悉Linux开发环境及常用工具; 4、以下优先: (1)985/211(必备条件,不符合请勿投递,谢谢) (2)深入阅读过相关组件内核源代码 (3)深入理解分布式资源调度系统技术及原理 (4)深入理解linux系统能够独立排查及解决操作系统层问题 (5)有数据仓库经验者 (6)有运维经历者 (7)有C/C++开发经验 (8)有论文阅读、理论研究爱好与能力
  • 13k-16k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    1.熟悉Hadoop,有过大数据开发经验 2.熟悉大数据开源技术,对Spark,flink,Hive, Hdfs等分布式计算存储引擎有实战经验 3.**本科,双证齐全
  • IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1.负责反欺诈系统大数据相关架构的搭建 2.参与集群的部署及搭建,监控与优化 3.参与新技术的调研及预研工作 4.参与当前大数据架构的业务功能开发及优化 技能要求: 1.精通hadoop部署框架及原理,并有落地的部署场景经验 2.熟练掌握flink或者spark之一的应用,并有落地的部署及开发场景经验 3.熟练掌握java开发语言,python脚本或者shell脚本 4.熟练掌握linux的基本知识 5.掌握elasticsearch以及实时数据湖技术的优先
  • 10k-20k·14薪 经验1-3年 / 本科
    移动互联网 / 不需要融资 / 50-150人
    岗位职责: 1、负责公司各产品线服务可靠、稳定、高效运行,提供K8S,Hadoop技术支持。 2、负责运维平台建设 通过技术手段提升工作效率; 3、负责公司各类基础设施监控、自动化、监控体系的持续建设与完善; 4、参与公司各类产品自动化实现,满足严格的质量与效率要求; 岗位要求: 1、***大学本科(计算机专业,获得***书、***书) 2、能熟练编写 Shell或Python脚本,有go/python/shell编程能力者优先 熟悉devops理念 3、熟悉自动化运维工具(saltstack/ansible/Jenkins)的原理及使用,有二次开发经验优先 4、具备kubernetes、docker、HDFS、spark、Hive运维经验者优先。 5、具备一定JAVA/GO开发经验优先。 6、具备良好的学习能力,能够快速掌握一门新的技术。
  • 12k-24k 经验1-3年 / 本科
    其他 / 未融资 / 15-50人
    岗位职责: 1.支持Hadoop集群底座的运维故障分析、解决、性能优化;大数据集相关组件主要包括:Yarn、HDFS、ZooKeeper、Storm、Kafka、Hbase、Hive、Spark、Kerberos、Spark、Flink、Flume、MySQL等组件运维; 2.开展Yarn性能优化,提升集群资源利用率和任务响应速度;队列优化和维护;优化调度器性能; 3.及时关注Apache官方网站、论坛,针对Patch提出升级建议、方案,并组织实施; 4.配合开展HDFS存储、Hive元数据治理优化,建立并完善存储治理方案; 5.配合开展Hive、Spark作业优化,对业务侧提出优化建议。如:作业小文件问题、数据倾斜治理方案等; 6.提出集群优化建设方案,配合建设和优化大规模分布式集群的自动化运维、监控等工具和管理平台。 任职要求: 1.本科及以上学历,通信/计算机等相关专业,具有良好的学习能力、沟通能力、团队合作能力及一定的抗压能力; 2.熟悉Hadoop、Hive、Hbase、Spark等开源项目,理解组件架构及原理; 3.对大数据运维开发有浓厚兴趣,熟悉Apache Hadoop部署、性能调优; 4.能阅读/理解Hadoop等相关开源组件源码; 5.对HQL、SparkSQL等有较深入的研究,能解决实际业务性能问题; 6.熟练掌握LDAP、Kerberos等安全认证体系; 7.熟练掌握Linux命令与工具进行问题定位,熟悉常规的互联网技术架构; 8.具备一定的Java开发能力; 9.擅长Linux Shell、Python脚本编写,有DevOPS/自动化运维经验工作者优先考虑。
  • 8k-10k 经验1-3年 / 本科
    移动互联网,金融 / 不需要融资 / 150-500人
    工作内容: 1.负责hadoop基础技术规划,编制相关规范文档; 2.负责Hadoop数据应用相关的数据存储、查询、计算、元数据管理的架构设计与实现; 3.负责hadoop的实际规划建设,包括环境与框架的规划搭建及部分核心编码工作; 4.负责hadoop相关技术发展方向的预研; 5.独立负责具体功能开发与实现、性能优化,保证系统健壮稳定及临时性数据处理工作的支持; 6.负责数据应用相关的数据存储、查询、计算、元数据管理等方面的架构设计。 岗位要求: 1.1年以上大数据开发经验,熟悉分布式的设计与应用。 2.熟悉hadoop大数据平台框架,包括不限于hadoop、hive、hbase等大数据生态平台组件的部署升级与调优。 3.熟悉hadoop、spark、flink、hbease、es等相关计算机存储框架的底层理论,并能应用至实际开发当中。 4.熟悉至少一款ETL工具,例如kettle、logstash等。 5.熟悉关系型及非关系型数据库的使用及优化,包括但不限于Oracle、PG、hive、clickhouse等。 6.熟悉各类大数据处理组件,sqoop、flume、kafka、azkaban等。 7.根据计划完成模块的编码开发工作,保证开发质量。 8.有良好的沟通能力,积极为项目建设提供建设性意见。 9.本科及以上学历,计算机相关专业,有银行工作、财务会计、管理会计业务经验优先。
  • 11k-15k 经验3-5年 / 大专
    企业服务,软件开发 / 上市公司 / 2000人以上
    1. 熟悉大数据云平台经验,再加Java开发 Java基础扎实,熟练掌握多线程编程,熟悉JVM,以及常规性能优化。 2. 熟悉spring,springboot,springcloud,nacos,mybatis,mybatis-plus等常⻅开源框架。 3. 熟悉redis,RocketMQ等常见中间件。 4. 熟练使用MySQL数据库,良好的数据库设计,SQL编写,索引性能分析能力。 5. 熟练掌握linux系统的使用。 6. 熟练掌握EKL系统的使用。 7. 有良好的逻辑思维能力,沟通能力,有责任心能独立完成需求。 1、本3专4,计算机/互联网/通信相关专业 2.熟悉java开发常用框架组件,能熟练运用到具体项目中 3.配合项目完成研发计划,有独立完成需求的能力
  • 30k-50k 经验1-3年 / 硕士
    消费生活 / 上市公司 / 2000人以上
    美团的使命是“帮大家吃得更好,生活更好”,公司聚焦“零售 + 科技”战略,和广大商户与各类合作伙伴一起,努力为消费者提供品质生活,推动商品零售和服务零售在需求侧和供给侧的数字化转型。 2018年9月20日,美团正式在港交所挂牌上市。美团将始终坚持以客户为中心,不断加大在科技研发方面的投入,更好承担社会责任,更多创造社会价值,与广大合作伙伴一起发展共赢。 岗位职责 1. 负责美团首页猜喜推荐排序算法的研发工作,设计和优化推荐算法模型,提高系统的推荐效果和用户体验; 2. 负责开发和维护推荐系统,包括数据采集、数据处理、特征工程等模块的开发和优化; 3. 参与团队技术讨论,提供技术解决方案和技术支持,协助团队成员解决技术难题; 4. 跟踪行业发展动态,在美团场景下落地生成式推荐,不断提升团队的技术能力和创新能力。 岗位基本需求 1. 硕士研究生及以上学历,计算机、统计学、数学或相关专业; 2. 具备至少3年以上的推荐算法开发经验,熟悉常用的推荐算法模型和技术; 3. 熟悉机器学习和数据挖掘算法,具备良好的数学基础和编程能力; 4. 熟悉使用Hive/Spark/Hadoop等大数据工具,熟悉TensorFlow/PyTorch等框架,有深度学习实际项目经验; 5. 具备良好的团队合作意识和沟通能力,能够与产品、运营等团队紧密配合,完成项目目标。 具备以下者优先 1. 有推荐业务上大规模机器学习优化落地经验; 2. 有复杂业务场景下深度学习模型的算法研发及改进经验; 3. 密切关注业界最新进展,在SIGKDD、CIKM、ICML、ICLR、SIGIR、RECSYS等顶会发表过创新性论文或调研业界论文并成功应用于实践; 4. 在Kaggle等平台上取得较大型机器学习/深度学习竞赛靠前名次。 岗位亮点 1. 美团APP首页推荐,亿级DAU、海量的用户数据、复杂的业务场景,挑战算法的极限并提升个人技术能力。 2. 具备广阔的职业发展空间,可以在推荐算法领域不断深入研究和探索,成为业内有影响力的专家。 3. 团队氛围好,专注解决算法以及用户体验问题,可以跟组内优秀同事共同成长。
  • 40k-80k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 团队介绍 增长智能是字节跳动用户增长中台的算法技术团队,通过智能算法技术帮助各业务优化增长效率,为业务的持续高速增长提供有力支撑。我们支持了包括抖音、今日头条、番茄小说、西瓜视频、电商等业务,围绕投放获客、激励补贴、跨端联动、SEO等增长手段,利用机器学习、因果推断、运筹优化、AIGC等算法技术,帮助业务高效达成拉新拉活、提收变现、业务渗透等增长目标。 团队主要工作包括: 1、投放增长:通过因果推断建模、用户长期价值预估等方法,结合个性化出价、实时流量优选等手段,实现对全网超过十亿用户的精准触达,帮助业务高质量地获取新用户、召回老用户,并且利用AIGC、多模态理解等技术实现自动化的素材生产,提升投放效率和效果; 2、激励增长:针对抖音极速版、头条极速版、番茄小说/畅听等激励类App,使用因果推断、运筹优化等技术,设计并优化各类激励任务的数值策略,提升激励效果,优化营销资金效率; 3、电商增长:负责中国区电商的个性化营销策略优化,通过因果推断、深度学习、迁移学习、多任务学习等技术提升个性化定价的准确性,落地应用因果推断、深度学习的前沿研究成果,为电商用户提供更精准的个性化补贴; 4、跨端联动:围绕字节跳动的App矩阵和流量池,结合推荐、内容生成、激励等手段,设计合理的跨端联动导量方案,在合适的时机将合适的用户引导到合适的App上,满足用户的不同需求,为字节系整体带来增长; 5、智能引擎:搭建智能增长算法高效落地的工程引擎,设计开发相关的工具和平台,支撑海量的数据流搭建、大规模的模型训练、高并发的在线预估、灵活的策略动调、精准的预算控制、可靠的资金安全保障等全链路各环节的高效运转。 团队由来自不同背景的优秀同学组成,不仅有具备深厚理论基础和丰富行业实践经验的老水手 (包括因果推断领域的统计学博士、来自国内外知名大厂的前员工、推荐/广告/搜索算法领域的大牛、长期深耕字节增长技术演进的专家等),也有许多年轻高潜、成长迅速的superstar。团队技术氛围良好,既有充分的自由度进行前沿技术探索,又有大规模的业务场景进行落地验证,团队近年已有一些成果发表在KDD/ICML/AISTATS/JASA等顶会、期刊上。团队整体核心业务稳定,创新场景丰富,成长空间巨大,亟待更多优秀的同学加入做更多有挑战的事! 职位要求: 1、掌握扎实的计算机科学基础知识 (数据结构/算法/网络等) ,具备优秀的编码能力 (至少熟练掌握 C++/Java/Python 等一种主流开发语言); 2、掌握机器学习的理论基础,熟悉经典的算法模型 (GBDT/LR/FM/DNN等) 和相关工具框架 (Tensorflow/PyTorch等); 3、具有敏锐的数据分析和洞察能力,熟悉常见的大数据开发工具(Spark/Hive/Hadoop等); 4、具有出色的解决问题能力、良好的理解沟通能力和优秀的团队合作意识,有激情、不畏难、乐于挑战; 5、熟悉因果推断/强化学习/AIGC/CV/NLP等技术,具有一定的实践经验 (可选项); 6、具有用户增长、智能营销、推荐、广告、搜索算法等领域的实践经验 (可选项)。
  • 金融 / 未融资 / 2000人以上
    工作职责 1、负责微粒贷等线上金融信贷产品全流程风险模型开发。基于互联网、金融行业相关数据,通过聚集性发现、回归分析、集成学习、复杂网络、深度学习等算法技术,挖掘群体行为特征及信用风险评估; 2、擅长高维度、非结构化、网络结构等复杂数据的挖掘和建模,能够基于互联网大数据,挖掘客户360度特征,对客户身份识别、社区发现设计有效算法,将成果应用在信用评价、欺诈侦测、异常行为识别等场景; 3、负责数据挖掘前沿技术的探索和调研,通过实验、创新等方式引入到风控模型建设中,改进创新方法以解决非常规化问题。 任职要求 1、计算机(机器学习、人工智能等方向)、数学、统计或相关专业硕士及以上学历; 2、数据数据挖掘、概率统计、机器学习、自然语言处理、模式识别或信息检索等专业领域知识,并对其中擅长领域理解透彻; 3、三年以上机器学习和算法实施相关工作经验,具有较强的数据理解能力、数据分析能力、业务感知能力,熟悉社会网络分析方法,有推荐系统、社团发现、大规模数据挖掘项目实施经验优先; 4、熟练使用Python/SAS/R等数据挖掘工具,有数据可视化经验者及开源数据挖掘工具实战经验者优先; 5、熟悉Hadoop/Spark/Storm/Hive等至少一种分布式计算技术,具有海量数据处理经验; 6、积极创新、有开拓精神、乐于面对挑战、有较强的执行能力,具有高度的责任心和良好的团队合作精神。
  • 25k-40k·13薪 经验3-5年 / 本科
    科技金融,人工智能服务 / 上市公司 / 500-2000人
    岗位职责: 1、负责账务、线上业务运营相关服务的设计和开发; 2、深入分析业务需求,撰写技术方案和系统设计; 3、完成详细设计和编码的任务,确保项目的进度和质量; 4、能快速分析解决复杂的技术问题; 任职要求: 1、本科及以上学历,专业基础扎实,计算机及相关专业优先; 2、为人踏实,协作能力强,能接受一定的工作压力; 3、具有较强的自我驱动能力和自学能力,沟通能力强; 4、Java Web开发3年以上经验,熟悉面向对象开发模式,了解常用的设计模式; 5、精通Java面向对象开发模式,了解常用的设计模式、熟练使用J2EE开源框架如Spring/SpringBoot/MyBatis-plus/Maven等,并了解其架构和实现原理; 6、精通Java集合包和并发包。或者精通Guava等第三方集合包; 7、熟悉MySQL数据库,能独立完成MySQL的数据库设计、性能调优等; 8、熟悉Kafka、RabbitMQ、Redis、HBase等常用MQ和非关系型数据库; 9、有Hadoop、Hive、Spark、Flink等大数据工具使用经验者优先; 10、有支付、账务系统、清结算、RPA、电子券、BI及数据可视化项目或行业工作经验优先。
  • 20k-40k·15薪 经验5-10年 / 本科
    金融业 / 不需要融资 / 50-150人
    所有岗位均可远程办公,下面是每个岗位的重点要求,想要更详细的JD可以私信发送。 1.产品经理 初级高潜(15-30K):互联网C端业务经验; 中高级(薪资open可谈):有业内经验,能hold1-2条线以上的工作,有一定的管理能力。 2.后端架构师(30-50K) 精通Golang/LinuxC/PHP中的一种或多种语言; 必须要有管理经验。 3.LinuxC(薪资open可谈) C语言,Linux开发环境; 熟悉网络应用层开发,有高性能服务开发项目经验。 4.PHP(薪资open可谈) 5年以上中高级,有比较成熟的沟通协调、技术方案设计能力; 大厂技术管理兼架构的人,技术语言不限。 5.Golang 初中级:15-30K,高级:薪资open可谈 熟悉中间件开发,或熟悉Docker,k8s,或处理过高并发业务; 熟悉Go体系常用的开发框架,必须Gin,beego,echo等。 6.App开发(15-23K) 要有flutter开发经验; 3年以上iOS/Android开发经验。 7.Java(15-25K) 5年左右,中级,需要有交易所交易背景(能参与到高频交易开发场景)。 8.数据架构师(数仓)(30-50K) 数据要求:千万级以上用户量,总处理数据规模大于100T.单日处理数据最在亿级别; 管理经验:有带领10-20人团队经验,并且可独立参与技术细节; 技能关键字:hadoop/spark/flink/hive从o到1搭建集群优先; 编程关键宇:有java开发经验,可对集群进行性能调优。 9.技术支持(10K以下) 工作年限:5年以下工作经验都可以看; 大陆候选人:测试工程师、初级产品/产品助理、售后客服(平时有跟技术对接的),只要愿意转技术支持的都可以看; 台湾候选人:有测试实习/工作经验优先考虑;没有工作经验的应届生,可以看下计算机、金融相关专业; 要性格开朗、沟通流畅。 10.项目经理(15-23K) 偏向研发效能提升、敏捷开发流程管理、过程改进的人选。 需要敏捷项目管理,快速迭代经验。 11.测试工程师(10-20K) 测试开发经验优先;或有大厂背景;或过往项目有一定的复杂度;或有行业背景。 12.前端开发(15-20K) 2年以上react项目经验。 13.运维工程师(15-23K) 必页有k8s经验,需要更贴近云业务的人; 必须要有AWS经验; 同行业加分。 14.运维架构师(30-50K) 必须要有AWS和K8s经验; 5年以上运维经验,2年以上团队管理经验。 15.数据开发(10-20K) 必须要有flink经验。
  • 20k-35k 经验3-5年 / 本科
    人工智能服务,科技金融 / 不需要融资 / 500-2000人
    岗位职责: (1)参与制定兴业银行系统架构整体规划; (2)参与兴业银行系统架构管控,审核系统架构合规性; (3)负责兴业银行系统技术可行性研究、架构设计、整体实施方案设计等工作。 岗位要求: (1)具备应用架构、数据架构、技术架构、安全架构设计能力中的一个或多个; (2)具备宏观架构设计思维,具有主导大型复杂系统架构设计和开发编码经验。了解银行业务概貌,具备银行大型系统开发经验者优先; (3)具备良好的技术前瞻性研究能力,具备优秀的技术方案设计能力和文档能力,能独立完成重要信息系统整体方案的设计; (4)精通Java或C语言,熟悉Hadoop、MySQL、TDSQL、OpenGauss等一种或多种。 工作地点:上海、福州、成都
  • 15k-25k 经验3-5年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    岗位职责: 1、负责大数据设备部署、hadoop、MPPDB等常见商用平台的搭建、应用以及运维; 2、负责海量数据下精准营销平台流计算、实时计算的设计开发; 3、负责海量数据下可视化模块开发,依据业务需求和方案开发可视化品; 4、负责海量用户行为分析和预测,以及专家模型、分布式算法模型在精准营销方面的实现和应用等。 任职条件: 1、大学本科及以上学历,计算机、金融科技、应用数学、人工智能等相关专业,具有3年以上大数据相关工作经验; 2、精通至少一种编程语言,Java、Scala、Python; 3、熟悉hadoop、mppdb、hive、hbase、zookeeper、hue等中的多个,或者有相关工作经验优先; 4、熟悉spark streaming、storm、flink、redis、es中的多个,或者有相关工作经验优先; 5、熟悉spark mllib/GraphX、图计算、mahout中的多个,或者有相关工作经验优先; 6、具备数据挖掘、数据分析、机器学习知识背景,拥有反欺诈系统、推荐系统、精准营销、信息检索等方面的工作经验优先。