• 20k-40k·15薪 经验5-10年 / 本科
    社交媒体 / 上市公司 / 2000人以上
    职位描述: 1、负责⼤数据平台维护,⽀撑各类数据⽣产、挖掘分析业务⾼效稳定开展; 2、负责⼤数据平台相关的关键技术攻坚,解决平台的疑难杂症; 3、负责⼤数据平台技术的选型,新技术的预研,主流前沿技术的引⼊和落地; 4、负责大数据基础设施和平台的改进,解决大规模生产环境集群可用性和性能优化问题; 职位要求: 1、重点院校计算机或相关专业本科及以上学历,5年以上⼤数据平台相关⼯作经验; 2、熟练掌握Java/Scala开发,熟悉java的IO/并发/容器/内存模型; 3、具备较丰富的⼤数据平台相关建设,维护及调优经验,善于容量规划、架构设计和性能优化; 4、熟悉hadoop⽣态环境技术组件:HDFS/YARN/HBase/Kafka/Hive/Spark/Flink/Kylin/Druid等; 5、深⼊理解上述组件中的两个以上(包括功能和原理),阅读过源码,有过⼆次开发经验者优先; 6、具有良好的逻辑思维和快速解决问题能⼒; 素质要求: 1、良好的沟通能力及团队合作精神,具备高度的责任心; 2、具备极强的技术悟性与学习能力,较强的文档撰写能力; 3、开放的心态和良好的学习能力; 4、踏实靠谱,有良好的自驱力,执行力,具备良好的时间管理及流程管理的意识和能力; 5、基础技术扎实,有较强的数据敏感性;
  • 15k-30k 经验3-5年 / 本科
    企业服务,数据服务 / 上市公司 / 500-2000人
    职位描述: 1、基础组件、基础设施的二次开发、L2支撑、交付; 2、围绕大数据组件服务平台开发,围绕组件进行串联部署、功能组合/抽象,给上层数据开发人员提供组件级平台服务 3、对Hadoop、Hbase、Hive、Flink等组件/系统进行持续研究、开发和交付,满足部署、集成、扩展、监控、高可用等生产需求; 4、根据理论与技术研究、产品对标和相关需求,持续产品规划与迭代; 5、根据现场信息搜集,分析、定位和解决现场问题,承担L3支撑 职位要求: 1、计算机相关专业,本科及以上学历; 2、3年及以上hadoop生态的基础设施开发经验,熟悉国内主流大数据平台; 3、熟练掌握Java,熟悉Linux开发环境及常用工具; 4、以下优先: (1)985/211(必备条件,不符合请勿投递,谢谢) (2)深入阅读过相关组件内核源代码 (3)深入理解分布式资源调度系统技术及原理 (4)深入理解linux系统能够独立排查及解决操作系统层问题 (5)有数据仓库经验者 (6)有运维经历者 (7)有C/C++开发经验 (8)有论文阅读、理论研究爱好与能力
  • 13k-16k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    1.熟悉Hadoop,有过大数据开发经验 2.熟悉大数据开源技术,对Spark,flink,Hive, Hdfs等分布式计算存储引擎有实战经验 3.**本科,双证齐全
  • IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1.负责反欺诈系统大数据相关架构的搭建 2.参与集群的部署及搭建,监控与优化 3.参与新技术的调研及预研工作 4.参与当前大数据架构的业务功能开发及优化 技能要求: 1.精通hadoop部署框架及原理,并有落地的部署场景经验 2.熟练掌握flink或者spark之一的应用,并有落地的部署及开发场景经验 3.熟练掌握java开发语言,python脚本或者shell脚本 4.熟练掌握linux的基本知识 5.掌握elasticsearch以及实时数据湖技术的优先
  • 10k-20k·14薪 经验1-3年 / 本科
    移动互联网 / 不需要融资 / 50-150人
    岗位职责: 1、负责公司各产品线服务可靠、稳定、高效运行,提供K8S,Hadoop技术支持。 2、负责运维平台建设 通过技术手段提升工作效率; 3、负责公司各类基础设施监控、自动化、监控体系的持续建设与完善; 4、参与公司各类产品自动化实现,满足严格的质量与效率要求; 岗位要求: 1、***大学本科(计算机专业,获得***书、***书) 2、能熟练编写 Shell或Python脚本,有go/python/shell编程能力者优先 熟悉devops理念 3、熟悉自动化运维工具(saltstack/ansible/Jenkins)的原理及使用,有二次开发经验优先 4、具备kubernetes、docker、HDFS、spark、Hive运维经验者优先。 5、具备一定JAVA/GO开发经验优先。 6、具备良好的学习能力,能够快速掌握一门新的技术。
  • 12k-24k 经验1-3年 / 本科
    其他 / 未融资 / 15-50人
    岗位职责: 1.支持Hadoop集群底座的运维故障分析、解决、性能优化;大数据集相关组件主要包括:Yarn、HDFS、ZooKeeper、Storm、Kafka、Hbase、Hive、Spark、Kerberos、Spark、Flink、Flume、MySQL等组件运维; 2.开展Yarn性能优化,提升集群资源利用率和任务响应速度;队列优化和维护;优化调度器性能; 3.及时关注Apache官方网站、论坛,针对Patch提出升级建议、方案,并组织实施; 4.配合开展HDFS存储、Hive元数据治理优化,建立并完善存储治理方案; 5.配合开展Hive、Spark作业优化,对业务侧提出优化建议。如:作业小文件问题、数据倾斜治理方案等; 6.提出集群优化建设方案,配合建设和优化大规模分布式集群的自动化运维、监控等工具和管理平台。 任职要求: 1.本科及以上学历,通信/计算机等相关专业,具有良好的学习能力、沟通能力、团队合作能力及一定的抗压能力; 2.熟悉Hadoop、Hive、Hbase、Spark等开源项目,理解组件架构及原理; 3.对大数据运维开发有浓厚兴趣,熟悉Apache Hadoop部署、性能调优; 4.能阅读/理解Hadoop等相关开源组件源码; 5.对HQL、SparkSQL等有较深入的研究,能解决实际业务性能问题; 6.熟练掌握LDAP、Kerberos等安全认证体系; 7.熟练掌握Linux命令与工具进行问题定位,熟悉常规的互联网技术架构; 8.具备一定的Java开发能力; 9.擅长Linux Shell、Python脚本编写,有DevOPS/自动化运维经验工作者优先考虑。
  • 8k-10k 经验1-3年 / 本科
    移动互联网,金融 / 不需要融资 / 150-500人
    工作内容: 1.负责hadoop基础技术规划,编制相关规范文档; 2.负责Hadoop数据应用相关的数据存储、查询、计算、元数据管理的架构设计与实现; 3.负责hadoop的实际规划建设,包括环境与框架的规划搭建及部分核心编码工作; 4.负责hadoop相关技术发展方向的预研; 5.独立负责具体功能开发与实现、性能优化,保证系统健壮稳定及临时性数据处理工作的支持; 6.负责数据应用相关的数据存储、查询、计算、元数据管理等方面的架构设计。 岗位要求: 1.1年以上大数据开发经验,熟悉分布式的设计与应用。 2.熟悉hadoop大数据平台框架,包括不限于hadoop、hive、hbase等大数据生态平台组件的部署升级与调优。 3.熟悉hadoop、spark、flink、hbease、es等相关计算机存储框架的底层理论,并能应用至实际开发当中。 4.熟悉至少一款ETL工具,例如kettle、logstash等。 5.熟悉关系型及非关系型数据库的使用及优化,包括但不限于Oracle、PG、hive、clickhouse等。 6.熟悉各类大数据处理组件,sqoop、flume、kafka、azkaban等。 7.根据计划完成模块的编码开发工作,保证开发质量。 8.有良好的沟通能力,积极为项目建设提供建设性意见。 9.本科及以上学历,计算机相关专业,有银行工作、财务会计、管理会计业务经验优先。
  • 11k-15k 经验3-5年 / 大专
    企业服务,软件开发 / 上市公司 / 2000人以上
    1. 熟悉大数据云平台经验,再加Java开发 Java基础扎实,熟练掌握多线程编程,熟悉JVM,以及常规性能优化。 2. 熟悉spring,springboot,springcloud,nacos,mybatis,mybatis-plus等常⻅开源框架。 3. 熟悉redis,RocketMQ等常见中间件。 4. 熟练使用MySQL数据库,良好的数据库设计,SQL编写,索引性能分析能力。 5. 熟练掌握linux系统的使用。 6. 熟练掌握EKL系统的使用。 7. 有良好的逻辑思维能力,沟通能力,有责任心能独立完成需求。 1、本3专4,计算机/互联网/通信相关专业 2.熟悉java开发常用框架组件,能熟练运用到具体项目中 3.配合项目完成研发计划,有独立完成需求的能力
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 团队介绍:平台治理算法团队2020年9月成立,主要职责是通过优化算法,和电商业务团队配合,对字节跳动电商产品进行全方位的质量/生态的治理,既包括低质/风险/违规问题的打击,也包括画风优化、优质内容扶持、电商生态建设等。 平台治理算法团队使命:经营带货有保障,所见所得皆好物; 愿景:打造安全合规的平台秩序,建立用户信赖的健康生态。 1、负责运用算法挖掘、识别和预测电商场景中的风险和低质的商家/商品/带货主播,并配合业务进行管控; 2、负责运用算法挖掘影响商品体验和履约时效体验的事件和行为,建设数据模型,协助构建良好的生态体验环境,为业务提供支持; 3、参与构建挖掘电商直播、商品、商家和带货主播等多种实体的数据,对大规模网络/海量特征序列进行建模,支撑内容理解/多模态表征/社区挖掘等业务场景解决问题,并为商品/直播/视频治理提供支持; 4、参与构建大规模的图存储和图学习平台,完善电商社区内商家/商品/带货主播的关系建设,并赋能治理业务; 5、探索和调研机器学习/图学习/序列学习和相关方向前沿技术,并落地于真实业务场景。 职位要求: 1、有扎实的代码能力,熟悉深度学习/图神经网络/机器学习框架,如 pytorch、tensorflow、DGL、pyg、sklearn 等; 2、熟悉机器学习/图学习/序列学习算法中的一项或者多项,如图建模、时序信号建模、节点/子图分类、社区挖掘、表征学习、自监督/半监督学习等,有一定深度和广度; 3、熟悉相关算法在数据挖掘、搜索推荐、内容理解、治理风控的应用者优先; 4、熟练使用 numpy、pandas 等独立进行建模实验,熟悉大数据工具 Hive、Spark、Hadoop 者优先; 5、在数据挖掘、机器学习(KDD、ICML、NIPS、VLDB等)等领域**会议有文章发表者,或在数据挖掘竞赛(Kaggle、天池)优胜者优先。
  • 15k-18k·16薪 经验3-5年 / 本科
    IT技术服务|咨询 / 未融资 / 50-150人
    岗位职责: (1)负责数据清洗、数据分析、数据挖掘、数据服务等; (2)负责与外部门信息交换的技术管理工作; (3)利用技术手段对客户信息进行技术分析和应用服务; (4)运用数据分析建设业务模型,并持续跟踪优化; (5)负责领导交办的其他工作。 任职资格: (1)计算机、数学、统计学等相关专业本科及以上学历,具备扎实的专业基础知识; (2)3年以上数据技术领域工作经验,熟悉大数据平台架构与关键技术; (3)熟练掌握Hadoop、Spark、Kafka等大数据处理框架,具备丰富的实战经验; (4)具备良好的数据建模、数据挖掘与数据分析能力,能够运用SQL、Python等语言进行数据处理与分析; (5)熟悉数据仓库、数据湖等数据存储技术,具备数据治理与数据安全方面的经验; (6)具备良好的团队协作与沟通能力,能够适应快节奏的工作环境,具备较强的抗压能力; (7)对新技术充满热情,具备较强的学习能力和创新意识。
  • 20k-40k·15薪 经验3-5年 / 本科
    金融 / 不需要融资 / 2000人以上
    工作职责: 1.负责用户经营的大数据画像挖掘及分析建模, 通过用户行为和业务数据探索,寻找机会点及增长策略,为业务条线的战略规划与营销策略提供可执行方案。 2.全量挖掘银行内部和外部数据,深度分析客户线上、线下及社交媒体全渠道行为,为银行客群经营、产品权益创新、渠道策略优化提供全面洞察,并设计落地方案。 3.基于大数据对银行金融或生活服务类业务进行诊断分析,通过监控业务走势,深入分析和研究经营中存在问题, 发现增长点,并提出关键举措,推动业务目标的实现及产能的提升。 4.作为策略产品经理,协同运营团队,共同设计模型解决方案(如客户细分模型、响应模型、流失模型、客户价值模型等),挖掘用户迁移和交叉销售机会,实现精准营销。 5.合理进行营销投入产出分析,通过科学试验设计,对产品、客群、定价、渠道进行组合策略测试,并跟踪评估及调优效果,寻求最精准客户定位。 6. 对用户经营、增长策略全权负责,持续优化迭代,实现商业利益最大化。 任职资格: 1.本科及以上学历,统计、数学、计算机、工商管理等数据相关专业优先。 2.拥有数据挖掘领域3年或以上的实际工作经验, 有金融和互金行业经验优先。 3.非常熟练hive,sql等基本数据操作语言,熟悉Hadoop/Spark等大数据计算平台,熟悉Python语言 4.熟悉常见数据挖掘算法,熟悉数据建模全流程,可独立完成数据建模全闭环工作,包括特征工程、模型校验、模型调优、模型监控、管理等; 5. 沟通协作能力以及工作主动性,抗压能力。
  • 15k-30k 经验3-5年 / 本科
    金融 / 上市公司 / 500-2000人
    工作职责 1、负责大数据平台全生命周期管理,主要包括数据采集、数据集成、数据开发、数据治理、数据服务、数据应用等产品线,涉及的平台包括数据平台类产品和数据应用类产品; 2、管理所负责数据产品的项目周期,跟进设计、开发、测试、验收、发布、运维等产品研发过程,统筹数据产品研发项目顺利推进; 3、有数据治理、DMP、CDP、BI产品、用户行为分析、实时分析产品项目的从0-1的经验者优先 4、了解OpenAI的前沿信息,有AI能力在数据平台应用设计经验者优先; 职位要求 1.熟悉Hadoop、Spark、Flink、SQL等大数据技术,对数据采集、数据集成、数据开发、数据治理、数据服务、数据分析、数仓建设等大数据领域或机器学习、深度学习等人工智能领域有产品实战经验; 2.具有良好的数据敏感度、业务视野、调研分析、产品规划、产品设计与项目落地能力,能够敏锐的捕获用户价值和产品机会,熟练使用Axure、Sketch等设计软件,产出PRD和DEMO; 3.具备优秀的逻辑思维和快速学习能力,良好的沟通技巧和文档输出能力,能够制定推广及普及策略,有极强的跨团队协作能力和执行力; 4.本科及以上学历,3年以上数据平台产品工作经验,有从0到1打造完整数据中台产品体系者优先; 5.有留学经验或者较强语言能力者优先;
  • 15k-30k 经验3-5年 / 本科
    金融 / 未融资 / 2000人以上
    工作职责: 1、负责银行监管报送业务相关数据测试工作,包括功能测试、性能测试、自动化回归测试; 2、根据需求文档、代码变动点分析测试点、针对性设计测试场景、编写环境测试用例,测试脚本/造数,并执行案例,保证版本上线数据质量; 3、对测试中或生产发现的问题能进行分析和定位,与开发人员、产品人员积极有效沟通推动问题解决; 4、做好数据测试业务逻辑和测试方法总结沉淀。 工作要求: 1、本科或以上学历,3 年以上软件测试经验,计算机、数学相关专业优先; 2、熟练掌握软件测试理论及测试流程,具备独立组织项目测试工作能力; 3、有大数据相关项目测试经验,熟悉ETL,数据仓库; 4、熟悉Hadoop/Hive/Spark等分布式开源项目及工作原理,熟悉常用关系型数据库; 5、具备基本脚本编写能力,能够熟练使用Python、Java中任意一门语言; 6、对技术有强烈的追求,有良好的沟通能力及推动力; 7、有监管报送、反洗钱等相关测试经历优先。
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、参与海量的数据资源处理与整合,服务隐私与安全等多种场景应用; 2、基于Hive/Flink等平台建设离线数据仓库,实时数仓; 3、善于理解并合理抽象业务需求,发挥数据价值,精通数据分析和数据模型开发的技术解决方案; 4、不断创新,推动建设画像平台,血缘平台等数据基建,持续扩展平台的支撑场景和应用范围。 职位要求: 1、熟悉多项大数据处理/分析相关的工具/框架,e.g. Hadoop、Mapreduce、 Hive、Storm、Spark、 Flink etc; 2、熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 3、优秀的理解沟通能力,能快速理解业务背景,强的业务和数据理解能力,对数据敏感,崇尚数据说话,深信数据在驱动业务、支撑决策上的价值; 4、具备扎实的数据结构和算法基础,熟悉至少一门编程语言,包括但不限于Java、Python、Go等; 5、对新技术有强烈的学习热情,了解业界技术发展动向; 加分项: 1、参与过画像平台、数据血缘、特征工程等数据建设; 2、对隐私合规领域有相关经验。
  • 金融 / 未融资 / 2000人以上
    职责描述: 1、负责大数据运维体系搭建及大数据平台各个组件的运维; 2、负责大数据平台及相关组件的部署和维护,保证其稳定运行; 3、负责完善大数据平台运维监控工作。 任职要求: 1、本科或本科以上学历,计算机相关专业,3年以上大数据系统运维经验; 2、熟悉Windows/Linux操作系统; 3、熟悉Hadoop、Hive、Hbase、Yarn、Spark等组件的原理及运维方式; 4、熟悉中间件工作原理,对Tomcat/Redis/Nginx/Kafka有一定了解,具备一定的操作能力; 5、至少熟悉Java/PHP/Python/Bash/Shell一种或多种语言,可独立编写维护及监控; 6、工作细致、善于思考,有很强的问题分析和推进解决的能力; 7、有强烈的责任心、良好的沟通协调能力、极强的业务推动能力,勇于接受挑战; 8、良好的英文听说读写交流能力,能使用英语作为工作语言。
展开