• 10k-15k 经验3-5年 / 本科
    数据服务 / 上市公司 / 500-2000人
    岗位职责 1.负责大数据后台离线分析、实时计算业务功能的实现,并能独立解决开发过程中的技术难题; 2.配合项目实施团队进行大数据后台、分布式数据库的性能调优; 3.配合项目实施团队进行例行的系统上线部署工作; 4.编写与大数据平台相关的技术文档及进行知识分享。 任职要求 1.理工科相关专业本科及以上学历,3年以上大数据项目实施经验; 2.具备一定的Java基础,熟悉scala,shell,python优先考虑; 3.熟悉MySQL、Oracle等关系型数据库的使用及配置; 4.熟悉主流Hadoop生态技术,包括Flink、Spark、Hive、HBase、ES等,且具备一定的调优经验; 5.熟悉redis分布式缓存、kafka消息组件、任意一款olap组件; 6.有ETL、实时计算项目、BI项目开发相关经验; 7.有大数据平台搭建、组件选型经验者优先考虑; 8.具备良好的沟通能力,能独立分析并解决问题; 9.具备互联网金融行业经验者或建行P9数仓项目经验者优先。
  • 30k-45k·14薪 经验5-10年 / 本科
    移动互联网,广告营销 / 上市公司 / 2000人以上
    工作职责: 负责搜狐视频商业化的数据平台建设工作,包括: 1.负责数据平台、数据治理系统设计与搭建; 2.负责数据仓库建设、ETL开发、工作流任务优化以及解决相关技术问题; 3.负责行为日志、推荐策略和商业广告数据业务需求对接、数据分析与任务开发。 职位要求: 1.**本科及以上学历,计算机或相关专业优先;3年以上大数据开发、数据分析与处理经验,熟悉互联网产品运营和商业业务; 2.精通Scala/Java语言开发,熟悉Shell、Python等脚本开发,熟悉Linux系统; 3.熟悉大数据生态,精通Hadoop、Kafka、Spark、Flink技术,完成离线或实时大数据仓库设计与开发; 4.掌握数据建模理论,精通SQL开发与性能调优,熟练使用Hive、Doris等数据库组件; 5.有大型数据平台实际建设经验,在数据采集、数据开发、数据分析、数据建模等方面有深刻认识和实践经验; 6.有复杂业务系统的抽象设计能力,能独立对接业务需求和解决业务与技术问题; 7.具有良好的逻辑思维、表达和沟通能力,具备良好的团队合作精神,有较强的承压能力和工作责任心。
  • 30k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、参与字节跳动信息服务中台的海量的数据资源处理与整合,服务搜索、标注、行业数据等多种场景应用; 2、根据不同的业务场景,构建数据模型和业务指标体系,建立和完善日常业务报告体系,能够及时、准确、完整的披露各项目的运作情况; 3、基于Hive/Flink等平台建设离线数据仓库,实时数仓建设,进行ETL开发; 4、理解并合理抽象业务需求,发挥数据价值,与业务和研发团队紧密合作,提供数据分析和数据模型开发的技术解决方案; 5、不断创新,推动中台的快速发展和高效迭代,抽象各种复杂场景的数据模型,持续扩展平台的支撑场景和应用范围,探索孵化信息服务ToB的应用场景。 职位要求: 1、熟悉多项大数据处理/分析相关的工具/框架,e.g. Hadoop, Mapreduce, Hive,Storm, Spark, Flink etc; 2、熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 3、优秀的理解沟通能力,能快速理解业务背景,强的业务和数据理解能力,对数据敏感,崇尚数据说话,深信数据在驱动业务、支撑决策上的价值; 4、强悍的编码能力,生产环境快速定位问题能力,对新技术有强烈的学习热情; 5、具有海量数据处理经验,有数据治理,数据仓库项目实施与运营经验者优先。
  • 20k-30k 经验3-5年 / 本科
    数据服务,信息安全 / 不需要融资 / 50-150人
    岗位职责 1、实时/离线数据湖内核功能研发以及性能优化,包括数据湖与hive\spark\flink的集成,索引功能开发,upsert功能开发等; 2、负责数据湖技术在公司内部以及外部项目的落地; 3、参与公司大数据平台建设。 岗位要求 1、本科及以上学历,计算机相关专业,3年以上相关经验; 2、熟悉Java或scala,熟悉Linux操作系统; 3、必备技能:Hive、MR(Java)、Flink、Spark;对大数据处理(Hadoop)、数据仓库结构有较深刻的认知; 4、工作态度端正,有较强的责任心及执行力,紧急工作能够快速响应; 5、有开源数据湖相关经验优先。 PS:公司预估九月初搬家至通州区北运河西地铁站附近,请确认好位置是否合适
  • 20k-35k 经验3-5年 / 本科
    金融 / 不需要融资 / 50-150人
    岗位职责: 1、负责公司数据仓库的搭建以及快速并行化查询需求的支持 2、负责公司的数据处理、数据统计以及数据挖掘的开发工作 3、负责公司后台日志统计分析系统的具体开发工作 4、利用hadoop、spark等框架做数据的实时及离线分析 岗位要求: 1、本科以上学历,java基本功扎实,熟悉Scala的优先 2、熟悉分布式计算和存储技术,熟悉Hadoop、MapReduce、Spark等 3、熟悉MYSQL、ORACLE等关系数据库 3、熟悉Mongo、HBase等NOSQL数据库。 4、熟悉大数据的统计分析和挖掘,了解常用的数据统计方法和挖掘算法。 5、熟悉Linux操作系统,可以自行部署开发环境 加分项: 1、对程序开发有浓厚热情的,愿意深入学习,立志成为开发大牛的; 2、有写博客习惯或能提供github地址的 3、了解股票,期货和其他金融衍生品的知识者优先
  • 18k-25k 经验3-5年 / 本科
    数据服务 / 不需要融资 / 50-150人
    岗位职责: 1、系统/软件设计:参与大数据项目的需求分析、系统架构设计、并完成详细设计相应文档的编写; 2、系统/软件开发维护:深入理解数据业务,负责业务模型抽象、数据模型的设计开发,数据清洗、分析和挖掘工作;参与数据仓库建设,负责数据仓库模型设计,开发高质量可扩展的底层数据仓库体系;使用Flink等流式计算引擎,实现实时数据处理和流式分析,提供实时的业务洞察和决策支持;针对OLAP需求,设计和实现数据立方体、多维数据模型和数据聚合查询,以支持复杂的联机分析处理。 3、技术攻关:能够独立解决常见的技术问题和生产系统的线上问题;能够完成业务模块开发; 4、掌握业务:了解电脑票、即开票等业务的发行、渠道、销售等相关知识; 任职要求: 1、计算机、数学等理工科相关专业;本科及以上学历; 2、具备3年以上大数据和数据仓库相关工作经验及线上问题处理经验; 3、具备大型数据平台实际建设经验,在数据采集、数据开发、数据分析、数据建模等方面有深刻认识和实践经验; 4、熟悉计算机网络知识,熟悉JVM调优及垃圾回收相关知识; 5、熟悉Flink流处理框架,掌握Flink任务的开发、优化、部署;熟悉SQL开发,复杂SQL优化,熟练使用mysql、hive、flinksql等;熟悉大数据的统计分析和挖掘了解常用的数据统计方法和挖掘算法;精通Java编程,理解IO、并发、网络等基础框架;熟练掌握大数据开发工具的使用(doris、hdfs、yarn、hive、flink、kafka、paimon等); 6、具有良好的逻辑思维、表达和沟通能力,具备良好的团队合作精神,有较强的工作责任心; 7、具备求知欲、责任心、进取心、钻研精神、严谨等素质;
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
  • 15k-30k·14薪 经验3-5年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    1、参与大数据项目的需求分析、系统架构设计、并完成需求设计相应文档的编写; 2、深入理解数据业务,负责业务模型抽象、数据模型的设计开发,特征提取、分析和挖掘工作; 3、参与数据仓库建设,负责数据仓库模型设计,开发高质量可扩展的底层数据仓库体系; 4、负责运营商、金融、交通、智慧公园等大数据中台数仓项目和数据治理类项目建设。 职位要求: 1、本科及以上学历,计算机或者数学等相关专业,具备2年以上大数据和数据仓库相关工作经验。 2、熟练掌握大数据开发工具的使用(hdfs、hive、hbase、spark、flink、kafka等) 3、熟悉SQL开发,复杂SQL优化,熟练使用mysql、oracle、hive等。 4、熟悉java/scala、python开发语言。 5、具有良好的沟通、理解及表达能力,具有良好的抗压能力,可接受出差。 7、具有大数据系统架构能力、或有团队管理经验的优先考虑。
  • 25k-50k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
  • 15k-30k·13薪 经验5-10年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、参与海量的数据资源处理与整合,服务隐私与安全等多种场景应用; 2、基于Hive/Flink等平台建设离线数据仓库,实时数仓; 3、善于理解并合理抽象业务需求,发挥数据价值,精通数据分析和数据模型开发的技术解决方案; 4、不断创新,推动建设画像平台,血缘平台等数据基建,持续扩展平台的支撑场景和应用范围。 职位要求: 1、熟悉多项大数据处理/分析相关的工具/框架,e.g. Hadoop、Mapreduce、 Hive、Storm、Spark、 Flink etc; 2、熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 3、优秀的理解沟通能力,能快速理解业务背景,强的业务和数据理解能力,对数据敏感,崇尚数据说话,深信数据在驱动业务、支撑决策上的价值; 4、具备扎实的数据结构和算法基础,熟悉至少一门编程语言,包括但不限于Java、Python、Go等; 5、对新技术有强烈的学习热情,了解业界技术发展动向; 加分项: 1、参与过画像平台、数据血缘、特征工程等数据建设; 2、对隐私合规领域有相关经验。
  • 20k-40k 经验3-5年 / 本科
    科技金融 / C轮 / 150-500人
    数据库运维开发 职位要求: 1、熟悉golang/python/java/c++ 等至少一门语言,Golang、 Python 优先; 2、熟悉常用的互联网技术包括但不限于Linux系统、MySQL、Redis、NoSQL、MQ; 3、具备数据库配套工具开发及运维经验; 4、有良好的编码和文档习惯,注重代码风格。熟悉基础设计模式和原则; 5、有自学能力,并能理解拆分需求; 6、本科以上学历,专业背景不限。 职位描述: 1、整体工作内容多为面向AWS API的编程工作; 2、负责实现S3中各类数据文件的整合和迁移; 3、将S3中整合的文件映射至athena中进行查询; 4、RDS实例管理平台的研发; 5、开发周边生态工具(数据备份、迁移、订阅); 职位亮点: 1、公司内最底层数据的服务开发与维护工作,可以初步了解内部的技术实现; 2、有机会与其他岗位的同事沟通学习,可以初步了解行业发展和风向;
  • 20k-35k 经验5-10年 / 本科
    汽车丨出行 / 上市公司 / 2000人以上
    职位描述 1. 负责大数据平台的运维,包括部署、管理、优化等,保障平台稳定运行; 2. 负责大数据集群的架构升级、容量规划、资源管理、成本优化、业务管控; 3. 理解大数据平台架构和业务流程,发现并解决系统问题或瓶颈; 4. 开发自动化运维、监控报警、故障处理脚本和工具,优化整个运维的流程; 岗位要求: 1. 本科及以上学历,5年以上规模集群管理和运维经验; 2. 熟悉Linux操作系统,熟悉TCP/IP基本原理,有系统调优经验; 3. 掌握Shell、Python等至少一门常见脚本语言; 4. 熟悉常用的监控工具,熟悉自动化运维工具(如Saltstack/Ansible/Puppet等),有二次开发能力者优先; 5. 熟悉hadoop/hbase/elasticseach等大数据组件的架构及基本原理; 6. 对运维体系有一定认识,善于思考总结,做事积极主动,责任心强、细心谨慎,能独立解决问题。
  • 12k-16k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    中级数据库开发, 北京四部, **本科双证,计算机相关专业, 要求熟悉存储过程、批量业务 技能要求: 1)本科3年以上,计算机相关专业(学信网可查)。 2)熟练掌握使用Oralce、MySQL等数据库,具备良好的OOP设计开发理念,对设计模式能够熟练理解并使用 3)熟练使用shell脚本,可独立完成相关功能设计及工具实现。 4)有良好的沟通能力、学习能力、肯吃苦; 5)具有银行业相关经验者优先
  • 25k-40k·15薪 经验3-5年 / 本科
    消费生活 / 上市公司 / 2000人以上
    岗位职责: 1. 负责到店平台数据领域的质量建设工作,包括但不限于数据生产加工及数据平台、数据产品的质量保障方案制定及落地。 2. 通过建设数据可测性、全链路追踪、数据监控体系等能力,保障数据质量。 3. 参与数据应用的效果评估体系建设,如:算法策略的效果评估等,对数据应用的最终业务效果和质量负责。 4. 参与建设到店平台数据领域的研发交付体系,从测试环境、可测试性、测试工具等方面,提供稳定高效的测试能力和测试基建。 岗位基本要求: 1. 计算机或相关专业本科以上学历,计算机技术基础扎实,编程能力过关。 2. 两年以上的大数据测试经验,熟悉数据算法研发测试流程。 3. 熟悉Hadoop/Hive/Spark/Flink等大数据生态相关技术,在数据仓库、数据平台、数据挖掘领域有一定知识积累。 4. 具备较强的逻辑思维与表达能力,善于沟通协作,学习能力强,具有良好的团队合作精神。