• 15k-25k 经验3-5年 / 本科
    电商平台 / A轮 / 500-2000人
    岗位描述: 1、负责数据仓库系统中ETL、流程的优化,及时排除ETL流程故障,监控和优化ETL的性能,形成知识库; 2、负责协助对数据仓库系统进行规划、建设,并对各类技术方案的可行性、有效性、完整性进行评审; 3、参与数据生命周期的相关数据处理工作,包括采集、加工、存储、共享等; 4、参与已上线数据应用开发运维,并定期对程序运行情况进行分析调优; 任职资格: 1、计算机方向相关专业,本科及以上学历,3年以上相关工作经验; 2、熟练使用相关大数据平台工具进行ETL开发; 3、精通SQL,熟练使用各种常用关系型数据库和分布式数据库; 4、扎实的JAVA基础,熟练使用dataWorks; 5、具有数据中台建设经验的优先,有跨境电商行业数据应用经验者优先;
  • 15k-30k·13薪 经验3-5年 / 本科
    物流|运输 / 上市公司 / 2000人以上
    工作职责 1、承担Web/App产品交互工作;参与产品规划构思和创意过程; 参与制定各个产品线的交互规范; 2、根据产品经理的方案需求,用户使用场景,设计完整的用户操作流程、界面结构、产品原型; 3、跟进并推动设计方案的落地实施,配合视觉设计及研发人员的工作,确保上线体验质量,协助达成业务目标; 4、推动并协助产品不同阶段的用户研究及可用性测试,能复盘产品数据,根据业务目标优化和提升设计体验。 任职要求 1、工业设计、计算机、心理学、平面设计、广告设计等相关专业本科以上学历,参与过中大型产品的交互设计; 2、能够使用合适的工具提供高质量设计表达方案; 3、熟练掌握多平台通用交互规范及设计方法,关注并熟悉国内外主流产品的设计理念和趋势; 4、了解用户习惯,擅长信息资料的收集和整理分析,具有较强的互联网产品的可用性分析及用户行为分析能力; 5、强逻辑思维能力,熟练掌握业务需求分析、产品需求分解的技巧; 6、数据能力优秀,善于用数据驱动产品的优化升级,并能通过用户研究对产品进行评估并提供解决方案; 7、个性乐观开朗,主动性高,同时具有优秀的理解、沟通与协调能力,有较强的抗压能力。 薪资福利 1、饭补375/月,食堂品类丰富、营养卫生。 2、免费员工公寓,四人间,独立卫浴、空调、洗衣机齐备,可做饭。 3、免费班车上下班,自驾车停车免费。 成长提升 1、上市公司,平台稳定,制度健全。 2、舒适的办公环境,团队氛围佳,定期举办团建、生日会、分享会。 3、国定节日更有好礼相送。 4、每年拥有晋升、调薪机会,拥抱变化,成长空间大。 产品技术中心简介 我们的核心目标是打造端到端一体化的全场景物流技术解决方案,构建行业领先的数智化技术能力,支撑公司的数字化转型。 目前申通产品技术线约500人团队规模。我们核心要通过大数据、云计算、IoT、人工智能等技术,将全国性的快递网络管理起来,进而解决这张网络的全局优化和供需匹配问题~ 这张网络规模是,4000家网点,100多个大型转运中心,8000余辆干线车辆,10万小件员,每天3000万包裹,10亿+轨迹扫描数据,以及数百台各式自动化分拣设备~ 这里还有简单而真诚的同事,自然而清新的环境~你想做事、想实践、想学习、想沉淀都可以~ 申通伟大复兴之路,期待有你的加入~
  • 35k-55k·16薪 经验5-10年 / 本科
    电商 / D轮及以上 / 500-2000人
    职责描述: 1、根据公司战略规划与年度工作计划,制定中长期技术规划; 2、参与大数据平台数据产品的数据采集、ETL系统的设计开发、数据分析、调优及维护工作; 3、主导技术难题攻关,持续提升核心功能的性能,解决各类潜在系统技术风险,保证系统的安全、稳定、快速运行; 4、 负责技术团队的建设与管理,包括培训指导、考核等,全面提升团队技术水平。 5、与产品团队配合,根据产品定义制定产品的项目开发计划,对项目范围、质量、时间、成本和技术可行性等进行评估和确认 任职要求: 1、**本科及以上学历,5年以上互联网企业技术开发及管理经验,有大型移动互联网项目研发经验者优先;具备大厂管理经验优先 2、熟悉互联网服务架构体系,精通服务端的整体构建及交互流程; 3、具备SAAS系统的开发及管理经验,有大型业务系统架构能力、大型分布式系统设计能力;有较强的复杂系统领域建模能力; 4、熟悉多线程/多进程编程,分布式并行系统设计,精通高并发、大数据、消息中间件、SOA等领域的相关技术和理论。 5、具备较强的团队管理能力、项目管理能力、队伍培训能力,具备团队管理经验优先(包括前端,后端,数据开发、数据分析等技术团队管理); 6、具有较强学习能力、自我驱动能力、责任感和团队协作能力。
  • 15k-30k 经验3-5年 / 本科
    企业服务 / D轮及以上 / 500-2000人
    1、计算机或相关专业本科及以上学历,2年以上大数据运维或开发工作经验;2、熟悉linux开发环境,熟练掌握JAVA/GO/Python语言中的一种;3、熟练掌握大数据常用开源组件的技术原理, 有hadoop、kafka等开源大数据组件运维或开发经验;4、有较强的逻辑思维能力,思想上开放,主动积极有责任感,能够承担工作压力;有hadoop、kafka、spark、flink等开源组件源码优化经验优先;岗位职责:负责大数据平台消息中间件/Hadoop/实时计算/OLAP的运营支撑和架构优化。
  • 15k-30k·14薪 经验3-5年 / 本科
    企业服务 / D轮及以上 / 500-2000人
    1、计算机或相关专业本科及以上学历,2年以上大数据运维或开发工作经验; 2、熟悉linux开发环境,熟练掌握JAVA/GO/Python语言中的一种; 3、熟练掌握大数据常用开源组件的技术原理, 有hadoop、kafka等开源大数据组件运维或开发经验; 4、有较强的逻辑思维能力,思想上开放,主动积极有责任感,能够承担工作压力; 有hadoop、kafka、spark、flink等开源组件源码优化经验优先; 岗位职责: 负责大数据平台消息中间件/Hadoop/实时计算/OLAP的运营支撑和架构优化。
  • 55k-75k·16薪 经验5-10年 / 本科
    工具类产品 / C轮 / 150-500人
    职位描述: 1、基于业务需求,主导数据分析产品的底层数据存储设计和计算设计 2、参与相关基础组件的调研及开发,不断优化大数据平台服务的稳定性和性能 3、持续跟进新技术的研究,保证技术的领先性 4、持续提高团队的技术水平和工作效率 职位要求: 1、计算机相关专业,至少8年以上的大数据相关工作经验,5年以上的OLAP引擎相关工作经验 2、熟悉Hadoop生态,熟练掌握Spark、Flink、Hbase、Druid 、Clickhouse等数据组件,有源码阅读和源码修改经验者优先 3、有过支撑单日亿级别数据的大数据平台建设经验 4、开源项目贡献者优先 5、具备良好的沟通能力和团队协作意识,对业务有一定的理解能力,有强烈的责任心,稳重踏实,学习能力强
  • 25k-50k 经验不限 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责:1、围绕火山引擎相关数据,负责数据应用系统的架构设计,技术方案设计,技术难点攻关;2、挑战火山引擎大数据,高并发,高稳定的业务场景,支撑业务方对于线上不同数据的各种使用场景;3、与业务,产品紧密协作沟通,满足业务数据需求,发掘业务数据价值,提供应用指导;4、参与数据治理工作,提升数据易用性及数据质量;5、负责火山引擎内系统指标体系建设与维护。职位要求:1、计算机相关专业,**本科以上学历,有相关行业经验优先;2、有扎实的编程能力,深入了解Go、Python、Java等至少一门语言编程;3、熟悉MySQL、Redis、Consul、消息队列等常用组件,并了解其底层运行原理,技术要点;4、熟悉大数据相关技术:Kafka/Flink/Spark/Hive/HBase/Hive/Clickhouse 等;5、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
  • 10k-15k·16薪 经验3-5年 / 本科
    企业服务 / 上市公司 / 500-2000人
    岗位职责: 1、负责大数据平台基础组件功能设计、研发及维护工作; 2、负责数据系统需求对接、各信息化系统数据对接,负责数据采集、清洗、传输、存储、计算等全方位设计与开发; 3、负责大数据平台文本挖掘分析等工作; 4、负责相关功能设计文档撰写; 5、负责BI及报表开发; 6、为公司提供大数据存储、分析、计算支持。 任职要求: 1、熟练运用至少一门编程语言,包括但不限于 Java、Scala、Python等; 2、参与过分布式高性能服务的设计开发过程,有大规模分布式系统的实践经验优先; 3、精通一种或多种大数据相关组件技术,包括但不限于 Hadoop、Spark、Hive、HBase、Flink、DataX、Canal、ElasticSearch、OLAP、调度系统、权限系统、元数据管理系统、搜索引擎技术等,理解其内部原理和适用场景,了解核心源码及调优方法 4、熟悉常见存储技术(Sqlserver ,Oracle, Mysql, NosqlDB、Redis、ElasticSearch,WebService/WebAPI(SOAP/json); 5、计算机、软件工程及相关专业本科或以上学历,3年以上相关项目开发经验;
  • 25k-50k·14薪 经验3-5年 / 本科
    硬件 / 上市公司 / 2000人以上
    岗位职责: 1. 参与设计云化数据平台架构,支持大数据/数据库系统,负责或者参与管控平台、开发平台、数据链路和云服务等子系统研发工作。 2. 参与大数据内核系统的研发工作,基于开源体系,针对ETL、AI、实时等众多场景深度开发或者优化存储、计算、调度等子系统,打造云原生、分布式、可扩展、高性能的大数据产品服务。 3. 参与数据库内核系统的研发工作,基于开源体系,针对事务、多模、时序等众多场景进行深度开发、优化,打造云原生、高性能、稳定可靠的数据库产品服务。 岗位要求: 1. 熟练掌握Java/C++/Go等编程语言中的一种或多种编程,熟悉Linux,扎实的数据结构、算法等编程基础。 2. 在保证高代码质量的前提下,月度代码量可达5K~10K行。 3. 了解大数据系统,对包括但不限于Hadoop/Spark/Flink/Hudi/Impala/Clickhouse中一个或者多个有深入实践和开发经验者优先。 4. 了解数据库系统,对包括但不限于MySQL/PG/MongoDB/TSDB/HBase等中的一个或者多个有深入实践或者开发经验者优先。 5. 了解数据链路/数据计算/管控平台/SQL开发平台/数据管理平台等中的一个或者多个有实践或者开发经验者优先。 6. 了解云服务架构,对云原生大数据、数据库服务有一定理解或者实践经验者优先。 7. 对代码或者系统有钻研精神、对技术有好奇心,在前端、后端某个领域或者开源社区有影响力的更佳。 8. 良好的沟通和团队协作能力,能够快速学习,乐于分享,愿意彼此成就者更佳。 软件工程院简介: 软件工程院是美的集团的一级部门,是美的自主研发的技术中台,主要负责云计算与软件基础设施建设,为整个美的集团提供统一的数字化基座。
  • 35k-45k·13薪 经验10年以上 / 本科
    移动互联网,广告营销 / D轮及以上 / 150-500人
    工作职责: 1、深入客户,了解需求,结合客户需求和深演云平台(包括不限于Hadoop、Spark、Hbase、Kafka、Flink、Druid、AKKA等框架)完成客户大数据平台的架构设计、研发和优化工作; 2、大数据新技术栈选型,和创新技术的引入,技术难点攻关; 3、负责大数据项目落地实施相关的技术方案设计,参与团队项目代码评审; 4、管理项目团队整体研发,根据业务需求搭建项目框架和实施方案; 5、指导团队成员,负责项目团队成员的建设和管理。 任职资格: 1、教育背景: - 计算机相关专业,***本科及以上学历; 2、经验背景: - 6年以上研发工作经验,3年以上大数据研发实战经验,有To B数据产品相关经验更佳; - 丰富的大中型大数据平台或者应用项目的架构,系统设计和开发经验,或者具有数仓类项目的总体规划、方案设计、实施等相关经验; 3、岗位能力: - 熟悉Hadoop生态的技术栈(如:Hadoop、Spark、Hbase、Kafka、Flink、AKKA等),熟悉各组件的特性特点;对某些组件有深刻理解并有性能调优经验; - 熟悉和了解业界常用大数据平台产品,熟悉基于常见公有云大数据PaaS,SaaS服务开发数据产品者优先; - 具有基于大数据集群的产品开发,部署,运维经验; 4、软性能力: - 清晰的逻辑思维能力, 优秀的沟通协调组织能力; - 优秀的学习能力,对技术前沿的发展有很大的好奇心和洞察。
  • 35k-60k·16薪 经验5-10年 / 本科
    软件服务|咨询,数据服务|咨询,工具类产品 / 天使轮 / 50-150人
    - 关于我们: Aloudata (浙江大应科技)是一家敏捷智能湖仓平台服务商。公司创始人曾任蚂蚁数据平台部总经理(P10),是蚂蚁数据技术主要开拓者和奠基人;创始团队均为原蚂蚁集团数据平台核心成员。团队依托支撑 EB 级(亿兆)数据、数万员工规模而沉淀的数据平台建设经验,致力于打造国内** NoETL 智能湖仓平台。Aloudata 将重新定义数据工作方式,提供零门槛开展数据处理和分析的体验,并自主研发基于 AI 增强的新一代大数据湖仓引擎实现数据分析的秒级响应、湖仓治理的“智能驾驶”,帮助企业低 TCO 实现10倍以上数据化运营决策效率提升。目前,Aloudata 已获红杉中国种子基金数千万元天使轮融资。 岗位描述: 1. 参与Aloudata高性能湖仓引擎的的设计和研发; 2. 对大规模数据高性能计算、数据虚拟化、湖仓一体等关键问题技术攻坚,主导领域内的技术创新; 3. 推动技术架构演进,指导研发工程师开展工作; 岗位要求: 1. 本科以上学历,3 年以上工作经验,Java基础扎实; 2. 擅长分布式系统架构设计,有大数据处理引擎、分析引擎或分布式存储系统研发经验者优先; 3. 深刻理解分布式存储技术(如分布式存储架构、数据格式、索引和缓存等),有对HDFS/Hudi/Kudu/Arrow等开源产品的丰富应用和扩展实践; 4. 对 Spark、Flink、Hive等主流数据处理引擎有深刻理解和丰富实践,有二次开发和优化的能力。 5. 深刻理解分布式计算技术,对Presto、Clickhouse、Kylin、Clickhouse、Druid等主流开源OLAP引擎。 6. 如果你缺乏对以上技术的实践经验,但对大数据基础技术充满热情、愿意挑战硬核技术,也欢迎加入我们,共同成长。 加入我们,你将获得: 1.大咖带队,公司内外尖端技术交流、每周前沿论文精读分享,知识的海洋里无法自拔,但可以互相拔。 2.还有什么比亲手去造下一代数据引擎更“一颗赛艇”?要么一起琢磨琢磨造两个? 3.专注做事、用心生活,啃得了 paper 开得了车~ 不信,投个简历,咱们峡谷见。
  • 35k-60k·16薪 经验5-10年 / 本科
    软件服务|咨询,数据服务|咨询,工具类产品 / 天使轮 / 50-150人
    - 关于我们: Aloudata (浙江大应科技)是一家敏捷智能湖仓平台服务商。公司创始人曾任蚂蚁数据平台部总经理(P10),是蚂蚁数据技术主要开拓者和奠基人;创始团队均为原蚂蚁集团数据平台核心成员。团队依托支撑 EB 级(亿兆)数据、数万员工规模而沉淀的数据平台建设经验,致力于打造国内** NoETL 智能湖仓平台。Aloudata 将重新定义数据工作方式,提供零门槛开展数据处理和分析的体验,并自主研发基于 AI 增强的新一代大数据湖仓引擎实现数据分析的秒级响应、湖仓治理的“智能驾驶”,帮助企业低 TCO 实现10倍以上数据化运营决策效率提升。目前,Aloudata 已获红杉中国种子基金数千万元天使轮融资。 岗位描述: 1. 参与Aloudata高性能湖仓引擎的的设计和研发; 2. 对大规模数据高性能计算、数据虚拟化、湖仓一体等关键问题技术攻坚,主导领域内的技术创新; 3. 推动技术架构演进,指导研发工程师开展工作; 岗位要求: 1. 本科以上学历,3 年以上工作经验,Java基础扎实; 2. 擅长分布式系统架构设计,有大数据处理引擎、分析引擎或分布式存储系统研发经验者优先; 3. 深刻理解分布式存储技术(如分布式存储架构、数据格式、索引和缓存等),有对HDFS/Hudi/Kudu/Arrow等开源产品的丰富应用和扩展实践; 4. 对 Spark、Flink、Hive等主流数据处理引擎有深刻理解和丰富实践,有二次开发和优化的能力。 5. 深刻理解分布式计算技术,对Presto、Clickhouse、Kylin、Clickhouse、Druid等主流开源OLAP引擎。 6. 如果你缺乏对以上技术的实践经验,但对大数据基础技术充满热情、愿意挑战硬核技术,也欢迎加入我们,共同成长。 加入我们,你将获得: 1.大咖带队,公司内外尖端技术交流、每周前沿论文精读分享,知识的海洋里无法自拔,但可以互相拔。 2.还有什么比亲手去造下一代数据引擎更“一颗赛艇”?要么一起琢磨琢磨造两个? 3.专注做事、用心生活,啃得了 paper 开得了车~ 不信,投个简历,咱们峡谷见。
  • 文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、参与国际化短视频大数据质量监控及度量平台架构设计,承担在数及离线数据监控的设计与开发; 2、参与大数据组件技术应用,数据血缘建设,数据监控探索集成,改造和技术攻关; 3、工作范围涉及包括但不限于:任务和资源调度系统,数据集成,数据资产管理,实时质量监控,流批一体技术等领域; 职位要求: 1、精通一种或多种大数据相关组件技术如:Spark,Hive,HBase,ClickHouse,调度系统,权限管理系统,元数据管理系统,数据血缘等,对相关组件的架构原理有深入的了解; 2、有复杂业务系统的抽象设计能力,能根据需求落地架构,抽象系统能力并组件化; 3、有实际的大数据工程平台架构设计的实践经验,有大数据集成开发,数据质量开发经验者优先; 4、工作6年以上,有大数据架构设计经验者优先,大型互联网公司大数据从业经验者优先。
  • 25k-50k·14薪 经验3-5年 / 本科
    硬件 / 上市公司 / 2000人以上
    岗位职责: 1. 参与设计云化数据平台架构,支持大数据/数据库系统,负责或者参与管控平台、开发平台、数据链路和云服务等子系统研发工作。 2. 参与大数据内核系统的研发工作,基于开源体系,针对ETL、AI、实时等众多场景深度开发或者优化存储、计算、调度等子系统,打造云原生、分布式、可扩展、高性能的大数据产品服务。 3. 参与数据库内核系统的研发工作,基于开源体系,针对事务、多模、时序等众多场景进行深度开发、优化,打造云原生、高性能、稳定可靠的数据库产品服务。 岗位要求: 1. 熟练掌握Java/C++/Go等编程语言中的一种或多种编程,熟悉Linux,扎实的数据结构、算法等编程基础。 2. 在保证高代码质量的前提下,月度代码量可达5K~10K行。 3. 了解大数据系统,对包括但不限于Hadoop/Spark/Flink/Hudi/Impala/Clickhouse中一个或者多个有深入实践和开发经验者优先。 4. 了解数据库系统,对包括但不限于MySQL/PG/MongoDB/TSDB/HBase等中的一个或者多个有深入实践或者开发经验者优先。 5. 了解数据链路/数据计算/管控平台/SQL开发平台/数据管理平台等中的一个或者多个有实践或者开发经验者优先。 6. 了解云服务架构,对云原生大数据、数据库服务有一定理解或者实践经验者优先。 7. 对代码或者系统有钻研精神、对技术有好奇心,在前端、后端某个领域或者开源社区有影响力的更佳。 8. 良好的沟通和团队协作能力,能够快速学习,乐于分享,愿意彼此成就者更佳。 软件工程院简介: 软件工程院是美的集团的一级部门,是美的自主研发的技术中台,主要负责云计算与软件基础设施建设,为整个美的集团提供统一的数字化基座。
  • 28k-38k 经验5-10年 / 本科
    金融 / 上市公司 / 500-2000人
    1. 负责大数据集群(包括但不限于Hadoop、Spark、Flink、Hbase、CK)的运维管理,包括但不限于集群治理、任务管理,减少问题发生概率,保障集群的稳定运行 2. 结合现实需要针对集群建立完善的监控告警机制,确保问题及时发现和解决 3. 与大数据开发同事协同为业务使用方提供稳定、可靠的大数据服务 4. 积极跟踪业界技术动态,推进集群运维管理的持续迭代进步 任职资格: 1. 本科及以上学历,8年以上工作经验,5年以上大数据领域工作经验 2. 精通shell或python语言,熟悉常见的大数据运维管理系统,有相关系统的二次开发经验更优 3. 对Hadoop/Hive/Spark/Flink/Hbase/CK/StarRocks/TiDB等相关技术有深入理解,对其中一个或多个的源码有深入了解和实践则更优 4. 相关开源领域的活跃贡献者或大型互联网公司相关从业者优先 5. 具备良好的沟通以及协调能力,能单打独斗也能擅长团队作战