• 18k-30k·14薪 经验3-5年 / 本科
    移动互联网,硬件 / 不需要融资 / 2000人以上
    岗位职责: 1.参与大数据分析平台的建设、开发、性能优化等工作; 2.负责项目中涉及到的包括但不限于 hdfs/Hbase/Hive/Yarn/Spark/ElasticSearch/clickhouse/presto等大数据组件的应用开发,保障平台的稳定和可靠 3.配合项目组及技术团队对项目中的技术难题进行专项攻关和验证; 任职要求: 1.***计算机及相关专业本科及以上学历,4年以上大数据领域工作经验; 2.具备java/scala/python 其中2种或以上语言 3.熟悉大数据技术体系,包括但不限于 hdfs/Hbase/Hive/Yarn/Spark/ElasticSearch/clickhouse/presto等,有大数据应用项目的实际开发经验; 4.熟悉大数据实时流技术,spark/flink 有线上实践经验
  • 10k-15k 经验3-5年 / 本科
    专业服务|咨询 / 不需要融资 / 50-150人
    岗位职责: 1、负责大数据采集、存储、计算、分析等场景的通用架构设计和研发; 2、负责大数据平台运维工作,平台系统优化、问题处理,性能优化等; 3、协助产品经理完成产品开发工作,后台业务系统开发,产品技术路线规划以及系统架构、应用架构、技术架构分析和设计; 4、协助数据分析团队完成分析工作,协助数据治理团队完成相关治理工作; 5、遵循公司技术标准、规范,高质量完成设计、开发任务; 6、参与研发部门技术评估、技术积累、技术难题解决等工作。 任职资格: 1、计算机或相关专业本科以上学历(3-4年工作经验); 2、扎实的Java开发功底,熟练spring框架开发,有系统或独立模块设计和开发实战经验,有良好的单元测试习惯; 3、2年以上数据处理研发,熟悉Hadoop、Hive、Spark、Kafka、HBase等技术组建的原理源码,具有一定的平台调优能力; 4、熟悉常用关系型数据库,能熟练运用SQL、Mybatis、Redis,并具有数据库编程能力; 5、具备一定linux操作开发能力,熟练掌握linux操作系统常见命令,trouble-shooting的经验和能力; 6、了解数据仓库建设的基本思路,对实时数仓有所了解,熟悉OLAP; 7、熟悉基于CDH构建大数据平台及运维,能独立处理平台问题,有平台安全加固、性能优化者优先。 8、对于高并发、高稳定可用性、高性能、大数据处理有过实际项目产品经验者优先。
  • 15k-30k 经验3-5年 / 本科
    企业服务 / D轮及以上 / 500-2000人
    1、计算机或相关专业本科及以上学历,2年以上大数据运维或开发工作经验;2、熟悉linux开发环境,熟练掌握JAVA/GO/Python语言中的一种;3、熟练掌握大数据常用开源组件的技术原理, 有hadoop、kafka等开源大数据组件运维或开发经验;4、有较强的逻辑思维能力,思想上开放,主动积极有责任感,能够承担工作压力;有hadoop、kafka、spark、flink等开源组件源码优化经验优先;岗位职责:负责大数据平台消息中间件/Hadoop/实时计算/OLAP的运营支撑和架构优化。
  • 16k-20k 经验3-5年 / 本科
    金融,信息安全 / 不需要融资 / 50-150人
    岗位职责: 1、参与银行产品的需求分析、设计; 2、完成软件系统代码的实现,编写代码注释和相关开发文档; 3、根据设计文档或需求说明完成代码编写、调试、测试和维护; 4、分析并解决软件开发和实际运行过程中遇到的问题; 5、配合团队成员完成公司安排的其他任务; 任职要求: 1、精通java,功底扎实,编码风格良好,思路清晰有条理,对集合、异常、多线程开发调试足够熟悉; 2、对springmvc有深刻理解,熟悉常用的数据结构和算法、设计模式; 3、熟悉hadoop基本原理,有使用kafka、hbase或hive经验,了解storm并熟悉使用javaAPI; 4、熟悉常用数据库DB2、Mysql,数据库优化有一定个人理解; 5、熟悉Linux操作系统、对shell、任务流linux常用系统优化有一定了解,能够快速上手; 6、熟悉大数据准实时采集,银行类业务,对金融规范、金融业开发规范有一定程度了解,有银行系统后台类开发经验者优先;
  • 15k-25k·13薪 经验3-5年 / 本科
    软件服务|咨询 / 上市公司 / 2000人以上
    任职要求: 1、计算机相关专业,***本科及以上学历,3年以上大数据分析开发经验; 2、熟练掌握SQL、pyspark开发语言,了解Scala或Java语言;懂得SQL优化,掌握窗口函数、explode等函数运用; 3、熟悉linux开发环境,能够熟练的编写复杂shell脚本,有扎实的开发功底; 4、熟悉Spark、SparkSQL、MapReduce,了解ETL性能优化;熟悉大数据Hadoop生态系统,熟练使用主流大数据平台进行数据的处理,具备其中一种或多种产品(Spark、Hive、Hbase、Kafka、ES等)使用经验; 5、熟悉离线数仓的建设,了解数仓维度建模、分层等知识,了解数据治理方面的知识,知道如何保障数据质量; 6、有浓厚的学习兴趣和钻研精神,对数据敏感,具备良好的沟通能力,有较强的责任感和团队协作意识; 7、能够积极主动学习,并乐意为团队进行技术分享; 8、熟悉知识图谱概念和相关技术,有过实际知识图谱或者图数据库开发经验者优先,有银行或金融数据开发经验有先;
  • 人工智能服务,科技金融 / 不需要融资 / 500-2000人
    岗位职责: 1、参与基于Hadoop的大数据平台的研发工作与持续优化工作。 2、参与大数据平台的容量规划、持续交付、业务监控、应急响应,保证平台正常运行。 3、利用大数据相关技术实现对数据的分析、挖掘、处理、及数据可视化等相关工作。 4、学习和研究新技术以满足系统需求。 岗位要求:1.20应届,21应届研究生&本科生优先,22届,可实习2.国家211、985工程大学一类***本科优先或硕士及海外留学相应学历,计算机,通信,电子,数学等相关专业 3.基础知识扎实,熟练掌握主流框架或语言 4.有较强的逻辑思维能力、新知识新技能的学习能力
  • 50k-70k·13薪 经验5-10年 / 本科
    其他 / 不需要融资 / 2000人以上
    岗位职责: 1、负责企业级数据仓库的模型设计; 2、负责数据仓库及运力BI项目基础架构规划、安全规划、ETL架构和规范制定; 3、负责制定数据接入和采集规范制定; 4、负责数据质量问题的分析、跟进、解决 任职资格: 1. 本科及以上学历,计算机、统计、数学、信息技术等相关专业; 2. 7年以上数据处理相关工作经验者,深刻理解数据仓库的设计理念; 3. 精通至少一种关系型数据库(oracle/mysql/sqlserver)管理以及性能调优; 4. 精通至少一种mpp数据库(presto/clickhouse/doris)管理以及性能调优; 5. 熟练掌握Hadoop,Hive,Spark,Flink,Kafka,ES等数据处理技术,对大数据 基础架构和平台有一定的理解和实践; 6. 精通JAVA或SQL开发; 7. 至少3年带团队经验(5人及以上); 加分项 有数据可视化实践经验,及数据仓库从0到1的建设经验。
  • 30k-50k 经验3-5年 / 本科
    电商平台 / 上市公司 / 500-2000人
    业务描述 Supply Chain 负责打造覆盖东南亚的供应链系统,包括覆盖东南亚、辐射全世界的全球化物流网络,多地区的复合仓储系统和最后一程运输系统。物流业务是电商核心环节之一,Shopee也在物流上重金投入以保证物流体验。比如搭建跨境物流体系,在面对东南亚多岛屿复杂地形时,采取本地化的方式去解决以快速融入市场。 Supply Chain 数据团队基于海量数据,根据不同的业务模型打造一系列数据产品,为业务运营和合作伙伴提供精细化的运营决策建议。基于供应链在不同市场的业务特性,构建算法模型,优化供应链的物流网络,仓储配送等系统的运行效率,降低运营费用,是供应链数据团队的价值和挑战。 技术责任描述 负责供应链数据离线、实时计算指标和数据服务的测试,包括数据仓库、指标集市的准确性;负责供应链数据相关数据服务的测试,包括查询和到导出服务的准确性和系统性能等;负责供应链数据工具平台的系统功能和交互测试;负责数据测试自动化框架和工具建设;持续关注业界技术动态,并结合自身项目特点引入测试新思想、新技术、新工具 任职要求 本科及以上学历,计算机或相关专业毕业,5年以上相关工作经验熟练掌握软件测试相关理论方法和流程,熟悉jmeter、locust等测试工具,熟练掌握python测试框架,如pytest的使用;熟练掌握SQL语法和基本调优,熟悉Shell、Python等语言;熟练掌握海量多维数据构造方法,熟悉数据异常检测与监控机制;熟悉Hadoop、HBase、Spark、ClickHouse等大数据组件和MySQL、TiDB等数据库;具备较强的责任感和自驱力,学习能力强,工作认真细心,具备较强合作精神;有数据治理相关工作经验优先;有供应链、电商行业相关工作经验优先。
  • 20k-40k 经验1-3年 / 本科
    电商平台 / 上市公司 / 500-2000人
    业务描述 Supply Chain 负责打造覆盖东南亚的供应链系统,包括覆盖东南亚、拉丁美洲、辐射全世界的全球化物流网络,多地区的复合仓储系统和最后一程运输系统。物流业务是电商核心环节之一,Shopee也在物流上重金投入以保证物流体验。比如搭建跨境物流体系,在面对东南亚多岛屿复杂地形时,采取本地化的方式去解决以快速融入市场。 Supply Chain 数据团队基于海量数据,根据不同的业务模型打造一系列数据产品,为业务运营和合作伙伴提供精细化的运营决策建议。基于供应链在不同市场的业务特性,构建算法模型,优化供应链的物流网络,仓储配送等系统的运行效率,降低运营费用,是供应链数据团队的价值和挑战。 技术责任描述 参与供应链数据离线、实时计算指标和数据服务的测试,包括数据仓库、指标集市的准确性;参与供应链数据相关数据服务的测试,包括查询和到导出服务的准确性和系统性能等;参与供应链数据工具平台的系统功能和交互测试;参与数据测试自动化框架和工具建设; 任职要求 本科及以上学历,计算机或相关专业毕业,1年以上相关工作经验熟练掌握软件测试相关理论方法和流程,熟悉jmeter、locust等测试工具,熟练掌握python测试框架,如pytest的使用;熟练掌握SQL语法和基本调优,熟悉Shell、Python等语言;熟练掌握海量多维数据构造方法,熟悉数据异常检测与监控机制;熟悉Hadoop、HBase、Spark、ClickHouse等大数据组件和MySQL、TiDB等数据库;具备较强的责任感和自驱力,学习能力强,工作认真细心,具备较强合作精神;有数据治理相关工作经验优先;有供应链、电商行业相关工作经验优先。
  • 18k-25k·15薪 经验5-10年 / 本科
    内容社区,音频|视频媒体 / 不需要融资 / 150-500人
    岗位职责: 1、负责数据仓库规划、设计、开发,各业务线日志采集、清洗、整合、调度、优化等工作; 2、负责内部数据应用的设计、开发、维护工作; 3、负责解决大数据集群和数据服务线上实际问题,保障大数据集群及应用安全、高效、稳定运行; 4、深度挖掘业务数据,通过用户行为分析、关联分析,扩展和优化现有个性化推荐系统; 5、搭建数据平台,建立数据分析/数据挖掘模型,指导产品日常运营; 6、关注大数据前沿技术,规划大数据平台类产品架构,将大数据能力服务化输出,推动相应数据产品的研发和落地; 岗位要求 1、本科以上学历,计算机相关专业,有操作系统、数据库等专业知识基础; 2、3年以上分布式系统、大数据相关工作经验,至少2年服务器开发经验; 3、熟悉整个大数据的完整处理流程,包括实时和离线日志采集、清洗、预处理、存储、任务调度、分析挖掘和数据可视化。有超10TB大数据处理实战经验优先; 4、精通Java,熟悉IO、多线程,spring boot,spring data等基础技术; 5、熟悉Hadoop生态圈组件,精通Hadoop、Spark、Hive、HBase、Flink、Kafka、ElasticSearch等主流的大数据技术,具有Java 和 Scala语言项目开发经验,熟悉python者优先; 6、熟悉掌握Mysql、redis、MongoDB、Hive、Hbase 等数据库调优手段; 7、需要有较强的学习能力和思考问题能力,责任心强,有良好的沟通适应能力,能及时关注和学习业界最新的大数据和后端技术,以技术反哺驱动业务; 加分项: 1、有个性化推荐引擎的设计开发实践经验; 2、有搜索引擎、rank模块设计开发的实践经验; 3、熟悉逻辑回归、文本算法、排序、分类等机器学习的算法与运用。
  • 16k-25k·13薪 经验3-5年 / 大专
    软件服务|咨询,人工智能服务 / 上市公司 / 500-2000人
    1、 大专及以上学历,计算机相关专业; 2、3年以上java开发经验; 3、有大数据实时数据处理项目经验优先; 4、 熟练使用HIVE 、KAFKA、SPARK 、shell、sql等; 5. 有银行开发经验优先 6. 具备较好的学习能力、沟通表达能力、团队合作能力。
  • 25k-45k 经验5-10年 / 本科
    IT技术服务|咨询 / 不需要融资 / 50-150人
    岗位职责: 1. 负责大数据平台的技术把关,架构设计、性能调优、控制架构质量、解决项目技术难题;对研发项目和任务需求进行评估和方案设计、拆分任务并指导工程师完成开发; 2. 带领研发团队提供并实现大数据平台开发、多业务系统数据接入、数据挖掘分析及数据可视化的架构设计与能力,支持解决方案实施; 3. 协调解决开发中的技术问题,设计和监控运营指标,保障系统稳定运行; 4. 协助算法工程师在大数据算法平台开发新的人工智能和机器学习算法; 5. 指导工程师进行技术验证实现,核心技术攻关,解决开发过程中技术难题。 任职要求: 1. 具有5年以上开发经验,汽车行业大数据背景,本科及以上学历; 2. 对大数据行业应用有深刻理解,具备大数据架构设计经验,熟悉业务数据调研方法,精通数据仓库的设计理念,有成功的数据仓库架构和实施经验,并参与过核心代码编写; 3. 对大数据生态体系有深入认识,熟悉ElasticSearch、Hadoop开源生态,掌握Flink、Hive、Kafka等数据处理核心组件; 4. 熟悉通用ETL流程,具有使用ETL进行数据处理的经验; 5. 熟悉Java语言及SpringBoot、MyBatis、SpringJPA等框架,熟悉GreenPlum/MongoDB/Redis/MySQL/Oracle/Hbase等数据源,熟悉Linux平台及Shell脚本开发; 6. 有数据治理、数据标准相关项目经验者优先; 7. 熟悉具有TensorFlow、Alink等机器学习平台使用经验者优先; 8. 有视频数据接入和分析经验者的优先; 9. 具有强烈的目标感、良好的服务意识、团队精神和自我驱动力。
  • 15k-25k·13薪 经验3-5年 / 本科
    游戏 文娱丨内容 / 不需要融资 / 500-2000人
    工作职责: 1. 参与/负责数据仓库ETL(数据抽取、加载、清洗、转换)处理任务的设计和开发工作 2. 参与/负责数据报表的设计和开发工作 3. 参与/支持相关BI业务分析的开发和实施工作 4.领导安排的其它事宜 注:精通shell,有hadoop大数据环境经验,有使用一些组件的经验sqoop datax hive spark azkaban等。 岗位要求: 1.掌握数据库基本知识,对数据库内部结构有较深理解和认识 2.精通mysql数据库及mysql存储过程,具有数据模型设计的能力 3.精通sql语句编写,具有1年以上基于数据库开发的经验 4.具备数据挖掘,数据迁移,ETL处理,sql语句优化,海量数据处理的工作经验 5.熟悉Linux操作系统常用命令 6.工作严谨细致,有责任心,勤奋踏实,善于思考问题,具有团队合作精神,能承受一定的工作压力; 7.精通hadoop及相关组件,如:sqoop datax hive spark azkaban。 8.有良好的人际关系和沟通能力,有大型项目经验优先;
  • 18k-26k·13薪 经验3-5年 / 本科
    软件服务|咨询 / 上市公司 / 500-2000人
    1. 3年以上 大数据开发经验,倾向使用Python开发。注意确认人选简历中的项目是否实际参加。 2. 大数据平台ETL经验 3. 英语口语能听敢说,偶尔有global会议。
  • 35k-60k·14薪 经验5-10年 / 本科
    消费生活 / D轮及以上 / 500-2000人
    工作职责 1. 对公司大数据基础设施稳定性和扩展性负责; 2. 持续提升公司大数据相关的交付能力和交付效率,不限于工具、方法、流程等; 3. 对公司的数据开发能力负责,确保各团队有效地使用各种数据存储系统; 工作内容 1. 规划并落地公司大数据基础设施的整体架构; 2. 参与并协助产出大数据产品的技术方案,对数据仓库的数据结构和数据组织的有效性负责; 3. 持续优化基础设施和工具以提升大数据相关交付能力; 4. 参与并主导大数据相关难题的攻坚和突破; 任职要求 1. 5年以上编程经验,语言不限,具备良好的程序设计思维,对常见的程序设计原则有准确的理解; 2. 对MySQL、PostgreSQL、MongoDB等常见的数据库,有丰富的应用经验,具备具备分析并解决数据库相关难题的能力; 3. 熟练掌握Hadoop、Flink、Spark等大数据技术体系,3年以上大数据系统架构经验,有完整的实践案例; 4. 对阿里云等云厂商大数据产品了解者优先; 5. 良好的业务感,对大数据如何支撑业务决策,以及数据架构如何设计与实现有深刻的理解; 6. 良好的目标感,能够在复杂的决策环境下,围绕公司和团队的核心目标做决策和取舍; 7. 良好的洞察力和问题分析能力,能够拆解复杂问题并给出解决方案; 8. 良好的协作能力,能够有效地沟通并推动问题的解决方案产生和落地;