• 30k-60k 经验3-5年 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动数据中台元数仓建设与分析工作,为数据治理,企业安全,成本优化等输出重要业务价值‘ 2、与中台产研团队紧密配合,可以在日常的使用中总结提炼产品能力并反馈给产研团队,帮助数据中台产品能力和体验不断提升。 职位要求: 1、熟悉数据仓库实施方法论,深入了解数据仓库体系,并支撑过实际业务场景; 2、熟练使用Hadoop及Hive,熟悉SQL,Python和Java等语言; 3、善于沟通,并能结合业务背景注定发掘到可输出的数据价值,具备优秀的技术与业务结合能力; 4、有良好产品sense的同学加分。
  • 25k-45k 经验不限 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 字节跳动推荐架构团队,负责字节跳动旗下相关产品推荐系统架构的设计和开发,保障系统稳定和高可用;负责在线服务、离线数据流性能优化,解决系统瓶颈,降低成本开销;抽象设计优雅的系统组件和服务,建设推荐中台、数据中台,支撑新产品快速孵化以及为ToB赋能;实现灵活可扩展的高性能存储系统和计算模型,打通离在线数据流,构建统一的数据中台,支持推荐/搜索/广告。 1、为大规模推荐系统设计和实现合理的离线数据架构; 2、设计和实现灵活可扩展、稳定、高性能的存储系统和计算模型; 3、生产系统的trouble-shooting,设计和实现必要的机制和工具保障生产系统整体运行的稳定性; 4、打造业界领先的存储、计算等分布式系统,为海量数据和大规模业务系统提供可靠的基础设施; 职位要求: 1、熟悉多项大数据领域的开源框架,e.g. Hadoop, Hive,Flink, FlinkSQL,Spark, Kafka, HBase, Redis, RocksDB, ElasticSearch etc.; 3、熟悉Java、C++等编程语言; 2、强悍的编码和 trouble shooting 能力; 3、乐于挑战没有明显答案的问题,对新技术有强烈的学习热情; 4、有PB级别数据处理经验加分。
  • 25k-40k 经验5-10年 / 本科
    数据服务|咨询,人工智能服务,软件服务|咨询 / 天使轮 / 少于15人
    岗位职责 1、负责带领团队完成公司农业数据SaaS平台核心系统设计及开发; 2、基于海量数据建设数据仓库,负责数据仓库的设计、建模、研发等; 3、负责数据仓库流程的优化及解决相关技术问题; 4、和产品经理及其他研发团队同时保持良好沟通,对产品需求进行合理化建议,按计划确保开发工作顺利进行; 5、对推荐业务的商业模式和数据具有较强敏感性,能够发觉数据价值,使数据驱动业务; 任职要求 1、985,211本科及以上学历,计算机或数理统计相关专业,5年以上相关领域工作经验,有后台开发经验,数据挖掘,机器学习,推荐相关经验优先; 2、三年以上j2EE 开发经验,深入理解java 集合,多线程编程和JVM原理; 3、熟悉MySQL/RDS数据库,熟练使用SQL语句,对数据库事务、锁、索引有深入理解; 4、熟练掌握大数据相关技术Hadoop、hive、hbase、spark、Flink、Elasticsearch等生态圈相关技术实际使用和调优经验; 5、对大数据基础架构和平台有深刻理解,对基于Hadoop的大数据体系有深入认识; 6、洞察力强,敏锐,踏实肯干、乐观向上、团结他人,能够自我指导与激励;
  • 12k-24k 经验1-3年 / 本科
    其他 / 未融资 / 15-50人
    岗位职责: 1.支持Hadoop集群底座的运维故障分析、解决、性能优化;大数据集相关组件主要包括:Yarn、HDFS、ZooKeeper、Storm、Kafka、Hbase、Hive、Spark、Kerberos、Spark、Flink、Flume、MySQL等组件运维; 2.开展Yarn性能优化,提升集群资源利用率和任务响应速度;队列优化和维护;优化调度器性能; 3.及时关注Apache官方网站、论坛,针对Patch提出升级建议、方案,并组织实施; 4.配合开展HDFS存储、Hive元数据治理优化,建立并完善存储治理方案; 5.配合开展Hive、Spark作业优化,对业务侧提出优化建议。如:作业小文件问题、数据倾斜治理方案等; 6.提出集群优化建设方案,配合建设和优化大规模分布式集群的自动化运维、监控等工具和管理平台。 任职要求: 1.本科及以上学历,通信/计算机等相关专业,具有良好的学习能力、沟通能力、团队合作能力及一定的抗压能力; 2.熟悉Hadoop、Hive、Hbase、Spark等开源项目,理解组件架构及原理; 3.对大数据运维开发有浓厚兴趣,熟悉Apache Hadoop部署、性能调优; 4.能阅读/理解Hadoop等相关开源组件源码; 5.对HQL、SparkSQL等有较深入的研究,能解决实际业务性能问题; 6.熟练掌握LDAP、Kerberos等安全认证体系; 7.熟练掌握Linux命令与工具进行问题定位,熟悉常规的互联网技术架构; 8.具备一定的Java开发能力; 9.擅长Linux Shell、Python脚本编写,有DevOPS/自动化运维经验工作者优先考虑。
  • 30k-50k 经验不限 / 本科
    区块链 / 上市公司 / 2000人以上
    大数据开发工程师(浏览器  岗位职责:  1、制定数据仓库设计与开发规范,推动落地;  2、设计并实现链上全域业务(地址信息,defi业务信息,标签)的数据仓库模型;  3、重点建设链上标签体系和特征工程;  4、数据治理相关的规划和建设,提高数仓数据质量;  5、与合作部门共同建设实时数仓和落地应用;  6、日常告警监控运维。  任职要求:  1、大学本科及以上学历,计算机、软件、信息等相关专业;  2、相对丰富的数据开发或数据仓库经验;  3、精通Hive Sql;  4、熟悉数据仓库建模、ETL过程、ETL和BI工具、技术和开发流程,一定的调优经验;  5、熟悉常用的shell命令,掌握java语言,能够开发udf/udtf等简单程序者优先;  6、熟悉阿里云大数据产品MaxCompute、DataWorks、Flink等经验优先;  7、熟悉AWS大数据产品经验优先;  8,了解机器学习(决策树、随机森林、聚类、逻辑回归)者优先
  • 25k-40k·15薪 经验5-10年 / 本科
    居住服务 / 上市公司 / 500-2000人
    岗位职责: 负责国内某领先的本地生活服务平台相关大数据离线与实时开发工作,包括但不限于: 1.深入业务场景,建设各条业务线的基础数据能力,提供丰富、稳定的公共基础数据; 2.参与或主导各数据域、应用专题的核心数据模型建设,在数据智能、统计分析、运营决策等方向赋能业务; 3.整合集团内海量大数据资源,进行分析与挖掘,构建画像体系,探索更多大数据的业务价值; 4.支撑相关的数据应用、数据工具建设,包括各类分析平台应用、治理工具等,提升数据使用效率,提高数据质量; 岗位要求: 计算机相关专业,大学本科以上学历,3年以上大数据相关岗位经验; 熟悉Hadoop、Hive、Spark、Flink、Kafka、Clickhouse等常见大数据相关平台和组件的使用和工作原理; 熟悉常见的数据仓库建设方法,了解常见的离线与实时计算任务的优化方法; 较强的学习能力,有良好的分析、解决问题能力,思维灵活、沟通顺畅,善于团队协作;
  • 25k-35k 经验3-5年 / 本科
    教育 / 不需要融资 / 2000人以上
    岗位要求: 1、结合业务特点,基于用户行为、业务数据,建立、评估、优化数据模型,包括但不限于用户价值评分、用户画像、偏好预估等,产出用户标签; 2、参与用户画像平台建设,设计和构建用户画像服务; 3、推进用户画像在业务侧的应用,提升用户产品体验,助力增长产品; 4、参与离线数仓和实时数仓建设、数据治理,提供可靠的底层数据支持。 任职要求: 1、**本科及以上学历, 理工科背景,有扎实的数理基础、计算机科学功底; 2、熟悉数据仓库模型,熟悉常用数据挖掘算法,具有用户画像方向开发经验者优先; 3、 精通Hive编程、掌握Python/Scala/Java等开发语言一种以上,熟悉Linux系统及常规shell命令; 4、掌握大数据技术栈,包括Hadoop/Spark/Kafka/Flink/ES/Hbase/OLAP引擎等其中几种技术,熟悉Flink并有实时数仓开发经验者优先; 5、具备优秀的逻辑思维能力和业务理解能力,拥有良好的分析和技术能力; 6、逻辑清晰,充满热情,良好的团队合作和沟通能力,良好的业务Sense。
  • 18k-35k 经验1-3年 / 本科
    移动互联网,金融 / 上市公司 / 500-2000人
    职责描述: 1、 参与打造业界领先的大数据平台 2、 参与各业务线的数据采集,数仓建模 3、 参与数仓应用、大数据挖掘探索等相关工作 4、 负责大数据平台实时计算、离线计算架构搭建与开发 5、 负责大数据平台业务监控,应急响应等日常维护,确保系统平台的稳定运行 6、 深入研究大数据业务相关技术,持续优化集群服务 任职要求: 1、 计算机、软件工程专业本科及以上学历 2、 1-5年大数据开发经验 3、 至少熟悉oracle、sqlserver、MySQL等主流数据库中的一种,熟练掌握SQL语法,并能对性能进行优化 4、 至少熟练掌握Shell,Python,Java中的一种开发语言 5、 熟悉hadoop等大数据生态相关技术,能够运用Flink,Spark,hive,hadoop种至少一种工具进行数据处理分析 6、 有高度的责任感、很强的学习和沟通能力,具有良好的团队合作精神 7、 有大型数据仓库项目经验、实时数据计算、数据治理经验优先 8、 有证券、基金相关行业经验优先
  • 15k-23k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    1.根据公司业务需求,构建公司的大数据平台; 2.负责ETL的开发工作,负责业务数据的采集,清洗及转换; 3.根据业务需要,提供面向业务的报表、数据提取等数据服务; 4.根据业务目标,对现有数据挖掘,进行分析预测。 职位要求: 1.***本科及以上学历,计算机及相关专业; 2.熟悉数据仓库理论,熟悉ETL理论及开发流程; 3.熟悉关系型数据库,GreenPlum数据库及Hive,Vertica,Spark,SparkSQL,Hadoop 4.熟练使用SQL、Shell、Java及SparkSQL进行ETL开发; 5.有一定的使用挖掘工具(SAS、SPSS)及R、Python等语言的相关经验; 6.有一定的SQL优化能力; 7.具有良好的沟通能力,富有责任心、团队精神和大局意识;
  • 25k-30k 经验5-10年 / 本科
    移动互联网 / 不需要融资 / 500-2000人
    岗位职责: 1、负责征信数据同步、处理。 2、参与征信数据仓库建模、优化、迭代,满足多方数据的存储及数据应用需求。 3、负责征信数据仓库开发,包括离线数据仓库、实时数据仓库。 4、负责数据应用类产品开发,提供数据支持。 5、协助数据分析师完成数据的提取,加工,支持数据分析工作。 任职要求: 1、本科以上学历,计算机相关专业,5年以上大数据开发经验。 2、熟悉大数据平台体系架构,精通离线、实时数据开发。 3、精通hive、spark、flink、presto、ES等两种以上大数据组件及技术。 4、有丰富的数据仓库设计及建模经验,熟悉企业征信数据优先。 5、至少掌握一门开发语言,如:java、python. 6 善于沟通,与他人协作,共同解决问题,推动业务发展。
  • 20k-30k·15薪 经验5-10年 / 本科
    金融,医疗丨健康 / 不需要融资 / 2000人以上
    工作职责: 1、负责大数据平台建设; 2、负责大数据平台运维; 3、负责数据集成程序开发; 4、负责数据加工程序开发; 5、负责数据产品程序开发; 6、负责实时数据接入程序开发; 7、负责作业调度程序开发; 8、领导交代的其他任务。 任职资格及要求: 1.本科或以上学历,6年以上相关开发工作经验; 2.熟练掌握Shell开发语言; 3.精通掌握Python开发语言; 4.精通掌握Hadoop、Hive、Hbase、Spark、Storm、Sqoop、Kafka等分布式框架原理,有相关的调优、运维、开发经验; 5.精通掌握mysql数据库集群; 6.精通主流ETL开发工具,如:Informatica、Data Services、Kettle、SSIS;精通主流调度工具,如:Azkaban, Oozie,具有二次开发能力优先7.有数据仓库、分析系统、用户画像等产品开发经验者优先; 8.有较强的数据和业务结合能力; 9.有较强的独立、主动的学习能力,工作踏实,良好的沟通表达能力。
  • 30k-40k 经验5-10年 / 本科
    物流平台 / A轮 / 500-2000人
    【岗位职责】 负责物流运输行业基于Hadoop、Spark等生态系统的大数据平台的搭建、开发、管理、监控和性能调优; 负责ETL、数据仓库的搭建及画像系统构建; 利用Hadoop、Spark等大数据技术对海量数据进行预处理,支持预测模型、算法等工程化实现; 负责BI分析、数据统计分析、流式计算 【职位要求】 计算机相关专业,**本科或以上学历,5年以上大数据相关工作经验; 熟悉Linux系统,熟练掌握Scala、Java语言,良好的编程习惯; 熟练使用Hadoop生态圈主流技术和产品,如HBase、Hive、Flink、Spark,Kafka,Zookeeper、Yarn等,对Spark分布式计算的底层原理有深度理解; 熟悉ETL全流程,包括任务调度; 熟练掌握数据仓库设计、数据开发工作,能够根据业务设计并开发数据仓库; 【加分项】: 开源贡献者优先,Github项目优秀项目者; 了解机器学习、深度学习、运筹优化; 有过画像系统开发经验; 使用过DataSphereStudio、DolphinScheduler等工具; 熟悉Python,能进行数据爬取; 从事过供应链、物流等相关行业开发工作;
  • 25k-30k·15薪 经验5-10年 / 本科
    移动互联网 / B轮 / 500-2000人
    岗位职责 1.参与数据科技大数据平台建设,负责服务框架建立和大数据应用研发 2.参与大数据平台相关技术和产品的追踪及研究,负责大数据应用的技术创新 3.负责开源大数据平台与产品和相关技术的追踪及研究 3.参与数据收集整理,对多种数据源进行建模、分析、挖掘和应用 4.参与优化大数据平台性能,修复大数据应用缺陷,解决大数据应用问题 5.负责构建和形成金融科技大数据产品和服务 任职资格 计算机软件或相关专业 具有扎实的数据结构和算法功底,熟悉数据挖掘、机器学习、分布式计算等相关技术,有实际项目经验 具备文本分析、主题提取、分类聚类、个性化用户建模、文本挖掘等相关领域知识 熟练使用Java、Scala或Python中的一种语言编程,并对其他语言有所了解,熟悉Linux平台、Shell编程等 有海量数据处理经验,熟悉Hadoop、Spark、Hbase、Hive等开源框架 有较强的学习能力和逻辑思维能力,具备良好的问题分析与解决能力
  • 15k-30k·14薪 经验不限 / 本科
    专业服务|咨询 / 未融资 / 150-500人
    【职位描述】 * 负责大数据中间件产品研发 * 负责大数据分析平台软件的研究和开发 * 负责数据仓库产品的研究和开发 【任职资格】 * 计算机科学、应用数学、统计学、经济学、物理学、天文学、商业分析、信息系统、数据科学或相关专业本科或以上学历(应届毕业生或工作时间小于2年) * 优秀的学习能力与发现、分析并解决问题的能力 * 良好的团队合作精神与沟通能力 【技能要求】 * 具备良好的口头表达能力 * JAVA基础扎实,有相关开发或者实习经验,熟悉IO、多线程、MQ、数据结构与设计模式等 * 精通Hadoop/Hive/Hbase,对Hadoop、Hive、Storm、Spark等源码有研究者优先 * 有分布式监控、搜索、调度、部暑其中一项经验优先 * 熟悉分布式、缓存、消息机制,常用的DAL/ORM框架和设计模式 【公司介绍】: -麦肯锡和华为惠普联合团队 • 由多位前麦肯锡合伙人以及华为惠普核心工程高管联合创立,打造精品管理咨询传承与科技创新品牌 • 同时拥有优质咨询项目资源、丰富咨询经验,及数字化赋能的精尖技术能力,建立从咨询建议到产品/解决方案的全面商业服务模式 • 约600位咨询顾问、数据科学家、软硬件工程师常驻北京上海和成都 -多行业多商业领域覆盖 •主要服务于企业客户,通过结合管理咨询、大数据分析、算法建模与工程落地的能力帮助企业客户实现业务增长 •行业覆盖消费品、零售、金融、互联网、医疗与媒体等 •与多行业领先企业深度合作,建立长期合作关系,如沃尔玛(获沃尔玛年度最佳供应商称号)、欧莱雅、联合利华、中国农业银行、腾讯、京东、美团等 -精尖的数据分析/算法/工程师团队 • 具备数据清洗与挖掘、算法模型和语义分析方面行业领先技术水平与能力 • 具备根据客户业务方向搭建中台/后台的工程技术能力与丰富的项目经验 • 具备广受行业认可的成熟产品(含已申请专利技术),帮助客户实现数据驱动的效率提升 -富有竞争力的职业发展与薪酬福利保障 •注重人才培养,提供定期培训分享及深度参与项目机会,加入团队的年轻小伙伴们再也不用担心自己沦为职场“小螺丝钉” •注重员工成长空间,每年二次全员review,半年即有机会享受升职加薪 •注重福利保障,包括:五险一金、全额理赔商业补充医保、超长带薪年假、超长带薪病假、书费报销、打车报销、无限量零食饮料畅吃、国内外团建旅游等
  • 25k-45k 经验3-5年 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、基于海量数据,支持业务对数据的分析和使用; 2、支持业务处理数据的流式处理、分析客户行为等。 职位要求: 1、精通至少一门编程语言,熟练运用各种常用算法和数据结构,有独立的实现能力 ; 2、熟悉常用的开源组件:Hadoop/Hive/Spark/Storm,并了解其特性和使用场景优先; 3、熟悉机器学习、数据挖掘、数据分析、分布式计算至少某一方面,有较深的理论研究和实践经验优先; 4、数据分析、推荐、机器学习、数据挖掘相关的开发工作优先。
展开