• 10k-20k·13薪 经验1-3年 / 本科
    人工智能,软件开发 / 不需要融资 / 15-50人
    职责描述: 1.负责公司各项产品和业务中,与大数据全生命周期相关的研发,包括数据采集、数据治理、数据分析与处理、数据可视化等;涉及使用成熟工具软件以及自主开发软件和脚本等。 2.参与公司自有大数据软件产品的设计与开发,包括系统平台软件及业务应用软件。 3.参与公司产品研发过程中,与大数据相关的客户沟通、需求分析、产品设计、部署交付、客户支持等流程。 4.解决产品及环境中涉及大数据的各类问题,持续改进软件质量。 5.参与软件工程相关文档资料的编写整理工作。 任职要求: 1.熟悉SQL、Scala、Python等编程语言中的一至二种,熟悉数据分析处理领域常用的Scala和Python开发库。 2.熟悉一种或多种开源大数据框架(如Hadoop、Spark、HBase、Hive、Flink)的使用方法;了解大数据框架的软件架构与工作原理。 3.熟悉数据分析处理相关的基本理论与常用算法,例如关系型数据库理论、数据仓库最佳实践、经典算法和机器学习算法等。 4.了解大数据生态的工具链,了解软件工程规范和流程。 5.具有较强的学习、理解和团队合作能力,乐于探索新技术、新方法,追求知识和能力的进步。 6.在大数据或相关领域有2年以上工作经验者优先;熟悉云计算、数据库或人工智能领域知识者优先。 7.大学本科或以上学历,能够熟练阅读理解英文材料。
  • 10k-20k·13薪 经验3-5年 / 本科
    人工智能,软件开发 / 不需要融资 / 15-50人
    ### 职责描述 1. 负责人工智能与大数据领域的企业级应用软件产品的总体设计,涉及产品形态、业务逻辑、用户体验等设计。 2. 负责用户需求沟通、挖掘与分析,为产品和项目的决策提供指导依据。 3. 负责调研、实验与分析,为产品和项目的决策提供参考信息。 4. 负责产品设计文档的撰写和整理工作,参与团队内部知识交流与传承。 5. 参与产品立项、开发、交付、运营、跟踪等全流程,与团队成员密切配合,共同确保项目成功实施。 ### 任职要求 1. 热爱产品设计工作,视野开阔、思维灵活、逻辑缜密。 2. 具有优秀的沟通、表达、学习和理解能力,乐于与客户及团队其他成员交流。 3. 熟练使用Axure RP、Visio、墨刀等原型设计工具,熟悉UML、E-R图、数据流图等形式化建模方法。 4. 熟悉典型的企业级软件产品(例如BI、OA、ERP、数据科学、公有云服务)的设计思想及使用方法。 5. 在产品经理或相关岗位有2年以上工作经验者优先;从事过人工智能、大数据领域工作者优先。 6. 大学本科或以上学历。
  • 15k-25k 经验5-10年 / 本科
    电商,硬件 / D轮及以上 / 2000人以上
    职责描述 1.充分理解各业务对大数据平台的需求,完成平台基础架构设计与落地,支撑公司数据中台体系建设; 2.设计并落地高扩展、高性能、高可用且易用的大数据平台; 3.负责大数据平台的基础维护、监控、功能设计及性能调优; 4.研究行业内大数据技术发展动态,对既有平台提出更优解决方案并实施落地 任职要求 1.计算机相关专业,本科及以上学历,熟练掌握Java、Scala语言; 2.三年以上大数据平台开发经验,有数据集成/数据开发/即席查询/任务调度/计算引擎等开发经验优先; 3.掌握常用的大数据组件,如hadoop、dolphinscheduler、spark、iceberg等,熟悉其原理且有二次开发经验者优先; 4.熟悉大数据集群,有大数据集群稳定性保障及调优经验优先; 5.熟悉Java Web相关框架,如Spring Boot、MySQL等; 6.有较强的定位问题和coding能力,能保证质量的完成项目的开发与迭代,具有很强的责任感
  • 20k-40k·16薪 经验不限 / 本科
    数据服务,人工智能 / 上市公司 / 2000人以上
    参与构建SaaS领域流批一体计算引擎、湖仓一体计算引擎构建,支撑公司核心业务实时/离线统一的应用场景,并针对重难点问题进行技术攻关 1、**本科以上学历; 2、熟悉flink/spark/hadoop/hbase/hive等分布式计算技术,熟悉其运行机制和体系结构; 3、,熟悉大型互联网企业仓库架构解决方案者优先; 4、有一定的数据分析和挖掘能力,能从海量数据提炼核心结果,及时发现和分析其中隐含的变化和问题; 5、能够通过数据化运营发现、分析问题和优化流程,推动数据处理流程自动化,提升团队运转效率; 6、思路清晰,对数据敏感,有良好的沟通表达能力和跨团队协调能力,乐于寻求挑战和突破自我;
  • 20k-30k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 500-2000人
    岗位职责 - 负责设计和构建大数据平台的各类组件,包括但不限于数据采集,计算,对外服务及治理平台的设计和开发搭建,降低数据的使用门槛,实现数据的最大价值; - 基于开源解决方案,构建完整的数据开发、治理框架,以满足实时、近实时以及批量计算的需求。 - 持续升级和解决自主建设和开源产品中的问题, 包含基于开源项目源码的新功能开发和集成。 - 探索和实践新技术和现有平台的集成。 -Be responsible for the design and construction of various components of the big data platform, including but not limited to the design, development and construction of data collection, calculation, external service and governance platform, so as to reduce the threshold of data use and realize the maximum value of data; -Based on open source solutions, build a complete data development and governance framework to meet the needs of real-time, near real-time and batch computing. -Continuously upgrade and solve problems in open source products, including bug repair in spark, hive, HDFS and presto, and development and integration of new functions based on source code. -Explore and practice the integration of new technologies and existing platforms. 技能和要求 - 计算机相关专业,本科及以上学历。4年以上大数据相关工作经验。 - 精通Java,基础扎实 ,对于多线程、网络、IO方面有实际的应用经验,了解Java 内存模型,垃圾回收机制,对于Java的内存监控、调优、线上Debug有丰富经验。 - 熟悉基于Springboot的微服务应用开发。 - 精通一种或多种大数据相关组件技术,包括但不限于 Hadoop、Spark、Flink、Presto、调度系统、元数据管理系统等,理解其内部原理和适用场景,了解核心源码及调优方法。 - 有大数据中台建设经验、数据治理经验者优先。 - 熟悉Yarn、Kubernetes等调度和资源管理系统,参与过大型集群的搭建或维护优先; - 熟悉Azure 云服务的优先 -Bachelor degree or above in computer related major. At least 4 years working experience in big data. -Be proficient in one or more big data related component technologies, including but not limited to Hadoop, spark, elk, presto, scheduling system, metadata management system, etc., understand their internal principles and application scenarios, and understand the core source code and tuning methods. -Proficient in Java, solid foundation, practical application experience in multithreading, network and IO, understanding Java Memory Model and garbage collection mechanism, and rich experience in JAVA memory monitoring, tuning and online debugging. -Hands on Experience on Springboot -Familiar with spark kernel, optimized spark kernel components, or participated in the development of quasi real-time data processing system; -Experience in big data platform construction is preferred. -Familiar with scheduling and resource management systems such as yarn and K8S, and having participated in the construction or maintenance of large clusters is preferred; -Familiar with Azure Data Cloud is preferred
  • 30k-50k·15薪 经验5-10年 / 本科
    游戏,社交平台 / B轮 / 500-2000人
    1. 参与建设并推动公司数据中台建设,输出整体数据架构设计并执行落地; 2. 作为架构师支撑各业务线大数据问题,疑难问题解决定位分析; 3. 对于大数据领域各类技术具备技术广度,同时在部分组件上有深入研究; 4. 能培养初中级工程师,具备将技术布道给业务线的能力。 职位要求 1. 计算机或相关专业本科以上学历,3年以上Java/Scala语言为主的大中型软件开发经验,有视频直播方向经验更佳; 2. 具备大数据平台建设以及数据仓库体系建设经验,拥有从0到1建设的能力,具备数据中台经验更佳; 3. 精通或者熟悉大数据相关技术栈,Hadoop/Spark/Flink/Kafka/Airflow/ES/MongoDB,对一种或多种有深入的理解; 4. 熟悉数据仓库建模、ETL 设计开发,有数据质量与数据治理相关经验; 5. 熟悉Java服务端技术栈,比如:SpringBoot、SpringCloud,掌握主流技术方案; 6. 熟悉Linux以及常见容器化技术,具备系统级问题定位分析; 7. 能熟练掌握常用的软件设计工具,有较强的抽象能力与思考高度,能从整体思考端到端的解决方案; 8. 喜欢折腾并深入解剖每个技术问题背后的技术原理,愿意长期自主的对某一技术领域进行深入思考与实践。
  • 13k-16k 经验3-5年 / 本科
    移动互联网,金融 / 不需要融资 / 500-2000人
    岗位要求: 1、理解Spark 运行原理熟练掌握 hive on spark调优 优化措施 2、熟练掌握doris starrocks 调优优化措施 3、三年以上TB级数据量处理经验。 4、学信网本科学历,计算机专业优先,大厂工作经验优先 岗位描述 1、负责优化Hivesql,并持续输出具体的优化措施给开发人员 2、负责管理维护、升级、扩容olap数据库。 3、负责完成其他安排的相关工作。 【职位问答】 · 您希望应聘者有以下哪些优势经验? 大数据运维经验
  • 30k-50k 经验不限 / 本科
    区块链 / 上市公司 / 2000人以上
    大数据开发工程师(浏览器  岗位职责:  1、制定数据仓库设计与开发规范,推动落地;  2、设计并实现链上全域业务(地址信息,defi业务信息,标签)的数据仓库模型;  3、重点建设链上标签体系和特征工程;  4、数据治理相关的规划和建设,提高数仓数据质量;  5、与合作部门共同建设实时数仓和落地应用;  6、日常告警监控运维。  任职要求:  1、大学本科及以上学历,计算机、软件、信息等相关专业;  2、相对丰富的数据开发或数据仓库经验;  3、精通Hive Sql;  4、熟悉数据仓库建模、ETL过程、ETL和BI工具、技术和开发流程,一定的调优经验;  5、熟悉常用的shell命令,掌握java语言,能够开发udf/udtf等简单程序者优先;  6、熟悉阿里云大数据产品MaxCompute、DataWorks、Flink等经验优先;  7、熟悉AWS大数据产品经验优先;  8,了解机器学习(决策树、随机森林、聚类、逻辑回归)者优先
  • 18k-30k 经验5-10年 / 本科
    旅游 / C轮 / 150-500人
    工作职责:  参与BI数据项目的交付 (需求分析/维度建模设计/模型开发/测试);  参与数据平台(数据湖/数据仓库) 建设工作;  数据平台相关新技术研究探索并落地。 任职资格:  至少5年以上开发经验 (如Java,Python,以Java为主),2年以上数据工程相关经验,熟悉维度建模基本理论知识;  扎实的计算机基础知识,熟练掌握Java, 熟练掌握SQL;  熟悉大数据相关技术,包括但不限于Hadoop/Hive/Presto/Spark/Flink/Kafka/Kafka Stream/Airflow;  熟练掌握常用的开发运维工具,比如git/maven/linux常用命令等; 加分项:  1、丰富的维度建模设计及开发经验;  2、有过云数仓使用相关经验 (AWS Redshift /Google BigQuery/ Databricks/ Snowflake等 );  3、熟悉Kubernetes;  4、熟悉dbt, headless BI, cubejs;  5、熟悉golang,有相关开发经验。
  • 20k-35k 经验5-10年 / 本科
    旅游 / C轮 / 150-500人
    工作职责:  参与BI数据项目的交付 (需求分析/维度建模设计/模型开发/测试);  参与数据平台(数据湖/数据仓库) 建设工作;  数据平台相关新技术研究探索并落地。 任职资格:  至少5年以上开发经验 (如Java,Python,以Java为主),2年以上数据工程相关经验,熟悉维度建模基本理论知识;  扎实的计算机基础知识,熟练掌握Java, 熟练掌握SQL;  熟悉大数据相关技术,包括但不限于Hadoop/Hive/Presto/Spark/Flink/Kafka/Kafka Stream/Airflow;  熟练掌握常用的开发运维工具,比如git/maven/linux常用命令等; 加分项:  1、丰富的维度建模设计及开发经验;  2、有过云数仓使用相关经验 (AWS Redshift /Google BigQuery/ Databricks/ Snowflake等 );  3、熟悉Kubernetes;  4、熟悉dbt, headless BI, cubejs;  5、熟悉golang,有相关开发经验。
  • 20k-28k 经验5-10年 / 本科
    移动互联网 / 不需要融资 / 500-2000人
    岗位职责: 1、负责集团海外大数据集群的运维,管理和优化,保障平台服务7*24稳定可靠高效运行; 2、深入理海外大数据平台架构,发现并解决性能瓶颈,支撑业务和数据量的快速增长; 3、不断优化大数据自动化运维、监控报警、故障处理相关脚本和工具,提升整体能效; 4、协助业务方,完成必要的合规检查支持,数据收集上报等 任职要求: 1、3年以上大数据平台运维相关工作经验,对离线数仓及实时数仓有丰富的运维经验。 2、 熟悉阿里云基础组件,熟练掌握大数据相关的dataworks、maxcompute、hologres等组件运维,有ACP认证优先 3、熟悉hadoop生态系统组件原理 4、熟悉Linux系统管理和优化,熟悉常用软件的部署,监控和网络控制,熟悉一门以上脚本语言(shell/python等) 5、有大数据开发经验优先,独立运维过大数据平台优先,了解数据治理优先 6、具备良好的服务意识,善于主动思考,自我驱动力强。有良好的沟通、协调能力,富有团队精神,有较强的文档编写能力
  • 20k-30k 经验3-5年 / 本科
    移动互联网 / 不需要融资 / 500-2000人
    岗位职责: 1、负责集团海外大数据集群的运维,管理和优化,保障平台服务7*24稳定可靠高效运行; 2、深入理海外大数据平台架构,发现并解决性能瓶颈,支撑业务和数据量的快速增长; 3、不断优化大数据自动化运维、监控报警、故障处理相关脚本和工具,提升整体能效; 4、协助业务方,完成必要的合规检查支持,数据收集上报等 任职要求: 1、3年以上大数据平台运维相关工作经验,对离线数仓及实时数仓有丰富的运维经验。 2、 熟悉阿里云基础组件,熟练掌握大数据相关的dataworks、maxcompute、hologres等组件运维,有ACP认证优先 3、熟悉hadoop生态系统组件原理 4、熟悉Linux系统管理和优化,熟悉常用软件的部署,监控和网络控制,熟悉一门以上脚本语言(shell/python等) 5、有大数据开发经验优先,独立运维过大数据平台优先,了解数据治理优先 6、具备良好的服务意识,善于主动思考,自我驱动力强。有良好的沟通、协调能力,富有团队精神,有较强的文档编写能力
  • 14k-18k·13薪 经验3-5年 / 本科
    企业服务,金融 / 不需要融资 / 2000人以上
    1.本科以上学历,计算机相关专业,2年以上数据开发工作经验,有比较扎实的计算机理论基础;  2.逻辑思维清晰,对数据敏感,具备数据分析基础能力;  3.熟悉Hadoop、spark、hive、flink等分布式计算组件,具备调优能力,能解决常见的数据倾斜问题;  5.熟练使用Sql,熟悉MPP数据库SQL调优,如:GaussDb、TD、PostgreSQL  6.至少熟练使用java、scala编程语言中的1种;  7.有在大数据平台上处理大规模数据经验者优先;  8.有较强的求知欲、沟通能力和自我驱动力,有良好的团队合作意识。
  • 15k-25k 经验5-10年 / 本科
    IT技术服务|咨询,软件服务|咨询 / B轮 / 2000人以上
    PySpark /Apache Spark, Hive,大数据,Hadoop, Python,版本控制工具如GitHub 最好拥有:GCP知识,Shell脚本,CI/CD工具(Jenkins, Nexus等),调度工具(Control-M或风流),SQL 3年以上大数据技术工作经验。至少2年PySpark/Spark和Hive工作经验。 关键技能: -深入了解Hadoop生态系统中的大数据系统。对核心概念和最佳实践有良好的理解。 -在Scala/Python中构建/调优Spark管道的实际经验。 -具有编写复杂Hive查询以获得关键业务洞察力的经验。 -良好的Python、Scala、Pyspark或SQL编程经验。 -对数据湖和数据仓库概念的理解。 -具有开发和部署大规模分布式应用程序的经验。 -有处理复杂数据模型、大型数据集、广泛报告和数据分析经验者优先。 -在高要求的生产环境中独立完成从小到大的项目。 -从文档到生产的项目端到端交付,并在流程中运行。 -设计、构建和维护高效、可重用和可靠的代码。 积极参与高水平的工程团队活动,如建议架构改进,过程改进和进行工具评估。
  • 10k-15k 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1、负责大数据平台 规划、部署、监控、系统优化等,确保高可用; 2、负责银行大数据平台的运维管理工作,集群容量规划、扩容及性能优化; 3、处理银行大数据平台各类异常和故障,确保系统平台的稳定运行; 4、设计实现大规模分布式集群的运维、监控和管理平台; 5、研究大数据业务相关运维技术,持续优化集群服务架构,探索新的大数据运维技及发展方向; 任职要求 1、掌握Linux操作系统的配置,管理及优化,能够独立排查及解决操作系统层问题,有debian经验者优先; 2、熟练掌握Python, C++中的至少一门语言,熟悉 Hadoop生态及生态圈组件; 3、熟悉大数据相关训练框架、消息队列、KV存储系统,了解大数据任务调度机制,有字节primus、BMQ、abase、tbase经验者优先; 4、熟悉埋点数据流,埋点数据标准化、数据清洗等流程,有字节databus、dorada经验者优先; 5、熟悉Prometheus/grafana等监控工具,有自动化运维实际使用经验; 6、本科及以上学历,3年以上工作经验,大数据运维工作经验不少1年。