• 电商平台 / C轮 / 2000人以上
    岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
  • 16k-28k 经验3-5年 / 本科
    人工智能服务,科技金融 / 不需要融资 / 500-2000人
    岗位职责: (1)参与兴业银行大数据平台湖仓一体、存算分离、流批一体等前沿技术的基础架构体系规划与研究,并推动落地实施; (2)负责兴业银行大数据平台运维保障,存储、计算等各类组件性能调优,以提升平台稳定性; (3)协助兴业银行大数据平台信创迁移与相关系统改造、适配等工作; (4)联系上下游业务需求方与应用开发团队,对接协调大数据平台使用、建设、推广相关工作。 岗位要求: (1)熟悉大数据生态体系中分布式存储、缓存、高并发等底层技术协议与原理; (2)具有海量数据计算组件(Hive、Spark),OLAP查询引擎(Clickhouse、Presto、Doris等)故障排查与优化经验,有源码阅读与调试经验优先; (3)熟练掌握Flink等主流大数据组件原理及应用,具有Hudi或Iceberg等流批一体相关组件应用经验; (4)熟悉Docker、K8s等容器化、大数据组件云原生相关技术。 工作地点:上海
  • 25k-45k 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责飞书解决方案中心业务架构设计及产品规划; 2、为不同形态的SaaS应用、模版提供完整发现、安装、分享、支付等完善的基建能力支持,满足用户多样化的业务系统的使用与集成的诉求; 3、快速落地上线,完成产品目标,跟踪产品的设计、开发、发布及运营等环节; 4、对产品运营情况跟踪,以市场为导向,推动产品商业化,对产品落地结果负责; 5、依据公司战略,研究行业动态、分析市场未来发展趋势,完成PaaS业务规划策略,制定一或多个领域的业务目标和行动路径。 职位要求: 1、本科及以上学历,具有一定的技术理解力; 2、具备较强的平台框架感以及产品结构化的设计能力; 3、学习能力强,具备良好的跨团队沟通和协作能力和主人翁意识; 4、熟悉ToB SaaS和PaaS平台等相关领域知识,对SaaS行业、商业化模式有一定的了解。
  • 20k-35k 经验5-10年 / 本科
    汽车丨出行 / 上市公司 / 2000人以上
    职位描述 1. 负责大数据平台的运维,包括部署、管理、优化等,保障平台稳定运行; 2. 负责大数据集群的架构升级、容量规划、资源管理、成本优化、业务管控; 3. 理解大数据平台架构和业务流程,发现并解决系统问题或瓶颈; 4. 开发自动化运维、监控报警、故障处理脚本和工具,优化整个运维的流程; 岗位要求: 1. 本科及以上学历,5年以上规模集群管理和运维经验; 2. 熟悉Linux操作系统,熟悉TCP/IP基本原理,有系统调优经验; 3. 掌握Shell、Python等至少一门常见脚本语言; 4. 熟悉常用的监控工具,熟悉自动化运维工具(如Saltstack/Ansible/Puppet等),有二次开发能力者优先; 5. 熟悉hadoop/hbase/elasticseach等大数据组件的架构及基本原理; 6. 对运维体系有一定认识,善于思考总结,做事积极主动,责任心强、细心谨慎,能独立解决问题。
  • 35k-70k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、 负责相关业务大数据项目整体架构规划; 2、 负责指导工程师进行技术验证与实现,关键技术问题的攻关,解决项目开发过程中的技术难题; 3、 负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、 根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、 熟练使用Hadoop、Hive、spark,flink等大数据框架,熟悉SQL、Java、Python等编程语言; 2、 有PB级大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、 6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。
  • 35k-60k·14薪 经验5-10年 / 本科
    移动互联网,企业服务 / 不需要融资 / 500-2000人
    岗位职责: 1.负责客户需求的沟通与分析工作,为客户提供大数据的架构和技术解决方案; 2.负表业务场景分析,问题定位和数据挖掘等工作,为提供客户提供大数据的解决方案; 3.负责大数据平台,数据仓库,大数据中台、存储计算引擎等相关产品设计和规划落地。 岗位要求: 1、**本科以上学历,8年以上工作经验,主导过大数据平台产品的设计与开发工作,至少同类2年以上经验; 2、熟练掌握YARN、Hive、HBase、Kafka、Flink 、Spark、lceberg等大数据引擎和平台的常用使用方法(至少精通三个以上的大数据常用工具和框架) 3、对数据仓库,存储计算引擎有深入的理解,孰悉不同存储类型,计算引擎特征,以及所能解决的适应场景; 4、深度参与或主导过大数据平台、数据治理、数据中台等产品建设者优先; 5、具备较强的需求分析和技术规划能力,高度的抽案设计能力,思路清晰,善于思考,能独立分析和解央问题,具备良好的团队合作精神; 6、对新技术敏感,具备一定的技术预见和前瞻性,对不同的产品有自己的见解。
  • 15k-30k·14薪 经验3-5年 / 本科
    新零售 / 不需要融资 / 500-2000人
    1、负责大数据平台方向规划和系统设计,参与核心代码编写,进行业务场景和平台实现; 2、构建高效,实时,稳定的流式计算引擎,支撑公司内数产品线的实时数据分析业务; 3、搭建大数据平台实时数仓,基于模型运用大数据技术,进行数据清洗、计算,提供稳定可靠的数据。 1、计算机或信息技术相关专业,本科以上学历,有5年以上的大数据领域工作经验,对大数据体系有深入的理解; 2、熟练使用python进行复杂业务逻辑的数据处理工作,具备海量数据处理以及性能优化的能力; 3、具有扎实的大数据系统构建经验,对Hadoop、Spark、Flink、HDFS、Hbase、Kafka等分布式框架和中间件有深刻理解,有大数据中间件开发经验者优先; 4、丰富的数据仓库及数据平台的架构经验,熟悉ETL设计开发,对大数据一站式处理有一定产品化经验者优先。
  • 30k-40k·13薪 经验10年以上 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    工作职责: 1、负责大数据解决方案规划,与产品体系、目标客户深入沟通引导,推动方案落地实施; 2、负责数据治理解决方案制定和推动实施,包括:数据标准化制定和落标、数据质量管理、生命周期管理等; 3、负责核心客户项目的规划方案和需求支持,取得阶段性成果,并对项目成果进行包装和分享; 4、深入研究竞品和客户诉求,给予产品迭代和项目规划建议,注重市场驱动、数据驱动; 5、与公司产品部门、交付部门等多部门紧密协作,协同客户推动企业数据向资产化、资本化发展。 任职条件: 1、5年以上大数据工作经验,有较好的技术功底,本科及以上学历,计算机、电子、通信类相关专业毕业; 2、具备丰富的大数据解决方案包装和宣传推广经验,获得核心客户、协同部门认可,体现价值; 3、具备较强的执行力及抗压性,具备良好的团队沟通能力、团队合作精神及项目管理能力,适应一定频率的短差; 4、具备较强的问题分析能力、判断能力及独立思考能力,对新技术、新产品、新需求感觉敏锐,关注数据产品发展趋势; 5、有以下工作经验优先:运营商大数据项目经验、数据治理项目经验、大数据基础组件实际使用经验。
  • 20k-28k·15薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 500-2000人
    【职位描述】 1、负责集团多条核心产品线的信息安全数据仓库建设,包括**、安居客等; 2、基于当前大数据平台技术,设计和实现数据主题模型、多维分析报表,涵盖用户行为、反欺诈、反作弊、风控审核、用户服务等; 3、积极参与数据治理工作,提升数据易用性及数据质量; 4、构建以数据为驱动的智能应用产品,针对各业务场景探索提供大数据解决方案,例如业务风险感知、特征工程、数据可视化、数据分析平台等; 5、负责各个运营环节必要的数据调度任务开发,包括实时和离线数据处理。 【职位要求】 1、本科以上学历,至少三年相关工作经验; 2、对大数据、分布式计算有较好的理解,了解 Hadoop、HDFS 的原理和运作方式; 3、熟悉掌握 Spark、Flink、Mapreduce、Hive、Hbase、ClickHouse、Kafka 等大数据技术,并有相关的使用和开发经验,熟悉源码者优先; 4、具备较强的编码能力,熟练运用 Java、Python、Scala、Linux Shell、Awk 中的一项或多项; 5、具备一定的后台服务开发能力,对系统架构设计、性能调优、高并发、高吞吐有经验者优先; 6、精通数据仓库实施方法论,深入了解数据仓库体系,理解并合理抽象业务需求,支撑过实际的业务场景; 7、具备优秀的技术与业务结合能力,善于沟通; 8、具有 PB 级数据处理经验者优先。 【信息安全部安全智能团队介绍】 我们是一个通过数据及算法能力为用户提供安全产品体验的团队,服务于整个58系公司。面临不同的业务安全场景,数据集成、存储、检索、数据流组织每个环节的数据都是海量且复杂的。实时特征计算平台、机器学习平台、数据可视化分析平台都是具有挑战性的项目。我们的目标是构建一个低成本的智能风控体系。
  • 15k-30k 经验1-3年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据组件开发。 2. 基于Python 体系下的数据质量引擎开发; 3. 基于Java及Linkis开源框架的质量引擎开发; 4. 大数据资产应用的开发、部署、调优; 5. 数据稽核引擎开发,数据共享交换能力对接。 任职要求: 1. 本科及以上学历,计算机相关专业; 2. 3年以上互联网或软件行业工作经验,熟悉Linux环境;熟悉Linux和Python开发; 3. 熟悉Spring,Spring boot,Spring Cloud等框架、熟悉Eclipse或IntelliJ IDEA开发工具等使用 以下满足其一即可: 4. 熟悉Hadoop,MapReduce,Hbase,Flink等大数据部署、运维、开发; 5. 熟悉数据治理理论概念、架构,有元数据、数据质量、数据标准、主数据等相关数据治理经验; 6. 有分布式相关项目(分布式存储/分布式计算/高性能并行计算/分布式cache)经验; 7. 对数据库的架构、扩展特点非常熟悉,能熟练进行SQL优化、集群部署、数据同步等。
  • 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
  • 25k-35k·14薪 经验5-10年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
  • 15k-25k 经验3-5年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    岗位职责: 1、负责大数据设备部署、hadoop、MPPDB等常见商用平台的搭建、应用以及运维; 2、负责海量数据下精准营销平台流计算、实时计算的设计开发; 3、负责海量数据下可视化模块开发,依据业务需求和方案开发可视化品; 4、负责海量用户行为分析和预测,以及专家模型、分布式算法模型在精准营销方面的实现和应用等。 任职条件: 1、大学本科及以上学历,计算机、金融科技、应用数学、人工智能等相关专业,具有3年以上大数据相关工作经验; 2、精通至少一种编程语言,Java、Scala、Python; 3、熟悉hadoop、mppdb、hive、hbase、zookeeper、hue等中的多个,或者有相关工作经验优先; 4、熟悉spark streaming、storm、flink、redis、es中的多个,或者有相关工作经验优先; 5、熟悉spark mllib/GraphX、图计算、mahout中的多个,或者有相关工作经验优先; 6、具备数据挖掘、数据分析、机器学习知识背景,拥有反欺诈系统、推荐系统、精准营销、信息检索等方面的工作经验优先。