• 金融 / 未融资 / 2000人以上
    职责描述: 1、负责大数据运维体系搭建及大数据平台各个组件的运维; 2、负责大数据平台及相关组件的部署和维护,保证其稳定运行; 3、负责完善大数据平台运维监控工作。 任职要求: 1、本科或本科以上学历,计算机相关专业,3年以上大数据系统运维经验; 2、熟悉Windows/Linux操作系统; 3、熟悉Hadoop、Hive、Hbase、Yarn、Spark等组件的原理及运维方式; 4、熟悉中间件工作原理,对Tomcat/Redis/Nginx/Kafka有一定了解,具备一定的操作能力; 5、至少熟悉Java/PHP/Python/Bash/Shell一种或多种语言,可独立编写维护及监控; 6、工作细致、善于思考,有很强的问题分析和推进解决的能力; 7、有强烈的责任心、良好的沟通协调能力、极强的业务推动能力,勇于接受挑战; 8、良好的英文听说读写交流能力,能使用英语作为工作语言。
  • 16k-28k 经验3-5年 / 本科
    人工智能服务,科技金融 / 不需要融资 / 500-2000人
    岗位职责: (1)参与兴业银行大数据平台湖仓一体、存算分离、流批一体等前沿技术的基础架构体系规划与研究,并推动落地实施; (2)负责兴业银行大数据平台运维保障,存储、计算等各类组件性能调优,以提升平台稳定性; (3)协助兴业银行大数据平台信创迁移与相关系统改造、适配等工作; (4)联系上下游业务需求方与应用开发团队,对接协调大数据平台使用、建设、推广相关工作。 岗位要求: (1)熟悉大数据生态体系中分布式存储、缓存、高并发等底层技术协议与原理; (2)具有海量数据计算组件(Hive、Spark),OLAP查询引擎(Clickhouse、Presto、Doris等)故障排查与优化经验,有源码阅读与调试经验优先; (3)熟练掌握Flink等主流大数据组件原理及应用,具有Hudi或Iceberg等流批一体相关组件应用经验; (4)熟悉Docker、K8s等容器化、大数据组件云原生相关技术。 工作地点:上海
  • 13k-18k 经验3-5年 / 大专
    数据服务,硬件 / C轮 / 150-500人
    工作职责: 1、根据项目需求制定测试计划,设计测试数据、测试用例、搭建测试环境; 2、根据测试流程独立完成对电力产品系统测试,对产品的软件功能、性能及其它方面的测试,输出测试报告、版本发布; 3、配合开发进行模块级、系统级测试,复现现场问题,并协助开发解决、验证问题。 任职资格: 1、具有3-5年以上年软件及后台linux测试经验,有大数据平台测试经验,具备独立测试能力; 2、熟练使用常用的测试工具,能够独立搭建软硬件测试平台,并评价产品、写出产品的测试报告; 3、熟练掌握linux常用命令、通用的测试方法、WEB前后端交互原理、常用数据库,了解git、jenkins、jira等基本使用方法; 4、了解spark、oss、hive等相关大数据技术及使用方法,有云平台测试经验优先; 5、有国网项目测试经验,了解电力相关知识优先; 6、耐心细致,具备较强的问题分析能力及学习能力,有良好的沟通能力、团队合作精神、积极的工作态度和较强的责任心。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1.大数据基础平台、应用平台功能设计和开发。 2.负责大数据平台及组件的调研选型,部署,日常监控及问题解决。 3.参与海量数据处理方案设计,提供业务系统技术支撑。 任职标准: 1.本科以上,计算机相关专业。 2.至少精通java/scala其中一种开发语言,熟悉主流后端开发框架。 3.精通大数据平台常用框架(hadoop/hive/spark/hbase/flink/presto/clickhouse/kafka)和组件的原理及常用应用场景,至少有3年以上大型生产系统上管理经验。 4.熟悉linux系统,熟悉常用的操作系统命令和shell脚本编写。 5.责任心强,有较强的沟通能力和团队合作精神。 6.了解docker、k8s相关技术,有大数据组件容器化经验优先。
  • 15k-25k 经验5-10年 / 本科
    金融 / 不需要融资 / 2000人以上
    职位描述工作内容:1、负责公司级的通用数据平台,服务全公司的产品线2、负责YARN、Hive、Spark、Flink平台维护及二次开发3、负责公司自研调度系统维护以及接口开发4、负责公司大数据集群、执行引擎、平台的优化和运维工作职位要求:1、熟悉一种以上开源大数据工具框架, 包括担不限于YARN、Mapreduce、Hive、Spark、Flink、Presto等;2、强悍的编码能力,生产环境快速定位问题能力,对新技术有强烈的学习热情;3、三年以上java、大数据维护开发经验,有spark streaming,flink实时任务开发经验者优先考虑。4、做事严谨踏实,责任心强,条理清楚,善于学习总结,有良好的团队合作精神和沟通协调能力。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1.大数据基础平台、应用平台功能设计和开发。 2.负责大数据平台及组件的调研选型,部署,日常监控及问题解决。 3.参与海量数据处理方案设计,提供业务系统技术支撑。 任职标准: 1.本科以上,计算机相关专业。 2.至少精通java/scala其中一种开发语言,熟悉主流后端开发框架。 3.精通大数据平台常用框架(hadoop/hive/spark/hbase/flink/presto/clickhouse/kafka)和组件的原理及常用应用场景,至少有3年以上大型生产系统上管理经验。 4.熟悉linux系统,熟悉常用的操作系统命令和shell脚本编写。 5.责任心强,有较强的沟通能力和团队合作精神。 6.了解docker、k8s相关技术,有大数据组件容器化经验优先。
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 18k-30k·16薪 经验1-3年 / 硕士
    其他,人工智能 / 不需要融资 / 150-500人
    岗位职责: 1. 负责大数据实时、离线、异构数据的同步和传输生态的研发,提供灵活高效的接入能力; 2. 负责大数据接入组件的性能、效率、稳定性分析与优化。 任职要求: 1. 熟悉Flume/DataX/Logkit/Kafka等大数据接入技术和相关组件,有1年以上大数据接入研发经验; 2. 具备扎实的计算机基础,熟悉分布式系统研发,有云原生技术经验优先; 3. 精通Java/Scala研发语言,具有良好的编程研发能力; 4. 能够深刻理解业务,善于利用技术实现相关业务价值;
  • 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 15k-25k 经验1-3年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1. 负责或参与大数据平台的架构设计以及基础组件的调优、改造、升级; 2. 结合客户需求,负责和参与大数据产品的设计与研发; 3. 负责数据平台新技术的研究及应用落地。 任职要求 1. 计算机或相关专业,3年以上大数据相关开发经验; 2. 熟悉linux/UNIX shell、熟悉(python/shell)任意一种脚本语言、熟悉Java/Scala/C++任意一种开发语言; 3. 熟悉大数据基础平台技术的原理和内部机制,包括但不限于Hadoop、ClickHouse、Hbase、Doris等; 4. 有大规模集群调优及容器化经验优先。 5.对新技术充满热情,具有良好的学习能力、团队协作能力和沟通能力; 6.逻辑思维能力及快速持续的学习能力。
  • 25k-40k·14薪 经验3-5年 / 本科
    区块链 / 上市公司 / 150-500人
    岗位职责: 1、负责大数据相关组件的架构规划、设计、运维、治理,保障平台服务的稳定性及可用性; 2、负责制定和完善大数据全链路风险评估、变更流程、运维规范、应急预案相关SRE体系建设; 3、深入参与大数据基础设施建设及性能优化,问题定位处理,; 4、负责大数据组件性能POC工作,协助解决组件技术问题。 岗位要求: 1、本科以上学历,计算机类、数学类、数据类相关专业,并有三年以上大数据领域工作经验; 2、熟悉java, go, python等至少一种开发语言; 3、深入理解hadoop大数据生态组件(Hadoop、Hive、Spark、Flink),从事过相关组件的架构设计、研发运维、性能调优或迁移工作; 4、有过组件二次开发经验或者AWS云数据仓库使用经验,加分项; 5、了解SRE方法和原则的实际经验,能够设计和执行故障演练和混沌工程,加分项; 6、具备系统化解决问题的能力,有良好的沟通能力,积极主动、自驱力强,有责任心,并且有一定抗压能力;
  • 8k-9k 经验不限 / 本科
    电商 / 未融资 / 15-50人
    薪资详情 薪资:5000-13000元/月提成方式: 薪资周结 职位详情 公司提供新能源车辆,保险、保养、正常维修、年审费用全部由公司承担 [福利待遇] 1:平台系统自动派单 2:月平均收入8000-13000,多劳多得。 3:时间更自由加入,车辆自己保管 4:免费培训,包教包会,轻松加入 [岗位要求] 1.C1驾照,三年驾龄以上 2.无违法犯罪记录,酒驾行为 3.三年内驾驶证没有扣满12分
  • 8k-10k 经验不限 / 不限
    电商 / 未融资 / 15-50人
    1、驾龄3年及以上,C1以上机动车驾照。 2、年龄:21-55周岁。 3、驾驶习惯良好,有责任心,认真负责。 4、3年内无重大交通事故、3个记分周期内无记满12分记录。 由公司提供合规车型,所有司机入职统一培训。有意者可直接拨打电话咨询或来公司详细了解。
  • 房产家居 / 未融资 / 150-500人
    越来越多的人来到成都这座大都市,如果买不起房或者是不买房怎么办?那就需要租房,这就是我们庞大的客户群体,作为一个刚需行业,我们的优势是什么?那就是公司1W+的房源提供给你,端口提供给你,尽职尽责的带教主管提供给你,如果你还开不了单——那是不可能的! 我们来提供平台,你来月薪过万!!!你不抓住机会,机会就是别人的! 【我们的工作是什么】 1、通过公司的线上渠道(58端口免费提供,入职即免费开通)发布房源,客户主动联系你; 2、了解客户的需求,匹配合适的房源; 3、根据客户意向,提供租房建议并进行带看,促成签单。 【我们的薪资福利】 1、出房专员:底薪3000+一单提成600-900+日销量奖金3000+3倍差价奖 均薪在1W+ 工作时间:早9:30-晚19:00,休四天 2、免费端口+开单现金奖励+礼品奖励+每月聚餐+月度拓展活动+年度旅游+过节福利; 【我们公司的优势】 所有房屋押一付一!押一付三! 免中介费!!转化率高!!租金几百到几千不等; 房源多,地段好,公司拥有一万多间房源(住宅公寓样样齐全,租户想要的我们都有),集中位于城东、城北、城南等热门地段,房源紧俏不愁租 【上班地址】 新希望大厦1408/1505/1508/1608 地铁1号线桐梓林站D口出