• 25k-35k 经验5-10年 / 本科
    居住服务 / C轮 / 2000人以上
    工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
  • 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 15k-22k 经验不限 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
  • 25k-40k·14薪 经验3-5年 / 本科
    区块链 / 上市公司 / 150-500人
    岗位职责: 1、负责大数据相关组件的架构规划、设计、运维、治理,保障平台服务的稳定性及可用性; 2、负责制定和完善大数据全链路风险评估、变更流程、运维规范、应急预案相关SRE体系建设; 3、深入参与大数据基础设施建设及性能优化,问题定位处理,; 4、负责大数据组件性能POC工作,协助解决组件技术问题。 岗位要求: 1、本科以上学历,计算机类、数学类、数据类相关专业,并有三年以上大数据领域工作经验; 2、熟悉java, go, python等至少一种开发语言; 3、深入理解hadoop大数据生态组件(Hadoop、Hive、Spark、Flink),从事过相关组件的架构设计、研发运维、性能调优或迁移工作; 4、有过组件二次开发经验或者AWS云数据仓库使用经验,加分项; 5、了解SRE方法和原则的实际经验,能够设计和执行故障演练和混沌工程,加分项; 6、具备系统化解决问题的能力,有良好的沟通能力,积极主动、自驱力强,有责任心,并且有一定抗压能力;
  • 25k-50k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责风控数据链路开发工作,参与业务数据仓库架构设计、建模和ETL开发; 2、参与数据治理工作,提升数据易用性及数据质量,与算法团队紧密合作; 3、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、3年以上大数据研发经历,计算机相关专业本科及以上学历; 2、丰富的大数据生态系统开发经验,熟悉Spark、Flink、Clickhouse、Hadoop等技术; 3、精通Go/C++/Java/Python等至少一门编程语言,熟练运用各种常用算法和数据结构,有独立实现能力; 4、具备优秀的逻辑思维能力,对解决挑战性问题充满热情,善于解决问题和分析问题; 5、具备一定数据分析能力,具有数据仓库落地经验、数据治理经验者优先; 6、熟悉流式计算,有大流量系统开发经验者优先。
  • 20k-40k·13薪 经验5-10年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    工作职责: 1)负责大数据解决方案规划,与产品体系、目标客户深入沟通引导,推动方案落地实施; 2)负责数据治理解决方案制定和推动实施,包括:数据标准化制定和落标、数据质量管理、生命周期管理等; 3)负责核心客户项目的规划方案和需求支持,取得阶段性成果,并对项目成果进行包装和分享; 4)深入研究竞品和客户诉求,给予产品迭代和项目规划建议,注重市场驱动、数据驱动; 5)与公司产品部门、交付部门等多部门紧密协作,协同客户推动企业数据向资产化、资本化发展。 任职条件: 1)5年以上大数据工作经验,有较好的技术功底,本科及以上学历,计算机、电子、通信类相关专业毕业; 2)具备丰富的大数据解决方案包装和宣传推广经验,获得核心客户、协同部门认可,体现价值; 3)具备较强的执行力及抗压性,具备良好的团队沟通能力、团队合作精神及项目管理能力,适应一定频率的短差; 4)具备较强的问题分析能力、判断能力及独立思考能力,对新技术、新产品、新需求感觉敏锐,关注数据产品发展趋势; 5)有以下工作经验优先:运营商大数据项目经验、数据治理项目经验、大数据基础组件实际使用经验。
  • 40k-60k 经验10年以上 / 本科
    工具类产品 / 上市公司 / 2000人以上
    云计算高级专家岗位要求 1.本科及以上学历,计算机相关专业,年龄40周岁及以下,有自驱力,敢于突破。 2.具有云计算相关的高级认证资格(如AWS、阿里云、华为云、天翼云专业级认证等),熟练掌握多种云计算平台的架构和操作,熟悉云计算技术的最新发展趋势,具有丰富的架构设计和方案实施经验。 3.具有10年以上相关工作经验,熟悉云计算架构、服务器、存储、网络、安全、虚拟化、分布式等技术,熟练掌握多种编程语言,具有大规模虚拟化、容器化部署和大型项目实战经验。 4.具有较强的团队管理、业务理解和沟通能力,能够快速识别并解决系统故障和性能问题,提出创新的解决方案,能够与业务部门紧密合作,理解业务需求并提供解决方案,带领团队完成云计算相关项目和任务。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
  • 13k-18k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    【必备技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 【重要技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 4、3年左右开发经验。
  • 35k-70k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、 负责相关业务大数据项目整体架构规划; 2、 负责指导工程师进行技术验证与实现,关键技术问题的攻关,解决项目开发过程中的技术难题; 3、 负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、 根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、 熟练使用Hadoop、Hive、spark,flink等大数据框架,熟悉SQL、Java、Python等编程语言; 2、 有PB级大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、 6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。
  • 15k-25k·13薪 经验3-5年 / 本科
    硬件 / 未融资 / 150-500人
    职位描述: 我们正在寻找具备丰富经验的物联网平台开发工程师加入我们的团队,负责中国和欧洲新能源和物联网相关的系统开发与优化。此岗位将主要涉及能源物联网平台的构建、数据处理和协议优化,致力于推动能源系统的智能化和数字化进程。 岗位职责: 参与新能源物联网平台的设计与开发,确保系统的高效和稳定运行。 负责基于Spring Boot框架的后台服务开发与维护,优化物联网数据的实时处理与存储。 运用WebSocket协议进行设备数据的实时传输,确保高效的通信和数据交换。 在Linux服务器上部署和管理相关服务,保证系统的可用性和可扩展性。 整合并应用Kafka、HBase、Redis、MongoDB等技术,实现物联网大数据的存储与处理。 使用时序数据库(如InfluxDB、Apache Druid、TDengine等)对物联网数据进行管理和分析。 任职要求: 熟练掌握Java语言,精通Spring Boot框架。 深入理解网络协议,熟悉WebSocket。 有物联网相关项目经验,新能源项目经验者优先。 在Linux服务器上有丰富的服务部署经验。 有Kafka、HBase、Redis、MongoDB等相关产品的项目经验。 熟悉时序数据库(time series DBMS),如InfluxDB、Apache Druid、TDengine等。 具备Python以及C/C++开发能力者优先。 有区域能源系统相关项目经验,熟悉EEBUS协议者优先。 具备较强的英语文档阅读能力。 熟悉Linux内核,具有嵌入式Linux经验或项目经历者优先。 有Modbus协议相关项目经验者优先。 我们提供: 有竞争力的薪酬与福利 广阔的发展空间和良好的职业成长平台 良好的跨国团队协作氛围与学习机会 参与欧洲新能源物联网领域前沿技术的实践机会
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
  • 15k-25k·13薪 经验5-10年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    工作职责: 1 . 基于公司能力为客户提供数字化转型咨询,负责业务、应用、数据和技术架构规划,帮助客户高效运用公司的产品和服务提升业务; 2.总结和沉淀对客户的最佳实践,形成可复制的解决方案,赋能前线销售和交付团队,帮助提升公司的技术竞争力; 3. 与销售、研发交付等团队紧密协作,共同推进标准产品与解决方案的销售,包括需求分析、方案设计、对客交流、商务合同签约等; 4. 对已经转化为交付的项目进行技术管理,对交付人员进行技术指导,确保项目的满意交付; 5. 管理客户的期望和公司的商业目标,确保交付的方案的可交付性和经济性 任职资格: 1.3年以上运营商或者其它垂直行业的数字化转型的解决方案或架构设计从业经历; 2.对运营商行业和至少一个垂直行业的数字化方向的解决方案的行业知识、业务知识、业务架构、应用架构有整体深刻理解,能够在细分领域独立完成客户调研、需求分析、业务设计、架构设计、并能在技术团队支持下,完成业务架构的落地方案设计; 3.对数据中台技术、大数据技术、AI技术,以及数据治理的方案比较熟悉; 4.熟悉一个或多个垂直行业的现状(如电力、交通、政务等)重点包括基本面、政策、行业趋势和一些业务过程的细节,能够提供典型的业务场景,并能以令人信服的说明如何用数字化转型方法驱动所处行业业务的发展; 5. 有过一个或者多个成功案例,并在案例中作为方案专家利用数字化转型能力帮助客户获得了显著价值; 7. 具有娴熟的沟通技巧,执行力强,具有优秀的团队合作精神、敬业精神; 8. 熟悉数字化顶层设计方法论,有良好的文档撰写、讲解能力。