• 8k-14k 经验3-5年 / 本科
    软件服务|咨询 / 上市公司 / 2000人以上
    一、公司简介 彩讯股份(创业板股票代码:300634)是一家软件互联网上市公司,是协同办公、 智慧渠道、云和大数据领域的龙头企业。拥有五地研发中心和遍布全国的运营网络,员工超过 3000 人。 公司坚持“以大场景运营效果为导向,全面数字化、智能化”的发展战略,持续加大在人工智能等领域的投入,将成为中国领先的智能数字化企业。 二、项目介绍: 中国移动云盘是中国移动面向所有用户推出的一款安全、智能、不限速、移动用户免流量的产品。产品涵盖存储备份、多端同步、在线管理、群组分享四大核心能力。云盘是继语音、短信、流量之后的“新基础服务”。 三、岗位介绍: 【岗位职责】: 1、工作内容:故障处理、问题跟踪及时通报、系统巡检及系统优化、应用系统安全加固、及时发现/处理和彩云自研平台问题。 2、监控告警支撑:收集整理主机和业务监控项需求,接入统一监控平台实现自动监控告警;故障告警的跟进和处理 3、系统优化:对所维护服务进行脚本编写自动的巡检、自动化故障分析及服务恢复; 4、重大节假日、重要保障活动按要求值班。 5、其他支撑工作:根据项目安排做好其他运维支撑工作。 【岗位要求】: 1、学历要求:*****本科及以上学历(学信网可查),重本学历优先; 2、熟悉TCP/IP协议,熟悉Windows,熟练掌握liunx操作系统维护; 3、熟悉nginx/apache/tomcat/php/ Zookeeper等应用服务的配置和优化; 4、熟悉容器化技术,对Docker、Keepalive和Docker Swarm集群或者 K8S、openshift有一定了解及一定的使用经验; 5、熟练shell/python任一脚本编程进行日常维护, 能利用awk和sed工具对日志进行分析与统计; 6、了解nagios/zabbix等常规的监控软件使用和配置; 7、了解高负载、高可用的服务器架构,熟悉memcached/redis等缓存中间件; 8、熟悉使用SVN/Git/Puppet/Ansible等自动化运维工具; 9、具备独立解决问题以及团队配合能力,良好的方案文档撰写能力以及沟通能力。 10、工作中善于使用AI工具,高效完成工作; 11、有开源作品或者技术博客,关注技术社区/论坛,有活跃足迹者优先。 四、薪酬福利与职业发展: 我们提供竞争力的薪资待遇和福利待遇,包括期权激励、五险一金、带薪年假、节假日福利、健康体检、培训及晋升机会等。 同时,我们还为员工提供广阔的职业发展空间,鼓励员工在工作中不断成长和进步。 我们的团队充满活力、激情和创新精神,致力于打造一个开放包容、信任互助的工作环境,并定期举行各种团队建设活动,增强彼此之间的沟通和理解。 期待您的加入,一起探索未来无限可能!想更多了解彩讯股份,欢迎进入:https://www.richinfo.cn
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 飞书企业应用专注于泛财务领域。我们致力于建设基于大数据,搭建智能化、业财一体的财务中台,为互联网生态业务提供合规可控、效能卓越、业务洞察强的平台化能力,让经营者看清现状、预见未来。以技术中台的形式支撑财务税务,提供一站式产品能力,包括应收应付、发票、计税、付款,以及海量数据的清算、核算、报表、风控、分析。 欢迎对技术有孜孜追求的你,加入我们,一起探索和研究互联网时代的企业应用产品! 1、负责财务数据全链路质量保障和治理,包括但不限于数据同步、数据加工(离线+实时)、数据资产化(指标、标签等)、数据业务支撑(财报、管报、应用服务数据等); 2、负责数据类产品的质量保障方案设计及执行落地; 3、通过数据资产审计、制定准入准出机制、设计及执行数据校验核对、资产巡检、变更防控、仿真预演、监控应急等方式保障数据资产及数据产品的质量; 4、通过测试流程标准、方法和技术创新、自动化工具化等方式提升业务数据资产质量、数据产品质量、研测效率; 5、不断探究和建设一流的大数据领域技术风险保障体系和技术风险保障平台。 职位要求: 1、数据或数据产品相关的开发或测试4年以上经验,对数据仓库、数据挖掘、数据平台、数据引擎领域知识有较好储备; 2、熟练掌握一门或多门编程语言,如Java、SQL、Python、go等;有测试框架或质量平台开发经验、大型项目开发编码经验者优先; 3、熟悉数据仓库模型设计、ETL开发,维度建模设计方法,具备海量数据处理经验者优先;具备数据研发平台、数据服务等数据产品开发测试经验者优先;具备分布式数据存储与计算平台应用开发经验,熟悉Hadoop生态相关技术者优先; 4、具备大型项目的整体质量保障经验者优先;具备性能、异常、稳定性、用例自动生成等专业测试领域经验者优先; 5、具备较强的逻辑思维能力,谈判能力和冲突管理能力;良好的沟通能力和团队协作能力;快速适应变化、结果导向、追求上进。
  • 18k-30k 经验3-5年 / 本科
    人工智能服务,科技金融 / 不需要融资 / 500-2000人
    岗位职责: (1)负责兴业银行大数据应用服务的研发工作,进行数据服务方案设计、开发及上线后运营维护; (2)根据应用情况和研究情况进行提炼优化,形成稳定可复用的数据服务产品。 岗位要求: (1)精通Python/Scala/Java等至少一种编程语言,能够针对大数据环境进行高效编程; (2)熟练使用Hadoop生态体系中的核心组件,能够进行集群部署、配置和优化;掌握Mapreduce、Spark批处理框架;掌握Storm/Flink/Spark Streaming等至少一个流处理框架,能够实现实时或准实时数据流处理。 工作地点:上海
  • 18k-35k 经验3-5年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    岗位描述: 1、负责招商银行业务系统的运维保障工作; 2、负责业务系统的架构审核、业务监控、持续交付、应急响应、容量规划; 3、负责线上服务高效稳定运行,支撑业务和数据量的快速扩张; 4、深入理解业务系统的整体架构,发现并解决重大故障及性能瓶颈; 5、理解业务需求,协调研发团队与资源供给团队,推动业务系统的部署落地。 岗位要求: 1、2年以上相关运维经验,了解原生云技术原理,有实际部署维护经验优先。 2、熟悉金融行业主要业务和应用系统,对金融行业应用软件、系统软件管理有较深入理解,熟悉金融行业应用软件开发设计、测试和运维特点。 3、熟悉tomcat、MQ、nginx各类中间件等优先。 4、精通一门以上脚本语言(Shell/Python等),有自动化、智能化系统应用及研发架构的经验。 5、熟悉当前热门的容器生态核心开源项目,如Docker、Kubernetes等。 6、对自己的工作有要求,对自己成长有规划;有较好的学习能力、抗压能力和自我管理能力。有很好的技术敏感度和风险识别能力,有不断钻研和探索的精神,有解决疑难问题的毅力和决心。 7、良好的服务意识,善于团队协作,项目管理,主动思考,自我驱动力强。
  • 短视频 / 上市公司 / 2000人以上
    职位描述 1、负责快手亿级用户的大数据平台产品的落地,包括分析工具、元数据管理、实时数据加工等系列平台产品; 2、负责数据产品架构设计和后端开发,不断优化系统架构,支撑业务规模增长,保障服务稳定; 3、负责数产品的功能迭代和性能优化,提高效率,优化流程。 任职要求 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力; 2、具备扎实的计算机基础,对技术有热情,愿意不断尝试新技术和业务挑战; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、熟练使用clickhouse、flink、HBase等开源大数据组件,具备数据组件化开发的能力; 5、有足够的耐心梳理和解决复杂而又繁多的产品研发问题,善于沟通与团队协作。
  • 20k-30k 经验5-10年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 制定和优化运维解决方案,推动完善部署、监控的自动化; 2. 对业务架构中存在的性能问题,能够进行全方位的性能优化; 3. 对运维工作有热情,关注运维前沿技术; 4. 有敏感的安全意识,能及时发现和解决安全问题; 5. 完成日常工作过程中的其他工作。 任职要求: 1. 本科或以上学历,计算机相关专业者优先; 2. 能够使用shell,python完成日常运维工作,完善部署,监控流程; 3. 熟悉系统应用架构和基础架构的部署和设计,并能够提出优化建议; 4. 沟通能够强,有很强的风险识别能力和工作执行力; 5. 有良好的学习能力和工作责任心。
  • 15k-20k 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1、负责云门户的日常运维,确保系统的高可用性和可靠性。 2、识别和解决系统的故障及性能问题,进行问题定位和系统优化,确保系统的稳定性和高效性。 3、编写脚本自动化运维任务,提高工作效率和稳定性。 4、与开发团队合作,参与系统的架构设计和优化,提供运维方面的技术支持和建议。 任职要求 1、计算机相关专业,大学本科及以上学历,有运维开发或SRE经验优先。 2、责任心强,工作积极主动,有较好的沟通协调能力,有良好的心理素质; 3、具备较强的问题分析能力和解决能力。 4、熟悉以下技术中的两种或以上: 1)云、容器等相关技术 2)数据库PG/MySQL/Redis使用及性能优化技术 3)Linux的基本操作和维护,熟悉ansible 4)ES/Tomacat/Nginx/MQ等中间件软件的配置和维护 5)python/java/nodejs等编程语言 业务知识优先: 1. 熟悉云计算用户侧相关业务,以及云计算基础业务,了解云计算核心产品的基本原理; 2. 熟悉互联网产品的研发与设计特点; 3. 熟悉云计算领域多租户概念、财务计费相关逻辑; 4. 熟悉金融领域业务系统的相关设计要求或标准; 5. 有较强的系统、数据分析能力、逻辑性强; 6. 有一定的用户行为、用户体验分析与提升经验。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
  • 18k-25k·17薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 : 1、负责系统运维工作,主要包括应用系统的部署上线、变更发布、监控及故障处理等; 2、负责所负责定期的应用系统风险点梳理,监控及发现生产环境的问题和隐患,提升系统可用性; 3、所负责应用系统,协同并解决业务部门在系统使用中的问题跟踪 4、负责定期复盘和完善运维及监控体系。 任职资格 : 1、大学本科及以上学历,3年以上应用系统运维经验,具备3年以上运维管理经验; 2、熟悉linux/unix、中间件、容器,k8s相关技术,有运维开发或SRE经验优先; 3、熟悉PG/MYSQL/Redis使用及性能优化技术; 4、熟悉java/golang/python中至少一种开发语言; 5、具体良好的沟通能力,逻辑思维能力和团队合作精神,极强的工作责任心,能承担一定的工作压力。
  • 金融 / 未融资 / 2000人以上
    职责描述: 1、负责大数据运维体系搭建及大数据平台各个组件的运维; 2、负责大数据平台及相关组件的部署和维护,保证其稳定运行; 3、负责完善大数据平台运维监控工作。 任职要求: 1、本科或本科以上学历,计算机相关专业,3年以上大数据系统运维经验; 2、熟悉Windows/Linux操作系统; 3、熟悉Hadoop、Hive、Hbase、Yarn、Spark等组件的原理及运维方式; 4、熟悉中间件工作原理,对Tomcat/Redis/Nginx/Kafka有一定了解,具备一定的操作能力; 5、至少熟悉Java/PHP/Python/Bash/Shell一种或多种语言,可独立编写维护及监控; 6、工作细致、善于思考,有很强的问题分析和推进解决的能力; 7、有强烈的责任心、良好的沟通协调能力、极强的业务推动能力,勇于接受挑战; 8、良好的英文听说读写交流能力,能使用英语作为工作语言。
  • 30k-50k·14薪 经验5-10年 / 本科
    金融 / 上市公司 / 500-2000人
    岗位职责: 1、负责大数据集群CDH(Hadoop、 Hive、HBase、Spark)、Presto、ClickHouse的日常维护,包括集群的规划、部署、监控、故障处理、复盘优化等; 2、保障大数据集群的健康度,性能优化调整,体系化的解决方案,构建服务客观可观测能力,保障大数据服务高可用,提高资源使用率; 3、建立运维自动化能力提效,配合数据架构师研究和应用大数据新架构技术,突破算力边界。 任职要求: 1、本科及以上学历,5年以上大数据运维经验; 2、熟悉CDH、HDFS、Yarn、Hive、Presto、Prometheus技术栈,深入了解原理和常规操作; 3、熟悉大数据组件的指标监控、容量规划、性能优化、监控等; 4、有技术的热情,对方案严谨,有owner的担当和主动性。
  • 企业服务 / 未融资 / 15-50人
    岗位职责: 1、负责HDFS、HBase、Hive、Yarn、Flume,Kafka、ES等大数据平台的规划、部署、监控和系统优化等工作; 2、负责Hadoop平台的用户管理、权限分配、资源分配; 3、负责Flink集群的部署维护、资源调度及任务上线等; 4、负责Airflow、Azkaban等大数据任务调度平台的部署、维护、开发支持等; 5、处理大数据平台各类异常和故障,确保系统平台的稳定运行; 6、研究业界前沿的大数据运维技术,负责各种运维工具和系统的设计开发; 任职要求: 1、本科以上学历,计算机或相关专业,具备至少3年以上hadoop及相关组件的运维经验; 2、掌握HDFS、HBase、Kafka、Hive、Yarn、Flink、ES等组件的工作原理; 3、熟练掌握至少一种脚本语言(Shell、Python、Java); 4、对Hadoop各组件的权限、安全、Kerberos有一定的经验; 5、熟悉MapReduce算法,能够编写和提交分布式计算任务; 6、对分布式开源项目有技术兴趣,能跟踪Hadoop开源社区的发展方向,自学能力较强,不断改进和优化集群; 7、具备高度的责任心,较强的故障分析及排除能力; 8、具备良好的团队合作精神,工作认真、细心、虚心好学、沟通能力好。
  • 金融,移动互联网 / 不需要融资 / 50-150人
    具体薪*ZI面议 岗位职责: 1.参与线上应用系统的运营管理、性能提升、异常处理、技术创新等工作 2.参与制定并完善系统日常安全运行管理制度及流程 3.执行应用运维相关规范及流程 任职要求: 1.教育背景:***大学本科及以上学历,计算机相关专业 2.专业技能:掌握1至2门主流开发语言,如Java、Python等;了解运维开发、自动化运维、网络和数据库等基础知识;具备在Linux、Windows下的系统管理和操作技能;具备Shell、Perl脚本的编写能力;掌握中间件技术、容器技术;掌握证券行业技术相关标准;具备对应用系统异常进行分析的能力 3.个人素质:工作积极主动,具有良好的团队协作能力和责任心 4.工作经验:3年及以上相关工作经验
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 25k-45k·15薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 500-2000人
    工作职责: 1、负责58线上核心服务的日常运维、优化、可用性提升、容量管理等工作,7x24小时保障线上业务的稳定运行; 2、负责接入层相关服务,包括但不限于域名、CDN、四七层负载等,优化服务访问速度; 3、负责维护公司运维基础设施与公共服务的正常运行; 4、参与公司运维基础设施建设,运维平台开发,自动化工具开发等; 任职要求: 1、有较大规模在线业务运维、优化等工作经验; 2、熟悉Linux操作系统,内核调优,计算机网络等,基础知识扎实; 3、熟练Python、Go、Shell等开发语言; 4、有强烈的责任心,良好的时间观念,能很好的沟通交流,乐于分享;