• 10k-20k 经验1-3年 / 大专
    企业服务,数据服务 / 不需要融资 / 50-150人
    工作职责: 1、 有效处理客户以及平台故障,保证系统7*24稳定运行; 2、 负责运维知识库建立,并及时进行知识库更新; 3、 负责云资源池验收及产品验收,可协助客户解决相关云产品使用问题; 4、 负责资源池业务监控及服务巡检,及时跟进及解决相关问题。 5、参与运维工具体系的规划建设,包括需求调研、方案设计、产品实施 6、参与运维工具体系相关标准、规范制定 任职条件: 1、 深入理解Linux、windows操作系统、体系结构,可熟练使用Shell/Perl/Python等语言中的一种或多种; 2、 熟悉OpenStack核心组件,如nova, cinder , glance, neutron, keystone等; 3、 熟悉基本网络知识,具备hcnp或ccnp或等同经验者优先,具备云平台维护经验者优先; 4、 熟练掌握主流虚拟化技术,熟悉虚拟化各项功能原理,能够进行规划实施者优先; 5、 有相关云商维护工作经验者优先; 6、 对于K8s等容器类规模化集群有2年以上工作经验者优先 7、 有相关客户服务或客户支撑经验者优先; 8、 具有强烈的团队协作意识,高度的责任感,对工作积极严谨,勇于承担责任,逻辑思维能力强,有较强学习和创新能力; 9、 具有较强的抗压能力和执行力。
  • 15k-30k·14薪 经验3-5年 / 本科
    数据服务,软件开发 / 上市公司 / 2000人以上
    岗位职责: 1、负责制定部门的产品交付体系,打通磐基、磐舟、磐维等产品的整体交付流程。 2、负责部门产品交付方案编制、整合、优化,持续提升工作规范化水平,确保交付物的准确性性和完整性。 3、负责对接中移动各IT系统上云,制定标准的、规范的上云方案,能够指导上云租户合理的使用云原生架构,在微服务拆分、应用容器编排上给与规范; 4、负责牵头制定一体化交付体系,打通IaaS、PaaS、SaaS的整体交付流程。 5、负责部门产品的交付管理,包括交付质量、交付进度、服务管理等,确保交付品质和用户满意度。 任职要求: 1)计算机、电子通信等相关信息技术专业本科及以上学历,有3年以上平台实际交付或运维经验; 2)熟悉容器技术、k8s技术、DevOps等云原生相关技术; 3)具有Linux/UNIX平台的系统运维经验; 4)熟练使用Linux下各种常用命令,能够独立编写Shell、Perl、Python等脚本; 5)至少能够具备两种组件的配置和运维能力,例如nginx、haproxy、MySQL,rabbitMQ,activeMQ,Kafka,redis,Memcached等; 6)熟悉常见存储引擎的原理、特点以及主从复制原理和实践; 6)熟悉MySQL/PostgreSql/openGauss等主流开源数据库运维者优先; 6)有CKA认/RHCE/OCP等认证者优先、具有信息通信领域工作经验的优先; 7)具有较强的学习能力、良好地沟通能力、团队合作精神。
  • 12k-18k 经验1-3年 / 不限
    人工智能服务,数据服务|咨询 / B轮 / 15-50人
    岗位职责: 1、公司运维体系建设和执行,运维资源巡查,安全审核,成本控制 2、机房7个机柜的维护和优化 3、华为云、阿里云等云服务器的维护管控 4、产品部署方案优化和BASH脚本开发 5、各种工具维护。git/ftp/docker/mysql/pgsql/mongodb/redis/....等等 任职要求: 1、计算机相关专业本科学历,或有较深IT背景可放宽 2、精通 Linux 操作系统,熟悉常见发行版(CentOS/Ubuntu/Debian/Alpine等) 3、精通Docker的使用、配置、优化、技巧 4、熟悉Bash/Perl/Python/PHP/NodeJS/Golang等语言任意一个 5、熟悉常见软件,包括 mysql,mariadb,redis,memcache,mongodb等编译、安装、优化、裁剪、定制 6、较强的学习意愿,有一定的业务抽象能力
  • 15k-22k·15薪 经验1-3年 / 本科
    其他,金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责大数据平台的架构设计、开发和实施; 2.负责基于开源大数据Hadoop平台使用Spark,Kafka,Flink等流处理工具开发实时分析指标; 3.负责基于EFK架构搭建并完善日志分析平台建设; 4.负责Hadoop相关组件及应用的监控和维护; 5.根据业务需要,为不同应用场景的实时性要求提供对应的技术选型和解决方案; 6.前沿探索,对大数据相关技术组件进行研究和测试,进行技术架构的优化; 7.负责基于大数据平台的数据产品研发。 职位要求: 1.计算机相关专业本科及以上学历 ; 2.2年及以上大数据相关工作经验; 3.熟悉Hadoop,Spark,Hive,Kafka,ElasticSearch,Flink,Pulsar,Flume,ETL等技术或工具; 4.熟悉Linux系统及Shell或perl 等脚本语言 ; 5.熟悉MySQL、 Oracle、 MongoDB等数据库; 6.具备良好的英文文档阅读能力; 7.具备优秀的数据敏感性和数据洞察能力; 8.具备较强的自学能力,探索精神及抗压能力,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
  • 20k-35k·14薪 经验3-5年 / 本科
    人工智能服务 / B轮 / 15-50人
    【岗位职责】 1. 负责公司私有云系统的建设以及线上公有云的运维维护。 2. 负责开发容器平台虚拟化相关的服务系统,以及线上故障处理,疑难问题定位、排除、处理; 3. 负责容器平台上的日志检索、监控、告警等运维工具的开发; 4. 负责Docker相关技术在业务领域的研究、方案落地、架构优化、工具开发; 5. 负责业务的日常支撑、自动化、工具化建设。 【岗位要求】 1. 大学本科以上,计算机相关专业,三年以上工作经验,一年以上Docker运维或开发经验; 2. 熟练掌握Go语言及并发编程; 3. 掌握bash、python、perl等脚本语言; 4. 掌握Kubernetes、mesos等编排服务框架以及能对它们进行二次开发优先; 5. 熟悉Docker环境的网络性能调优以及网络解决方案,如Flannel等开源技术优先; 6. 熟悉Docker的相关开源技术,掌握Docker源码者优先; 7. 在CI/CD方面有一定实践者优先。
  • 20k-35k·14薪 经验3-5年 / 大专
    内容社区,音频|视频媒体 / 上市公司 / 500-2000人
    职位描述 1、对数据中心设备(服务器、存储设备等)进行日常管理,保障设备及系统稳定安全可用; 2、研究数据中心基础设施架构,实施架构优化和性能改进工作; 3、负责根据需求完成服务器/存储设备/软硬件平台搭建/维护/故障排除; 4、负责系统运维工作包括数据备份、容灾备份、数据迁移、日志分析、故障排除等工作; 5、负责云(AWS、阿里云)平台服务器及组件维护工作; 6、负责公司基础服务及中间件的维护工作; 职位要求 1、专科以上学历,计算机相关专业,能熟练阅读英文技术文档; 2、精通 Linux 操作系统的管理、配置及系统调优,熟悉至少一门脚本语言,如Shell,Python, Perl等; 3、理解虚拟化的架构和基本原理; 4、具备基本的网络故障排错能力,对网络安全有一定的了解, 熟悉TCP/IP等协议; 5、理解Linux系统内核,熟练掌握内核设备驱动者优先; 6、具有持续集成,自动化运维相关经验优先。 7、能够承担压力,有很强的工作责任心和服务意识,并具有很强的分析能力和解决问题的能力,有较强的学习能力。
  • 15k-25k·14薪 经验3-5年 / 本科
    数据服务,信息安全 / 不需要融资 / 150-500人
    岗位职责: 1.负责域名设备/服务的售后技术支持工作; 2.负责域名设备/服务的故障排查,现场技术支持; 3.负责域名设备/服务的部署、升级、迁移等实施工作; 4.负责域名设备/服务的现场测试、技术交流等支持性工作。 任职要求: 1.计算机或相关专业本科以上学历,两年以上售后实施相关经验; 2.熟悉TCP/IP协议,能熟练配置交换机、路由器等网络设备,熟悉网络安全; 3.熟悉Linux操作系统; 4.有项目沟通、实施经验; 5.熟练使用Ruby、Python、Perl三种脚本语言中的至少一种者优先; 6.了解DNS/DHCP相关知识者优先; 7.能适应出差性工作。
  • 13k-25k 经验不限 / 硕士
    人工智能服务,数据服务|咨询 / B轮 / 15-50人
    岗位职责: 1. 负责NGS临检生产数据生信分析产品的质量控制和流程优化; 2. 负责肿瘤NGS相关数据分析流程的算法调研和流程搭建; 3. 对生物信息学已有研究和产品进行调研及分析,并实现及评估相关方法; 4. 生物信息相关专利和文章撰写; 5. 为客户提供生信技术支持和指导服务。 任职要求: 1、生物信息学、生物学、计算机等相关专业,硕士及以上学历; 2、熟悉Linux操作系统,熟练应用常用生物信息学分析工具,至少熟练掌握一种生物信 息学常用编程语言,如python、perl、R、C、C++、java等; 3、有肿瘤NGS领域测序数据科研分析经验; 4、有SCI文章**作者发表经验者优先; 5、良好的语言表达能力和沟通能力,工作踏实有责任心,能吃苦耐劳; 6、良好的沟通和团队协作能力; 7、具有较强的客户服务意识,能够及时解决客户提出的问题,有较强的协调能力。 有文献发表经历 有NGS数据分析能力
  • 13k-25k 经验3-5年 / 大专
    IT技术服务|咨询,软件服务|咨询 / B轮 / 2000人以上
    岗位名称:交付运维工程师 工作职责: 负责百度私有云,视频云等私有化项目的交付运维工作 负责根据不同项目客户制定部署实施方案,部署架构,项目管理 负责百度私有化产品的部署实施、功能联调、测试、客户验收 工作要求: 专科以上学历,计算机相关专业,2年以上交付运维相关工作经验 掌握云计算底层技术原理(网络虚拟化、计算虚拟化、分布式存储、云数据库等至少一种) 掌握OpenStack技术架构原理且有一定的2B项目实施经验 熟练掌握Docker、Kubernetes等技术原理和架构,具备部署、运维、交付经验 熟悉系统管理Linux(Redhat、CentOS、Ubuntu、SUSE 至少一种) 熟悉Shell、Python、Perl等其中一门脚本语言 熟悉网络(DNS、TCP/IP、NTP、DHCP、OVS、Bridge、VXLAN等)协议原理 熟悉掌握Ansible、Puppet、Saltstack、Rundeck其中一种部署系统 具有部署、变更、调优,Troubleshooting经验者优先 具有阿里,腾讯,华为等私有云项目交付经验者优先 良好的团队合作精神,较好的表达沟通、学习、分析能力
  • 20k-40k 经验3-5年 / 本科
    IT技术服务|咨询 / 天使轮 / 50-150人
    大数据平台测试开发工程师 工作职责 - 负责新一代数据分析平台质量保障工作,设计测试方案和测试标准,执行功能、性能、压力等测试。构建自动化测试工具和框架。 岗位要求 - 熟悉常见测试脚本语言, 精通至少一种高级语言(C++/Java/Golang/Shell/Python/Ruby/Perl) - 熟悉SQL语言 - 熟悉测试管理、持续集成和发布管理 - 熟悉基础软件的测试方法,能够给出测试方案和测试标准,构建自动化测试工具和框架,能够进行功能测试、性能测试、压力测试、容量测试、高可用测试、数据一致性测试、混沌测试等。 - 加分项:从事过大数据分析平台、关系型数据库和分布式云存储测试工作
  • 15k-25k·15薪 经验3-5年 / 本科
    金融 / 不需要融资 / 150-500人
    岗位职责: 1、 根据业务需求,快速进行数据仓库设计和ETL开发 2、 负责数据仓库的建模、开发和流程调度,负责离线和实时数仓建设 3、 负责ETL流程的优化,解决ETL相关技术问题 4、 对业务数据进行清洗、整理、分析,挖掘不同业务场景的数据价值 5、 负责业务需求的报表支撑和数据支撑 任职要求: 1、 本科以上学历,计算机相关专业; 2、 熟悉数据仓库的开发和数据建模,具备大数据平台数据仓库3年以上ETL开发经验; 3、 熟悉大数据相关技术,Hadoop/spark/hive/hbase/kafka/flink等; 4、 熟悉数据仓库理论,具备大型数据仓库架构设计、模型设计和处理性能调优等经验,有较高的数据敏感度和质量把控意识; 5、 熟悉LINUX系统,熟练掌握Perl、Python等脚本开发能力; 6、 具备良好的沟通能力和团队合作精神,具备独立解决问题的能力,抗压能力强; 7、 无违法违规行为及犯罪记录,道德品质良好。
  • 25k-40k 经验3-5年 / 本科
    数据服务|咨询,IT技术服务|咨询,网络通信 / 未融资 / 50-150人
    "岗位职责: 1、负责部署和维护内部大数据系统,如:Hadoop、EleasticSearch、ClickHouse等; 2、负责日志系统的维护和优化; 3、负责大数据分析平台的规划与设计工作; 4、负责大数据相关开发工作,如数据处理、数仓设计等工作; 5、负责进行数据抽取、清洗、数据接口服务等; 6、深入理解大数据平台架构、发现并解决重大故障及性能瓶颈,打造一流的大数据平台; 任职要求: 1、本科以上学历,计算机或相关专业; 2、3年以上大数据平台的运维相关经验,精于容量规划、架构设计、性能优化。 3、具备一定的开发能力,精通一门以上脚语言(Shell/Perl/Python等),有Java 和 Scala 基础尤佳。 4、对Hadoop原理有深刻认识,具备相关产品(MapReduce、HDFS、Hbase、Spark、Flume、Zookeeper、ES、Kafka)的应用经验,具备底层Hadoop集群实际搭建及运维经验。 5、精通Hadoop、Spark等相关生态圈系统的搭建、管理、配置优化。 6、良好中文沟通能力。
  • 18k-28k·14薪 经验5-10年 / 本科
    人工智能服务,IT技术服务|咨询 / B轮 / 500-2000人
    工作职责: 1. 帮助客户成功部署MySQL数据库服务器及提供最佳实践; 2. 日常的MySql服务支持,例如解决问题、分析故障、故障汇报、数据库升级、性能评估、知识传递、SR管理、最佳实践、咨询交流等; 3. 与MySQL客户经理、销售、产品支持等部门进行跨部门合作; 4. 针对紧急请求,为服务交付团队提供必要的协助; 5. 针对关键系统,及时响应和解决服务请求; 6. 对客户提出的咨询进行研究和答复; 7. 持续推动产品工程质量与用户体验的优化; 8. 及时掌握和学习MySQL新产品、新技术。 职位要求: 1. 5年以上的数据库经验,1年以上DBA经验,至少2年的MySQL数据库管理经验; 2. 精通MySQ数据库引擎原理及生产环境的安装,配置和管理; 3. 精通MySQL性能调优,故障处理,源代码分析; 4. 精通MySQL高可用架构,如Replication,Innodb Cluster,MySQL Cluster等; 5. 熟悉MySQL常用开源解决方案,如MHA,HearBeat,DRBD,Lvs,Keepalived,以及分布式架构等; 6. 精通MySQL以及开源生态,具备开发背景,至少精通Java/Go/Python/Shell/Perl中至少1种编程语言; 7. 熟悉Unix、Linux技能; 8. 了解IPD流程,具备产品研发项目管理经验者优先; 9. 具备Oracle数据库或Tecent TDSQL经验优先; 10. 可以适应短期出差。
  • 18k-30k 经验5-10年 / 本科
    通讯电子 / 不需要融资 / 150-500人
    岗位职责: 1、负责运维团队协调、管理,包括基础运维、数据库运维、应用运维、PaaS运维及运维平台等; 2、建立和完善规范化的运维制度、流程、管理策略和安全策略,保障运维质量; 3、负责公司各业务平台的日常维护管理工作,保障运营系统的正常工作和应急响应; 4、负责在线服务的7*24监控响应,解决业务平台运维中遇到的各种问题; 5、负责运维团队技能提升,保证运维团队的职业化水平。 任职要求: 1、 本科及以上学历,5年以上工作经验,具有大型互联网公司3年以上平台维护经验,有运维团队管理经验优先; 2、 精通自动化运维工具,如Ansible;精通Linux系统管理,熟练使用python、perl、go等至少一门脚本语言; 3、了解ITIL,熟悉相关运维流程管理;有电信级平台维护经验者优先; 4、 熟悉主流的大数据软件的安装、配置及维护。如:Hadoop、Hbase、Seaweedfs、Apache Flume、 ZooKeeper等,具备相关证书者优先。 5、 熟悉常用的中间件、数据库,如mysql、mongoDB、Keepalived、LVS、Redis、Rabbit MQ、Nginx等安装、配置、使用及安全维护; 6、熟悉容器技术底层原理、K8S架构,以及PaaS组件技术,并有相关的实施和维护经验。 7、具有分析大型应用系统架构并进行改进的能力,拥有快速排查系统瓶颈、故障定位的能力; 熟悉大型平台架构规划设计和容灾备份,熟悉监控系统; 8、 熟悉操作系统、中间件及数据库的搭建、配置、监控、性能优化和维护; 9、 制定过平台运维规范,有较强的运维团队管理能力; 10、有较强的沟通及协调能力,学习能力强,做事沉稳细致、具有良好文档编写和文字表达能力。
  • 30k-35k·15薪 经验3-5年 / 本科
    汽车丨出行 / 未融资 / 500-2000人
    BMW is focusing on the development of automated driving (AD) with great effort. In order to develop and test highly intelligent software for environmental perception, maneuver planning and acting, which finally enables the self-driving capability of an autonomous car, a huge amount of environmental sensor data needs to be collected, hosted and processed in an AD Development Platform (AD Data Center). The processing covers e.g. broad data analytics, reprocessing and KPI evaluation, simulation, virtual endurance run, etc. The BMW AD team in China is fully integreated into the global network of highly educated experts of different domains. In this job you will play a crucial role at the interfaces between BMW AD SW development and IT teams as well as Chinese internet tech-companies and high-tech AD suppliers. Big data, distributed data and RaaS(Reprocessing as a Service) (e.g. MapReduce, HDFS,Airflow,Jenkins,CI\CD etc.,) will be your core focus. Your prime target will be to accelerate the AD product development by analyse FTs requriments and designing big data architectures , tasking the development of related big data applications and managing their deployment to a massive off-site data center BMW just developed in cooperation with a big Chinese Tech-Player. In order to achieve this target you will be exposed to a complex project environment involving both BMW internal and external partners. You will be working with are Docker, Openshift, Kubernetes, Grafana, SPARK etc. switch global environment to *****. Major Responsibilities: -Design, deployment and improvement of distributed, big data systems targeting automated driving applications; -Tasking the development and improvement of off-board backend big data applications and related communication protocols targeting automated driving use cases; -Management and structuring of requirements provided by BMW's AD development teams regarding the big data AD platform; -Steering of BMW China AD development teams and external cooperation partners (big Chinese Tech-Player) regarding data driven development; -Review, monitor and report the status of own project; -Support in the budget planning process for the organization unit; -Research, recommend, design and develop our Big Data Architecture. Ensures system, technical and product architectures are aligned with China data platfrom strategy; Qualifications: -Master/Bachelor’s degree in Computer Science,Electrical/Electronic Engineering, Information Technology or another related field or Equivalent; -Good communication skills, good language skills in English; German language skills optional and appreciated; -Rich experience in big data processing Hadoop/Spark ecosystem applications like Hadoop, Hive, Spark and Kafka preferred; -Solid programming skills, like Java, Scala or Python; -Rich experience in docker and Kubernetes; -Familiar with CI/CD tools, like Jenkins and Ansible; -Substantial knowledge and experience in software development and engineering in (distributed big data) cloud/ compute/ data lake/datacenter systems (MAPR,Openshift,docker etc.,) -Experience with scheduling tools is a plus, like Airflow and Oozie preferred; -Experience with AD data analysis e.g. Lidar, Radar, image/video data and CAN bus data. -Experience in building and maintaining data quality standards and processes; -Strong background working with Linux/UNIX environments; -Strong Shell/Perl/Ruby/Python scripting experience; -Experience with other NoSQL databases is a plus, like Elasticsearch and HBase preferred; -Solid communication skills with ability to communicate sophisticated technical concepts and align on decisions with global and China ***** partners; -Passion to stay on top of the latest happenings in the tech world and an attitude to discuss and bring those into play; -Must have strong hands-on experience in data warehouse ETL design and development, be able to build scalable and complex ETL pipelines for different source data with different format;