• 20k-35k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责抖音电商数据治理工作,包括不限于成本、质量、效率,提升数据易用性、安全性及稳定性; 2、深入理解数据业务,发现并总结数据研发、数据成本、数据质量、数据安全等方面数据问题,提炼数据治理方法论,推动数据治理方法实施; 3、孵化并持续迭代优化数据治理产品,以系统化、智能化能力高效支撑数据业务快速发展。 职位要求: 1、熟练使用SQL、Python、Java等工具进行大型数据分析及建模; 2、熟练使用Hadoop、Hive、Spark、Flink等组件进行大数据场景数据开发; 3、有较强的逻辑分析、沟通及工作推进能力,具备优秀的技术与业务结合能力; 4、对数据治理有一定的实践经验,有良好业务意识,对数据业务场景敏感,能够横向协同、跨团队整合资源,形成完整的方案解决业务/产品的问题; 5、有良好数据治理产品经验者、有实时数据研发经验者优先。
  • 50k-80k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 团队介绍:集团信息系统部(Corporate Information System)负责字节跳动信息系统建设。通过构建领先的信息系统,助力公司业务和组织的长期高效经营与发展。与此同时,在安全、隐私、合规层面持续治理,为公司的稳健发展保驾护航。字节跳动的员工分布在全球超过120个城市,业务模式复杂,用户规模大。到现在,集团信息系统部已经覆盖人事、财务、法务、采购、审批、职场等多个领域,隐私安全工作同步开展,AIGC创新孵化也在逐步落地实现。 1、负责公司统一数据引擎大数据方向的架构设计和技术研发工作; 2、负责设计安全高效的大数据架构,推动数仓、BI团队搭建高效的数据流程与服务栈; 3、深入了解字节跳动各业务线的数据业务,发现并总结数据研发、数据质量、数据安全等方面数据问题,合理抽象方案,推动相关业务实施落地。 职位要求: 1、计算机基础知识扎实,具备良好的工程和算法能力; 2、有大数据体系工作经验,对数仓或BI体系的建设流程和分工有清晰的认识; 3、熟悉大数据相关工具/框架经验者优先,如Hadoop、Hive、Spark、Kafka、Flink、Clickhouse等; 4、有分布式、高性能系统研发经验者优先;对系统稳定性建设有实践经验者优先;熟悉多种存储系统者优先; 5、对技术有热情,具备良好的问题分析和解决能力,喜欢思考问题深层次的原因,并善于归纳和总结。
  • 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
  • 40k-60k·15薪 经验10年以上 / 本科
    汽车丨出行 / 未融资 / 2000人以上
    工作职责 1.负责自动驾驶数据平台、仿真平台、标注平台、训练平台及相关工具链的架构设计和研发工作,打造符合前瞻、量产智驾技术研发需要的数据闭环 2.负责大规模、可伸缩计算集群系统的解决方案的设计和搭建,以及核心技术的研究、开发和优化,负责平台长期运维支持和架构优化 3.负责自动驾驶软件系统框架架构设计和开发,与硬件、算法和测试团队合作,持续集成并优化自动驾驶系统 4.负责量产车型的数据驱动影子模式、数据记录等车端功能设计、系统架构和开发 工作要求 1.学历要求:**本科及以上学历,英语CET-4及以上, 2.工作经验:具有6年及以上相关工作经验,特别优秀者可适当放宽 3.其他: ① 计算机科学与技术、软件工程专业、自动化控制专业、人工智能等相关专业优先 ② 满足以下条件之一: 1)熟悉软件开发流程、具备扎实的算法和数据结构、算法、操作系统、网络、数据库等知识 2)熟悉几何、计算机图形学、动态系统建模等理论和方法 3)精通C/C++/Go/Python/nodejs一种或多种编程语言,熟悉HTML/CSS/React/REST 4)熟悉Linux/RTOS环境下开发与调试,有嵌入式操作系统和实时操作系统的内核或驱动开发经验,有多进程多线程、中间件、计算机视觉应用(OpenCV)、CUDA、TensorRT等开发经验优先 5)有丰富的Gin/Pylons/Django Web框架开发经验 6)熟悉PyTorch,TensorFlow,TensorRT等深度学习框架,有模型训练、调优相关经验 7)熟悉Spark/K8S相关技术,有相关开发经验,有过海量数据系统开发经验优先,有过集群系统开发、部署和优化经验优先 8)熟悉软件开发流程以及DevOps完整流程,熟悉DevOps相关系统原理,有相关工具和使用经验、如Jenkins,Argo, K8S,Docker,Kubernetes等 ③ 工作认真负责,具有良好的团队合作能力、沟通协调能力和学习能力 ④ 有Tier 1或主机厂相关工作经验优先
  • 12k-20k 经验3-5年 / 本科
    数据服务 / 上市公司 / 500-2000人
    【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
  • 12k-18k 经验3-5年 / 大专
    移动互联网,消费生活 / B轮 / 150-500人
    岗位职责: 1、负责项目实施工作, 项目计划制定、客户系统对接方案的沟通与落地、项目过程管理等,把握好项目整体实施节奏,确保项目进度、质量,项目如期完成上线; 2、与客户成功团队一起服务指定的老客户群体,确保老客户专业技术服务需求得到及时满足,以支持客户续约达成; 3、做好项目风险控制、及时发现和跟踪影响项目进度的相关问题,积极推动与解决; 4、按时、保质完成项目文档,如调研报告、对接方案、测试文档、项目周报等项目规范性工作; 5、主动了解内部工作流程,灵活协调、调用相关资源支持客户工作的达成。 任职要求: 1、**本科以上学历,计算机、通信相关专业,项目管理专业资格认证(PMP)优先; 2、具有3-5年以上互联网软件或零售相关领域的项目管理工作经验; 3、精通软件项目过程管理,对敏捷项目管理等有实际应用经验及深刻理解,高度项目达成的目标感; 4、具备优秀的技术方案设计、讲解能力,较强的学习能力及应对快速变化的能力; 5、具有内外部客户服务意识,工作积极主动,规范性、责任感、沟通协调、团队合作意识强。
  • IT技术服务|咨询,新媒体,文化传媒 / 不需要融资 / 150-500人
    ■岗位职责 负责智慧政务、智慧城市业务国内、省内党政机关、企事业单位的市场开拓、活动策划和项目运维; 负责大河智库(大数据与人工智能)业务国内、省内党政机关、企事业单位的市场开拓、营销策划和项目运维。 ■岗位条件 (1)学历:普通高招大学本科及以上学历。 (2)年龄:原则上本科生不超过28周岁,硕士研究生不超过30岁,特别优秀者可适当放宽。 (3)专业:新闻与传播学、文学、法学、商学、经济学、统计学、管理学、马克思主义哲学、历史文化学、文化产业与旅游管理学、广播电视编导、摄影摄像、导演剪辑、市场营销学、经济金融、工业设计、电子商务、公共事业管理等相关专业。 (4)基础能力: 熟悉我国国体、政体,谙熟党政机关、企事业单位(包括金融保险证券投资、大型国企、上市公司等)的运行机制,了解智慧政务、智慧城市、智慧产业、大数字与人工智能在本行业的应用和运行规律,掌握政务、媒体行业信息化项目的发展趋势、业务流程和操作规范; 具备2-3年项目管理经验,精通项目管理的知识体系,如项目启动、规划、执行、监控和收尾等各个阶段的工作流程和方法,熟悉项目管理工具和技术; 具备优秀的协调沟通能力、团队管理能力、实践管理能力和问题解决能力; 具备风险管理知识,能够识别、评估和应对项目中的风险; 了解质量管理知识,确保项目交付成果符合质量标准。 (5)放宽及优先条件 具有符合本岗位特殊才能的,学历和年龄可适当放宽; 具有相关从业经历、从业经验且业绩卓著的,或者有客户资源、媒体工作经验的,学历和年龄可适当放宽,并优先考虑; 其他符合放宽或优先条件的。
  • 7k-14k 经验3-5年 / 本科
    物联网 / 未融资 / 50-150人
    岗位要求: 1、熟悉电力市场交易规则、国家能源政策及行业监管标准,能够精准解读电力交易指职称标业务逻辑,确保可视化方案符合数据穿透性、合规性要求。​ 2、掌握电力系统运行原理、电力市场运营机制,具备电力数据指标(如负荷曲线、电价波动、清洁能源消纳等)分析能力。 3、熟练运用Axure、FINEBI、Tableau、PowerBI等数据可视化工具,具备优秀的界面设计能力,能兼顾用户体验与数据呈现效果,独立完成电力交易产品可视化方案设计。​ 4、精通产品全生命周期管理,擅长需求分析、方案设计、技术协调,可平衡技术可行性与业务价值,输出可落地的产品解决方案。 5、主导过电力交易相关项目,熟悉项目需规划与推进流程,具备高效的项目进度把控与质量保障能力。​ 6、拥有出色的沟通协调能力,能与甲方、求并转化为产品方案,提升客户满意度与信任技术团队、业务部门高效协作,精准捕捉需求。 7、3年以上电力行业产品经理工作经验,主导过电力交易相关项目,熟悉项目需求规划与推进流程,具备高效的项目进度把控与质量保障能力。 8、熟练运用Axure、FINEBI、Tableau、PowerBI等数据可视化工具,具备优秀的界面设计能力,能兼顾用户体验与数据呈现效果,独立完成电力交易产品可视化方案设计。 岗位内容: 1.产品规划与需求管理负责电力交易产品全生命周期规划,深入研 究电力市场交易规则、政策法规及行业动态,收集分析用户需求,输出产品需求文档与可行性方案,确保产品方向符合业务与监管要求。 2.具备可视化设计与方案落地主导相关电力产品可视化设计,结合电力数 据特性(如负荷曲线、电价波动等),运用Axure、FineBI、Tabelau等工具完成可视化界面设计,推动方案落地实施,保障数据穿透性与展示效果满足甲方需求。 3.项目全流程管理统筹电力交易相关项目从需求调研、方案设计到上线运营的全流程,协调技术、业务等多方资源,把控项目进度与质量,及时解决 实施过程中的问题,确保项目高效交付。 4.持续跟踪电力交易产品使用情况,收集用户反馈与市场数据,分析产品运营效果,提出优化迭代建议,推动产品功能升级,提升产品竞争力与业务价值。
  • 10k-15k 经验3-5年 / 本科
    物联网 / 未融资 / 50-150人
    一、工作内容及职责: 1.产品规划与需求管理 负责电力交易产品全生命周期规划,深入研究电力市场交易规则、政策法规及行业动态,收集分析用户需求,输出产品需求文档与可行性方案,确保产品方向符合业务与监管要求。 2.具备可视化设计与方案落地 主导相关电力产品可视化设计,结合电力数据特性(如负荷曲线、电价波动等),运用 Axure、FineBI、Tabelau等工具完成可视化界面设计,推动方案落地实施,保障数据穿透性与展示效果满足甲方需求。 3.项目全流程管理 统筹电力交易相关项目从需求调研、方案设计到上线运营的全流程,协调技术、业务等多方资源,把控项目进度与质量,及时解决实施过程中的问题,确保项目高效交付。 4.持续跟踪电力交易产品使用情况,收集用户反馈与市场数据,分析产品运营效果,提出优化迭代建议,推动产品功能升级,提升产品竞争力与业务价值。 二、任职条件: 1、电力、计算机相关专业**本科及以上学历(学信网可查)。 2、熟悉电力市场交易规则、国家能源政策及行业监管标准,能够精准解读电力交易指标业务逻辑,确保可视化方案符合数据穿透性、合规性要求。​ 3、掌握电力系统运行原理、电力市场运营机制,具备电力数据指标(如负荷曲线、电价波动、清洁能源消纳等)分析能力。 4、熟练运用Axure、FINEBI、 Tableau、PowerBI 等数据可视化工具,具备优秀的界面设计能力,能兼顾用户体验与数据呈现效果,独立完成电力交易产品可视化方案设计。​ 5、精通产品全生命周期管理,擅长需求分析、方案设计、技术协调,可平衡技术可行性与业务价值,输出可落地的产品解决方案。 6、3年以上电力行业产品经理工作经验,主导过电力交易相关项目,熟悉项目需求规划与推进流程,具备高效的项目进度把控与质量保障能力。​ 7、拥有出色的沟通协调能力,能与甲方、技术团队、业务部门高效协作,精准捕捉需求并转化为产品方案,提升客户满意度与信任度。
  • 18k-24k 经验不限 / 本科
    工具类产品 / 上市公司 / 2000人以上
    岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: •基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; •设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; •通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 •负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; •基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; •针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 •**本科及以上学历,计算机相关专业,大数据开发相关经验; •​​熟练掌握并使用​​(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; •熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; •具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 •具有良好的沟通能力和组织协调能 ​​加分项:​​ •有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; •理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; •对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
  • 18k-24k 经验3-5年 / 本科
    工具类产品 / 上市公司 / 2000人以上
    团队背景 隶属于6767搜推工程策略组6767,是公司搜索与推荐业务的核心技术支撑团队。团队技术氛围开放,鼓励创新实践,团队成员具备丰富的分布式系统与海量数据处理经验。 岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: 61基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; 61设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; 61通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 61负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; 61基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; 61针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 61**本科及以上学历,计算机相关专业,大数据开发相关经验; 616767熟练掌握并使用6767(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; 61熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; 61具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 61具有良好的沟通能力和组织协调能 6767加分项:6767 61有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; 61理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; 61对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
  • 22k-32k·16薪 经验1-3年 / 本科
    科技金融 / 不需要融资 / 500-2000人
    "职位描述: 1、负责保险业务风险管理,包含但不限于保险产品赔付率分析、逆选择及欺诈风险特征和模式梳理 2、基于大数据与机器学习、数据挖掘等方法构建风险识别模型,支撑保险业务全流程生命周期的风险管理与风险洞察; 3、建设公司内外的数据合作流程和规范,探索、建设及接入保险相关的风险画像及风险模型; 4、深入理解业务,探索业务经营和业务创新的需求洞察,并进行技术预研; 职位要求: 1.本科及以上学历;计算机、数学、统计精算等相关专业背景,至少熟悉一门编程语言(python,SAS,R等); 2.有2年以上金融风控数据分析与建模经验、对金融业务的风险有比较深刻的理解,熟悉大数据建模方法和风控策略体系构建方法; 3.熟悉常用的特征工程、机器学习和数据挖掘相关算法,熟悉spark,hadoop等大数据平台优先; 4.有保险定价、核保、核赔、医疗健康业务的从业经验者优先;有对外大数据合作及联合建模经验者优先; 5.沟通协调能力强,性格开朗客观,积极主动,有较强的业务理解能力、抗压能力及主动性; 6.有一定的产品经理意识、与技术方向的独立思考及规划能力。"
  • 12k-20k·17薪 经验5-10年 / 本科
    汽车丨出行 / 未融资 / 2000人以上
    1、负责车联网大数据应用平台相关系统研发、优化、及系统架构等相关工作; 2、深入发掘和分析车联网大数据应用相关业务需求,提出技术及产品改进建议,输出技术方案和系统设计; 3、具有一定的技术架构思维,确保设计的技术方案、开发的代码有较高性能、质量保障、扩展性,前瞻性; 4、对技术有较强的钻研及学习精神,能够深入了解开源技术、现有系统技术等相关技术原理,出现问题时能够通过较强的技术手段较好的解决问题。 1.工作经验:5年以上Java全栈开发经验,有前端开发经验优先, 有大型分布式、高并发、高负载、高可用型系统设计开发经验者优先,具有车联网大数据应用平台开发及架构相关经验优先 2.其他: ①、Java基础扎实,熟悉Java虚拟机原理、Java高级特性和类库、Java网络与服务器编程、Java多线程编程以及常见开源产品 ②、精通掌握Spring等开源框架,对spring boot、spring cloud等微服务开源框架有深入了解,熟练掌握主流的前端技术 ③、熟悉现有互联网常用的缓存、消息队列、数据库及中间件技术 ④、熟悉微服务设计与开发,有Docker/K8s相关经验 ⑤、熟练使用Linux系统,有CI/CD经验 ⑥、具备模块或子系统的架构设计能力,掌握常见的架构设计方法和模式,理解大型网站所需要用到的架构和技术 ⑦、熟悉敏捷开发,有良好的表达和沟通能力
  • 电商平台 / C轮 / 2000人以上
    (此岗位需要在南京或者深圳办公) 岗位职责: 1.大数据新技术规划、调研、选型及推广落地。 2.负责大数据组件内核开发优化,推进组件容器化,进行组件二次开发与适配等工作。 3.日常负责大数据框架组件的性能优化,稳定性保障,异常监控及线上问题对接解决。 4.参与平台功能研发,提供业务系统化的解决方案。 任职标准: 1.至少6年以上相关经验,有扎实的计算机编程基础,精通java/scala,熟悉jvm的原理和调优。 2.精通spark/hive/flink组件原理和内核优化,有超大规模数据计算的架构设计和优化经验。 3.掌握大数据行业趋势,熟悉Kubernetes/Docker,有组件容器化相关经验。 4.具备较强的问题解决能力,能独立分析和攻坚复杂的技术难题。 5.有公有云使用经验者优先。 6.有良好的服务意识、沟通能力和团队协作精神。