-
职位职责: 1、负责私有化项目的售后技术支持工作; 2、负责处理私有化项目的告警、故障响应; 3、负责运维脚本的开发; 4、负责公司产品 BUG 的提交,与研发沟通解决相关问题; 5、收集与分析客户需求,并定期为客户进行系统巡检。 职位要求: 1、本科及以上学历,具有两年以上大型 IT 系统实施和运维相关经验; 2、熟悉 Linux/Unix 系统、网络、硬件等相关知识,具有很强的 Troubleshooting 能力; 3、熟悉Hadoop大数据生态,包括但不限于Hadoop、Hive、Spark、Hbase、Flink、Impala、Clickhouse、Redis、Kafka等组件; 4、至少使用过一种自动化部署工具:Ansible、Saltstack、Chef、Puppet、Terraform 等; 5、至少熟悉一种脚本语言:Shell、Python 等; 6、对云平台有一定的了解,有使用经验者优先; 7、熟悉 Docker、K8S/Istio 等容器技术和工具者优先; 8、具有良好的沟通、组织与协调的能力,有一定的抗压能力,能够接受出差。
-
职位职责: 1、负责抖音电商数据治理工作,包括不限于成本、质量、效率,提升数据易用性、安全性及稳定性; 2、深入理解数据业务,发现并总结数据研发、数据成本、数据质量、数据安全等方面数据问题,提炼数据治理方法论,推动数据治理方法实施; 3、孵化并持续迭代优化数据治理产品,以系统化、智能化能力高效支撑数据业务快速发展。 职位要求: 1、熟练使用SQL、Python、Java等工具进行大型数据分析及建模; 2、熟练使用Hadoop、Hive、Spark、Flink等组件进行大数据场景数据开发; 3、有较强的逻辑分析、沟通及工作推进能力,具备优秀的技术与业务结合能力; 4、对数据治理有一定的实践经验,有良好业务意识,对数据业务场景敏感,能够横向协同、跨团队整合资源,形成完整的方案解决业务/产品的问题; 5、有良好数据治理产品经验者、有实时数据研发经验者优先。
-
工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
-
岗位职责 1.数据质量监控:负责监控金融信贷相关业务域数仓数据的准确性、一致性和完整性,确保数据质量符合业务需 求。 2.数据质量测试:设计并执行数据质量测试用例,验证数据计算逻辑、数据转换规则和数据存储的正确性 3.数据质量问题跟踪:跟踪测试中发现的数据质量问题,协调研发团队进行问题修复,并验证修复效果. 4.数据质量工具开发:参与数据质量管理平台的功能设计与开发,提升数据质量测试的自动化水平。 岗位任职要求 1.学历要求:本科及以上学历,计算机科学、软件工程、数据科学或相关专业。 2.工作经验:3年以上数据测试或数据质量测试经验,有金融信贷行业经验者优先。 3.大厂背景:具有阿里、腾讯、字节跳动、百度等大厂数据测试或数据质量测试经验者优先,。 4.技术能力: a).熟悉大数据技术栈(如Hadoop、Spark、Hive、Flink等)。 b).熟悉数据质量监控工具(如Apache Griffin、Great Expectations等)。 c).具备一定的编程能力(如Python、Java、SaL等),能够编写自动化测试脚本。 d).熟悉数据治理相关工具(如数据血缘、元数据管理等)者优先。 5.业务理解:对金融信贷业务有深入理解,能够根据业务需求设计数据质量测试方案 6.问题解决能力:具备较强的逻辑思维和问题解决能力,能够快速定位数据质量问题的根本原因。 7.沟通协作:具备良好的沟通能力和团队协作精神,能够与研发、业务团队高效协作。 加分项 1.有金融信贷行业数据质量测试经验者优先。 2.熟悉金融行业数据标准和监管要求者优先。 3.具备数据治理或数据资产管理经验者优先。
-
岗位职责: 1、负责公司数据平台系统的后台功能开发 2、负责汇总、监控内部用户反馈,持续改善用户反馈体验与效率; 3、从用户视角协助产品体验优化。 任职资格: 1、本科及以上学历,拥有 3 年以上后台研发经验 2、具备扎实的编码能力,掌握 Java/Python/Go 开发语言之一,熟练使用 SQL 进行数据访问 3、有大型后台系统开发经验或者 BI 系统开发经验 加分项: 1、有 BI 工具开发经验优先 2、熟悉 AWS、ALIYUN 等云厂商,有 Kubernetes、Docker 等云原生经验优先 3、熟悉大数据开源组件的架构和技术原理,具备Hadoop、Spark、Flink、DataX、DolphinScheduler等平台的开发和使用经验;
-
职位描述: 1. 从事深交所大数据组测试工作,可能承担中小型项目测试负责人角色,负责整个项目测试工作; 2. 参与需求评审,负责测试需求分析、测试计划制定、测试用例设计、测试执行和测试报告输出; 3. 积极参与到测试各个环节,与开发、需求等部门人员进行沟通保证测试输入和输出的正确性; 4. 能够独立完成项目功能测试、性能测试和联调测试等,保证测试项目质量和进度; 5. 分析并推送测试中的问题解决,开发测试脚本和工具,有效提升产品测试效率。 任职要求: 1. ***计算机及相关专业本科及以上学历; 2. 具有5年及以上测试工作经验,精通测试流程和测试方法; 3. 熟悉SQL语言,能编写复杂的SQL脚本; 4. 熟悉linux常用命令,能独立进行测试环境搭建及维护; 5. 有数据仓库ETL及作业调度系统相关测试经验; 6. 工作积极主动,执行能力强,努力推进问题解决; 7. 了解大数据技术及相关组件,如Greenplum、Hadoop、Kakfa、Flink等优先考虑。
-
工作职责 : 1、负责系统运维工作,主要包括应用系统的部署上线、变更发布、监控及故障处理等; 2、负责所负责定期的应用系统风险点梳理,监控及发现生产环境的问题和隐患,提升系统可用性; 3、所负责应用系统,协同并解决业务部门在系统使用中的问题跟踪 4、负责定期复盘和完善运维及监控体系。 任职资格 : 1、大学本科及以上学历,3年以上应用系统运维经验,具备3年以上运维管理经验; 2、熟悉linux/unix、中间件、容器,k8s相关技术,有运维开发或SRE经验优先; 3、熟悉PG/MYSQL/Redis使用及性能优化技术; 4、熟悉java/golang/python中至少一种开发语言; 5、具体良好的沟通能力,逻辑思维能力和团队合作精神,极强的工作责任心,能承担一定的工作压力。
-
职位描述: 1、负责业务系统的运维保障工作,通过不断优化技术架构,为业务提供安全、稳定,高效,易用的系统服务能力,支撑业务和数据量的快速扩张 2、负责公司关键业务线的高可用能力保障,沉淀业务保障关键能力,如应急响应、故障恢复、故障演练,健康巡检等 3、负责业务系统相关各组件运行状态的整体把控,根据业务需要,快速进行优化调整,解决组件相关系统瓶颈 4、具备自主学习思考能力,通过不断提高技术能力解决运维体系的稳定性、效率、成本、管理等场景问题 职位要求: 1、计算机相关专业,五年以上互联网运维工作经验 2、深入理解Linux系统,对内核参数、系统参数有优化经验 3、熟悉Haproxy、LVS、DNS、Nginx、MySql、Redis、Tomcat、Zookeeper、RabbitMQ、Kafka、Prometheus等主流开源软件技术及相关高可用架构 4、熟悉分布式对象存储,如:seaweedFS、minio、ceph等 5、熟悉shell或python脚本编写和开发,能根据需求开发脚本工具 6、熟悉Docker,Kubernetes容器化环境 7、有高并发业务系统运维经验 8、熟悉java类应用系统、微服务架构、分布式系统等运维工作 9、具有一定网络基础知识,了解常见网络设备日常配置 10、有很好的技术敏感度和风险识别能力,能够独立分析、排查疑难问题
-
岗位职责: 1. 负责美团核心交易业务的稳定性保障工作; 2. 参与设计与开发devops工具,包括但不限于容量规划、资源管理、机房容灾、故障分析等; 3. 精细化数据运营,包括可用性指标、历史事故、资源利用率等,挖掘系统薄弱点,落地改进项目; 4. 积累运维最佳实践,为业务架构设计与组件选型提供指导,输出运维技术文档。 岗位基本要求: 1、 计算机相关专业。深入理解Linux系统,精通TCP/IP、HTTP等协议,具备扎实的网络、计算机体系结构方面的知识; 2、 至少熟悉一门编程语言,java/python/go,能开发工具提升效率; 3、 热爱技术,责任感强,拥有强大的项目执行力和良好的沟通协作能力; 4、 工作细致、善于思考,有较强的分析和解决问题的能力; 5、 具备良好的沟通以及协调能力,能独当一面,也擅长团队作战。
-
工作职责 1、负责分布式或集中式存储系统的部署以及日常运维工作; 2、解决项目实施运维过程中的技术难题,并提供相应的技术支持; 3、负责存储系统的运维保障、效率提升、风险管控; 4、负责存储系统复杂的服务交付、变更、事件、问题处理、服务可用性及连续性的管理; 5、负责存储系统的监控和运维工具建设、主动预防、运营分析等运维安全保障性工作。 任职要求 1、负责分布式或集中式存储系统的部署以及日常运维工作; 2、解决项目实施运维过程中的技术难题,并提供相应的技术支持; 3、负责存储系统的运维保障、效率提升、风险管控; 4、负责存储系统复杂的服务交付、变更、事件、问题处理、服务可用性及连续性的管理; 5、负责存储系统的监控和运维工具建设、主动预防、运营分析等运维安全保障性工作。
-
工作内容: 1、协助开展云盾平台(运行部分)需求管理、进度管理、质量管理 2、协助开展运行风险识别、缺陷管理及反措管理 岗位要求: 1、本科,计算机相关专业,5年以上相关工作经验 2、有南网项目经验。
-
岗位职责: 1. 负责研发部基建运维,设计、部署并维护可靠、可扩展的基础设施系统,包括云计算、容器、分布式系统等; 2. 负责参与持续交付和自动化建设,制定持续集成和持续交付的流程和工具; 3. 负责事故响应和故障排查,快速定位并解决生产环境中的问题,分析事故原因,制定预防措施,持续改进系统可靠性。 岗位要求: 1.熟悉至少一种主流编程语言,如Python、Go、Java等,熟练进行代码编写、调试和优化; 2.熟悉常见的系统架构模式及常见云计算平台, 如微服务架构、分布式系统等,具备部署架构设计和优化经验及在云环境下构建和优化系统的经验; 3.熟悉SLI/SLO/SLA指标管理,对系统可用性、容错性等进行持续监控和优化,同时具备成本优化意识, 能够通过资源分析、负载预测等手段,优化系统运行成本。
-
一、职位基本信息 职位名称:大数据与 AI 产品行销经理 二、职位概述 您将作为连接产品(大数据与 AI 产品)、市场与客户的桥梁,全 面推动亚信数智一体化平台在运营商及各垂直行业的广泛应用与加 速落地,助力企业实现数字化转型。 三、主要职责 产品优势宣贯与市场推广 深入理解亚信大数据与 AI 产品的核心优势与技术能力,对各前台 事业部、合作伙伴及最终客户进行产品宣讲与培训,确保产品价值得 到广泛认知与认可。 制定并执行全面的市场推广策略,包括线上线下活动、行业展会、 研讨会等,提升产品知名度与品牌形象,吸引潜在客户关注。 推动产品加速落地 与各前台事业部紧密合作,深入了解客户需求与痛点,定制化产 品解决方案,推动产品在运营商及各垂直行业的快速应用与落地。 系统性负责产品从商机挖掘到订单签订的端到端流程管理,包括 需求收集、方案制定、商务谈判、合同签订等,确保产品从研发侧快 速走向客户侧,实现商业价值。 客户交流与商机拓展 负责编写面向客户的产品布道资料,包括产品白皮书、案例分享、 技术文档等,为销售与售前团队提供有力支持。 与销售、售前工程师共同进行客户拜访与交流,深入了解客户需 求,挖掘潜在商机,促进业务合作与拓展。 市场反馈与产品优化 定期收集客户反馈与市场动态,对产品性能、功能、用户体验等 方面进行评估与分析,为产品迭代与优化提供数据支持。 与研发团队保持密切沟通,将市场需求与客户反馈转化为具体的 产品改进建议,推动产品持续升级与创新。 四、任职要求 本科及以上学历,计算机科学、市场营销或相关领域背景优先。 至少 5 年 IT 产品行销经验,熟悉大数据与 AI 产品及其市场趋势。 具备出色的市场分析与策划能力,能够独立完成产品市场推广与 品牌建设。 优秀的沟通与团队协作能力,能够与各前台事业部、合作伙伴及 客户建立良好关系。 具备较强的学习能力和创新意识,能够快速适应市场变化与产品 迭代。
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
岗位职责 1.负责小川业务及各类中间件(k8s/hadoop/hbase/hive/spark/hdfs/kafka)的运维,涉及千台规模的服务器,保障业务服务的稳定性和可用性; 2.负责和参与自动化运维系统及平台的建设; 3.负责优化部门运维流程提升运维效率 任职要求 1.精通Linux操作系统的配置,管理及优化,能够独立排查及解决操作系统层的各类问题; 2.掌握Hadoop,Kafka,Zookeeper,Hbase,Spark原理、部署以及TROUBLE SHOOTING,有过实际工作经验; 3.至少精通Python,shell,golang其中一项;有良好的系统性能优化及故障排除能力; 4.熟悉saltstack/ansible等配置管理工具; 5.能够利用各种开源监控工具、运维工具,HA、负载均衡软件完成工作任务 6.熟悉MYSQL、redis其中之一,熟练掌握SQL