• 30k-50k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责私有化项目的售后技术支持工作; 2、负责处理私有化项目的告警、故障响应; 3、负责运维脚本的开发; 4、负责公司产品 BUG 的提交,与研发沟通解决相关问题; 5、收集与分析客户需求,并定期为客户进行系统巡检。 职位要求: 1、本科及以上学历,具有两年以上大型 IT 系统实施和运维相关经验; 2、熟悉 Linux/Unix 系统、网络、硬件等相关知识,具有很强的 Troubleshooting 能力; 3、熟悉Hadoop大数据生态,包括但不限于Hadoop、Hive、Spark、Hbase、Flink、Impala、Clickhouse、Redis、Kafka等组件; 4、至少使用过一种自动化部署工具:Ansible、Saltstack、Chef、Puppet、Terraform 等; 5、至少熟悉一种脚本语言:Shell、Python 等; 6、对云平台有一定的了解,有使用经验者优先; 7、熟悉 Docker、K8S/Istio 等容器技术和工具者优先; 8、具有良好的沟通、组织与协调的能力,有一定的抗压能力,能够接受出差。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责抖音电商数据治理工作,包括不限于成本、质量、效率,提升数据易用性、安全性及稳定性; 2、深入理解数据业务,发现并总结数据研发、数据成本、数据质量、数据安全等方面数据问题,提炼数据治理方法论,推动数据治理方法实施; 3、孵化并持续迭代优化数据治理产品,以系统化、智能化能力高效支撑数据业务快速发展。 职位要求: 1、熟练使用SQL、Python、Java等工具进行大型数据分析及建模; 2、熟练使用Hadoop、Hive、Spark、Flink等组件进行大数据场景数据开发; 3、有较强的逻辑分析、沟通及工作推进能力,具备优秀的技术与业务结合能力; 4、对数据治理有一定的实践经验,有良好业务意识,对数据业务场景敏感,能够横向协同、跨团队整合资源,形成完整的方案解决业务/产品的问题; 5、有良好数据治理产品经验者、有实时数据研发经验者优先。
  • 20k-35k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
  • 20k-35k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责 1.数据质量监控:负责监控金融信贷相关业务域数仓数据的准确性、一致性和完整性,确保数据质量符合业务需 求。 2.数据质量测试:设计并执行数据质量测试用例,验证数据计算逻辑、数据转换规则和数据存储的正确性 3.数据质量问题跟踪:跟踪测试中发现的数据质量问题,协调研发团队进行问题修复,并验证修复效果. 4.数据质量工具开发:参与数据质量管理平台的功能设计与开发,提升数据质量测试的自动化水平。 岗位任职要求 1.学历要求:本科及以上学历,计算机科学、软件工程、数据科学或相关专业。 2.工作经验:3年以上数据测试或数据质量测试经验,有金融信贷行业经验者优先。 3.大厂背景:具有阿里、腾讯、字节跳动、百度等大厂数据测试或数据质量测试经验者优先,。 4.技术能力: a).熟悉大数据技术栈(如Hadoop、Spark、Hive、Flink等)。 b).熟悉数据质量监控工具(如Apache Griffin、Great Expectations等)。 c).具备一定的编程能力(如Python、Java、SaL等),能够编写自动化测试脚本。 d).熟悉数据治理相关工具(如数据血缘、元数据管理等)者优先。 5.业务理解:对金融信贷业务有深入理解,能够根据业务需求设计数据质量测试方案 6.问题解决能力:具备较强的逻辑思维和问题解决能力,能够快速定位数据质量问题的根本原因。 7.沟通协作:具备良好的沟通能力和团队协作精神,能够与研发、业务团队高效协作。 加分项 1.有金融信贷行业数据质量测试经验者优先。 2.熟悉金融行业数据标准和监管要求者优先。 3.具备数据治理或数据资产管理经验者优先。
  • 25k-50k 经验3-5年 / 本科
    内容资讯,内容社区,社交媒体 / C轮 / 150-500人
    岗位职责: 1、负责公司数据平台系统的后台功能开发 2、负责汇总、监控内部用户反馈,持续改善用户反馈体验与效率; 3、从用户视角协助产品体验优化。 任职资格: 1、本科及以上学历,拥有 3 年以上后台研发经验 2、具备扎实的编码能力,掌握 Java/Python/Go 开发语言之一,熟练使用 SQL 进行数据访问 3、有大型后台系统开发经验或者 BI 系统开发经验 加分项: 1、有 BI 工具开发经验优先 2、熟悉 AWS、ALIYUN 等云厂商,有 Kubernetes、Docker 等云原生经验优先 3、熟悉大数据开源组件的架构和技术原理,具备Hadoop、Spark、Flink、DataX、DolphinScheduler等平台的开发和使用经验;
  • 14k-17k 经验5-10年 / 本科
    软件服务|咨询 / 上市公司 / 2000人以上
    职位描述: 1. 从事深交所大数据组测试工作,可能承担中小型项目测试负责人角色,负责整个项目测试工作; 2. 参与需求评审,负责测试需求分析、测试计划制定、测试用例设计、测试执行和测试报告输出; 3. 积极参与到测试各个环节,与开发、需求等部门人员进行沟通保证测试输入和输出的正确性; 4. 能够独立完成项目功能测试、性能测试和联调测试等,保证测试项目质量和进度; 5. 分析并推送测试中的问题解决,开发测试脚本和工具,有效提升产品测试效率。 任职要求: 1. ***计算机及相关专业本科及以上学历; 2. 具有5年及以上测试工作经验,精通测试流程和测试方法; 3. 熟悉SQL语言,能编写复杂的SQL脚本; 4. 熟悉linux常用命令,能独立进行测试环境搭建及维护; 5. 有数据仓库ETL及作业调度系统相关测试经验; 6. 工作积极主动,执行能力强,努力推进问题解决; 7. 了解大数据技术及相关组件,如Greenplum、Hadoop、Kakfa、Flink等优先考虑。
  • 18k-25k·17薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 : 1、负责系统运维工作,主要包括应用系统的部署上线、变更发布、监控及故障处理等; 2、负责所负责定期的应用系统风险点梳理,监控及发现生产环境的问题和隐患,提升系统可用性; 3、所负责应用系统,协同并解决业务部门在系统使用中的问题跟踪 4、负责定期复盘和完善运维及监控体系。 任职资格 : 1、大学本科及以上学历,3年以上应用系统运维经验,具备3年以上运维管理经验; 2、熟悉linux/unix、中间件、容器,k8s相关技术,有运维开发或SRE经验优先; 3、熟悉PG/MYSQL/Redis使用及性能优化技术; 4、熟悉java/golang/python中至少一种开发语言; 5、具体良好的沟通能力,逻辑思维能力和团队合作精神,极强的工作责任心,能承担一定的工作压力。
  • 20k-30k·13薪 经验5-10年 / 本科
    科技金融,人工智能服务 / 上市公司 / 500-2000人
    职位描述: 1、负责业务系统的运维保障工作,通过不断优化技术架构,为业务提供安全、稳定,高效,易用的系统服务能力,支撑业务和数据量的快速扩张 2、负责公司关键业务线的高可用能力保障,沉淀业务保障关键能力,如应急响应、故障恢复、故障演练,健康巡检等 3、负责业务系统相关各组件运行状态的整体把控,根据业务需要,快速进行优化调整,解决组件相关系统瓶颈 4、具备自主学习思考能力,通过不断提高技术能力解决运维体系的稳定性、效率、成本、管理等场景问题 职位要求: 1、计算机相关专业,五年以上互联网运维工作经验 2、深入理解Linux系统,对内核参数、系统参数有优化经验 3、熟悉Haproxy、LVS、DNS、Nginx、MySql、Redis、Tomcat、Zookeeper、RabbitMQ、Kafka、Prometheus等主流开源软件技术及相关高可用架构 4、熟悉分布式对象存储,如:seaweedFS、minio、ceph等 5、熟悉shell或python脚本编写和开发,能根据需求开发脚本工具 6、熟悉Docker,Kubernetes容器化环境 7、有高并发业务系统运维经验 8、熟悉java类应用系统、微服务架构、分布式系统等运维工作 9、具有一定网络基础知识,了解常见网络设备日常配置 10、有很好的技术敏感度和风险识别能力,能够独立分析、排查疑难问题
  • 30k-50k·16薪 经验3-5年 / 本科
    消费生活 / 上市公司 / 2000人以上
    岗位职责: 1. 负责美团核心交易业务的稳定性保障工作; 2. 参与设计与开发devops工具,包括但不限于容量规划、资源管理、机房容灾、故障分析等; 3. 精细化数据运营,包括可用性指标、历史事故、资源利用率等,挖掘系统薄弱点,落地改进项目; 4. 积累运维最佳实践,为业务架构设计与组件选型提供指导,输出运维技术文档。 岗位基本要求: 1、 计算机相关专业。深入理解Linux系统,精通TCP/IP、HTTP等协议,具备扎实的网络、计算机体系结构方面的知识; 2、 至少熟悉一门编程语言,java/python/go,能开发工具提升效率; 3、 热爱技术,责任感强,拥有强大的项目执行力和良好的沟通协作能力; 4、 工作细致、善于思考,有较强的分析和解决问题的能力; 5、 具备良好的沟通以及协调能力,能独当一面,也擅长团队作战。
  • 15k-25k 经验1-3年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1、负责分布式或集中式存储系统的部署以及日常运维工作; 2、解决项目实施运维过程中的技术难题,并提供相应的技术支持; 3、负责存储系统的运维保障、效率提升、风险管控; 4、负责存储系统复杂的服务交付、变更、事件、问题处理、服务可用性及连续性的管理; 5、负责存储系统的监控和运维工具建设、主动预防、运营分析等运维安全保障性工作。 任职要求 1、负责分布式或集中式存储系统的部署以及日常运维工作; 2、解决项目实施运维过程中的技术难题,并提供相应的技术支持; 3、负责存储系统的运维保障、效率提升、风险管控; 4、负责存储系统复杂的服务交付、变更、事件、问题处理、服务可用性及连续性的管理; 5、负责存储系统的监控和运维工具建设、主动预防、运营分析等运维安全保障性工作。
  • 12k-15k 经验5-10年 / 本科
    软件服务|咨询 / 上市公司 / 2000人以上
    工作内容: 1、协助开展云盾平台(运行部分)需求管理、进度管理、质量管理 2、协助开展运行风险识别、缺陷管理及反措管理 岗位要求: 1、本科,计算机相关专业,5年以上相关工作经验 2、有南网项目经验。
  • 25k-50k 经验5-10年 / 不限
    工具类产品,内容社区,音频|视频媒体 / 上市公司 / 2000人以上
    岗位职责: 1. 负责研发部基建运维,设计、部署并维护可靠、可扩展的基础设施系统,包括云计算、容器、分布式系统等; 2. 负责参与持续交付和自动化建设,制定持续集成和持续交付的流程和工具; 3. 负责事故响应和故障排查,快速定位并解决生产环境中的问题,分析事故原因,制定预防措施,持续改进系统可靠性。 岗位要求: 1.熟悉至少一种主流编程语言,如Python、Go、Java等,熟练进行代码编写、调试和优化; 2.熟悉常见的系统架构模式及常见云计算平台, 如微服务架构、分布式系统等,具备部署架构设计和优化经验及在云环境下构建和优化系统的经验; 3.熟悉SLI/SLO/SLA指标管理,对系统可用性、容错性等进行持续监控和优化,同时具备成本优化意识, 能够通过资源分析、负载预测等手段,优化系统运行成本。
  • 15k-30k 经验5-10年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    一、职位基本信息 职位名称:大数据与 AI 产品行销经理 二、职位概述 您将作为连接产品(大数据与 AI 产品)、市场与客户的桥梁,全 面推动亚信数智一体化平台在运营商及各垂直行业的广泛应用与加 速落地,助力企业实现数字化转型。 三、主要职责  产品优势宣贯与市场推广 深入理解亚信大数据与 AI 产品的核心优势与技术能力,对各前台 事业部、合作伙伴及最终客户进行产品宣讲与培训,确保产品价值得 到广泛认知与认可。 制定并执行全面的市场推广策略,包括线上线下活动、行业展会、 研讨会等,提升产品知名度与品牌形象,吸引潜在客户关注。  推动产品加速落地 与各前台事业部紧密合作,深入了解客户需求与痛点,定制化产 品解决方案,推动产品在运营商及各垂直行业的快速应用与落地。 系统性负责产品从商机挖掘到订单签订的端到端流程管理,包括 需求收集、方案制定、商务谈判、合同签订等,确保产品从研发侧快 速走向客户侧,实现商业价值。  客户交流与商机拓展 负责编写面向客户的产品布道资料,包括产品白皮书、案例分享、 技术文档等,为销售与售前团队提供有力支持。 与销售、售前工程师共同进行客户拜访与交流,深入了解客户需 求,挖掘潜在商机,促进业务合作与拓展。  市场反馈与产品优化 定期收集客户反馈与市场动态,对产品性能、功能、用户体验等 方面进行评估与分析,为产品迭代与优化提供数据支持。 与研发团队保持密切沟通,将市场需求与客户反馈转化为具体的 产品改进建议,推动产品持续升级与创新。 四、任职要求  本科及以上学历,计算机科学、市场营销或相关领域背景优先。  至少 5 年 IT 产品行销经验,熟悉大数据与 AI 产品及其市场趋势。  具备出色的市场分析与策划能力,能够独立完成产品市场推广与 品牌建设。  优秀的沟通与团队协作能力,能够与各前台事业部、合作伙伴及 客户建立良好关系。  具备较强的学习能力和创新意识,能够快速适应市场变化与产品 迭代。
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 25k-35k·15薪 经验5-10年 / 本科
    文娱丨内容 / D轮及以上 / 500-2000人
    岗位职责 1.负责小川业务及各类中间件(k8s/hadoop/hbase/hive/spark/hdfs/kafka)的运维,涉及千台规模的服务器,保障业务服务的稳定性和可用性; 2.负责和参与自动化运维系统及平台的建设; 3.负责优化部门运维流程提升运维效率 任职要求 1.精通Linux操作系统的配置,管理及优化,能够独立排查及解决操作系统层的各类问题; 2.掌握Hadoop,Kafka,Zookeeper,Hbase,Spark原理、部署以及TROUBLE SHOOTING,有过实际工作经验; 3.至少精通Python,shell,golang其中一项;有良好的系统性能优化及故障排除能力; 4.熟悉saltstack/ansible等配置管理工具; 5.能够利用各种开源监控工具、运维工具,HA、负载均衡软件完成工作任务 6.熟悉MYSQL、redis其中之一,熟练掌握SQL