• 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、保障全公司包括抖音、国际化短视频、广告等业务的数据稳定性,提升数据平台服务产品质量,保障业务的持续可用; 2、基于运维经验、工具、平台对线上事故快速响应提升处理效率,同时优化运维体系,推动提升服务可靠性、可扩展性,保障系统SLA,同时推进运维自动化提效; 3、通过持续的全方位运营,包括运维规范及最佳实践、监控及可用性指标、历史事故等,为数据高可用架构设计和选型提供指导,同时能够系统性排查架构风险隐患,推进改进项落地; 4、参与大数据运维平台的研发、自动化建设与持续迭代,引导产品的运维模式向数字化,智能化方向发展演进。 职位要求: 1、计算机相关专业,本科及以上学历; 2、3年及以上SRE运维经验,熟悉运维体系建设与稳定性保障; 3、熟悉Linux、网络等系统运维技能,具备运维问题分析、应急解决以及性能调优等能力; 4、熟悉至少一门编程语言,包括但不限于:Shell、Python、Java、Scala、PHP、Go等; 5、具备良好的沟通表达、团队协作以及自驱能力,促进跨团队的合作; 6、有大数据稳定性问题排查经验,具备清晰排查思路,具备快速定位问题能力加分。
  • 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
  • 30k-60k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、参与大数据存储相关产品的设计,负责存储产品相关功能的设计、交付和维护; 2、发现产品缺陷,设计高可用、易扩展的方案解决问题,实现产品高质量、高效率发布; 3、进行有效沟通协作,充分调动资源,推动产品有序高效落地。 职位要求: 1、熟悉大型分布式存储系统的关键技术点,能分析业务需求,产出产品解决方案; 2、熟悉Java/C/C++/Go等其中一种语言,熟悉网络编程和多线程编程,参与研发,完成产品落地; 3、熟悉大数据体系生态,除存储系统外,熟悉至少两种相关生态组件(如Yarn、Spark、Flink、Kafka、HBase)的原理、架构和应用; 4、具备较强的问题分析能力和团队合作能力,有较强的自我驱动能力和产品意识 。 具备以下条件者优先: 1、参与过PB级别数据量分布式存储系统研发,有过大规模数据集群运维、故障排查及调优等实战经验; 2、有ES相关的产品研发经验,特别是内核相关的开源项目参与经验; 3、参与过大数据开源项目的开发。
  • 30k-50k·16薪 经验3-5年 / 本科
    消费生活 / 上市公司 / 2000人以上
    岗位职责: 1. 负责美团核心交易业务的稳定性保障工作; 2. 参与设计与开发devops工具,包括但不限于容量规划、资源管理、机房容灾、故障分析等; 3. 精细化数据运营,包括可用性指标、历史事故、资源利用率等,挖掘系统薄弱点,落地改进项目; 4. 积累运维最佳实践,为业务架构设计与组件选型提供指导,输出运维技术文档。 岗位基本要求: 1、 计算机相关专业。深入理解Linux系统,精通TCP/IP、HTTP等协议,具备扎实的网络、计算机体系结构方面的知识; 2、 至少熟悉一门编程语言,java/python/go,能开发工具提升效率; 3、 热爱技术,责任感强,拥有强大的项目执行力和良好的沟通协作能力; 4、 工作细致、善于思考,有较强的分析和解决问题的能力; 5、 具备良好的沟通以及协调能力,能独当一面,也擅长团队作战。
  • 20k-35k·15薪 经验3-5年 / 本科
    科技金融,人工智能服务 / 上市公司 / 500-2000人
    工作职责: 1,产品设计与规划:结合公司业务目标,负责维护&迭代设备反欺诈产品,包括但不限于设备指纹、行为分析、风险评分等核心功能模块,确保产品能够有效识别和防范欺诈行为。 2,产品迭代与优化:持续监控产品效果,分析欺诈行为的变化趋势,推动产品迭代和优化,确保反欺诈策略的及时更新和有效性。 跨团队协作:主导复杂项目的产品设计与实施,能够跨团队、跨公司推动项目落地,确保项目按时交付并达到预期效果。 职位要求: 1,行业经验:具备3年以上互联网信贷、金融科技或反欺诈领域的产品经验,有成熟的产品设计经验及方法论,熟悉设备反欺诈相关技术和产品。 2,项目经验:有设备反欺诈、风控模型项目经验者优先,具备金融科技对外商业化产品经验者优先,能够快速理解并应对复杂的业务场景。 3,业务敏感度:具备较强的业务sense,能够将产品设计与业务发展紧密结合,思维敏锐,具备创造力和创新精神。 项目管理能力:有复杂项目的产品主导经验,能够跨团队、跨公司推动项目落地,具备独立思考和判断能力,能够在复杂环境中做出有效决策。 4,逻辑思维与沟通能力:思维清晰,逻辑性强,具备强烈的好奇心和探索精神,勇于面对挑战。具备优秀的沟通能力、自学能力和团队协作精神,能够有效推动团队达成目标。 加分项: 1,熟悉设备指纹、行为分析、机器学习等反欺诈技术; 2,有大型金融机构或互联网公司的反欺诈产品经验; 3,具备较强的数据分析和风险控制能力,能够通过数据驱动产品优化。
  • 20k-35k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
  • 20k-30k·13薪 经验5-10年 / 本科
    科技金融,人工智能服务 / 上市公司 / 500-2000人
    职位描述: 1、负责业务系统的运维保障工作,通过不断优化技术架构,为业务提供安全、稳定,高效,易用的系统服务能力,支撑业务和数据量的快速扩张 2、负责公司关键业务线的高可用能力保障,沉淀业务保障关键能力,如应急响应、故障恢复、故障演练,健康巡检等 3、负责业务系统相关各组件运行状态的整体把控,根据业务需要,快速进行优化调整,解决组件相关系统瓶颈 4、具备自主学习思考能力,通过不断提高技术能力解决运维体系的稳定性、效率、成本、管理等场景问题 职位要求: 1、计算机相关专业,五年以上互联网运维工作经验 2、深入理解Linux系统,对内核参数、系统参数有优化经验 3、熟悉Haproxy、LVS、DNS、Nginx、MySql、Redis、Tomcat、Zookeeper、RabbitMQ、Kafka、Prometheus等主流开源软件技术及相关高可用架构 4、熟悉分布式对象存储,如:seaweedFS、minio、ceph等 5、熟悉shell或python脚本编写和开发,能根据需求开发脚本工具 6、熟悉Docker,Kubernetes容器化环境 7、有高并发业务系统运维经验 8、熟悉java类应用系统、微服务架构、分布式系统等运维工作 9、具有一定网络基础知识,了解常见网络设备日常配置 10、有很好的技术敏感度和风险识别能力,能够独立分析、排查疑难问题
  • 15k-22k 经验不限 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
  • 25k-50k 经验5-10年 / 不限
    工具类产品,内容社区,音频|视频媒体 / 上市公司 / 2000人以上
    岗位职责: 1. 负责研发部基建运维,设计、部署并维护可靠、可扩展的基础设施系统,包括云计算、容器、分布式系统等; 2. 负责参与持续交付和自动化建设,制定持续集成和持续交付的流程和工具; 3. 负责事故响应和故障排查,快速定位并解决生产环境中的问题,分析事故原因,制定预防措施,持续改进系统可靠性。 岗位要求: 1.熟悉至少一种主流编程语言,如Python、Go、Java等,熟练进行代码编写、调试和优化; 2.熟悉常见的系统架构模式及常见云计算平台, 如微服务架构、分布式系统等,具备部署架构设计和优化经验及在云环境下构建和优化系统的经验; 3.熟悉SLI/SLO/SLA指标管理,对系统可用性、容错性等进行持续监控和优化,同时具备成本优化意识, 能够通过资源分析、负载预测等手段,优化系统运行成本。
  • 15k-30k 经验5-10年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    一、职位基本信息 职位名称:大数据与 AI 产品行销经理 二、职位概述 您将作为连接产品(大数据与 AI 产品)、市场与客户的桥梁,全 面推动亚信数智一体化平台在运营商及各垂直行业的广泛应用与加 速落地,助力企业实现数字化转型。 三、主要职责  产品优势宣贯与市场推广 深入理解亚信大数据与 AI 产品的核心优势与技术能力,对各前台 事业部、合作伙伴及最终客户进行产品宣讲与培训,确保产品价值得 到广泛认知与认可。 制定并执行全面的市场推广策略,包括线上线下活动、行业展会、 研讨会等,提升产品知名度与品牌形象,吸引潜在客户关注。  推动产品加速落地 与各前台事业部紧密合作,深入了解客户需求与痛点,定制化产 品解决方案,推动产品在运营商及各垂直行业的快速应用与落地。 系统性负责产品从商机挖掘到订单签订的端到端流程管理,包括 需求收集、方案制定、商务谈判、合同签订等,确保产品从研发侧快 速走向客户侧,实现商业价值。  客户交流与商机拓展 负责编写面向客户的产品布道资料,包括产品白皮书、案例分享、 技术文档等,为销售与售前团队提供有力支持。 与销售、售前工程师共同进行客户拜访与交流,深入了解客户需 求,挖掘潜在商机,促进业务合作与拓展。  市场反馈与产品优化 定期收集客户反馈与市场动态,对产品性能、功能、用户体验等 方面进行评估与分析,为产品迭代与优化提供数据支持。 与研发团队保持密切沟通,将市场需求与客户反馈转化为具体的 产品改进建议,推动产品持续升级与创新。 四、任职要求  本科及以上学历,计算机科学、市场营销或相关领域背景优先。  至少 5 年 IT 产品行销经验,熟悉大数据与 AI 产品及其市场趋势。  具备出色的市场分析与策划能力,能够独立完成产品市场推广与 品牌建设。  优秀的沟通与团队协作能力,能够与各前台事业部、合作伙伴及 客户建立良好关系。  具备较强的学习能力和创新意识,能够快速适应市场变化与产品 迭代。
  • 25k-50k 经验3-5年 / 本科
    内容资讯,内容社区,社交媒体 / C轮 / 150-500人
    岗位职责: 1、负责公司数据平台系统的后台功能开发 2、负责汇总、监控内部用户反馈,持续改善用户反馈体验与效率; 3、从用户视角协助产品体验优化。 任职资格: 1、本科及以上学历,拥有 3 年以上后台研发经验 2、具备扎实的编码能力,掌握 Java/Python/Go 开发语言之一,熟练使用 SQL 进行数据访问 3、有大型后台系统开发经验或者 BI 系统开发经验 加分项: 1、有 BI 工具开发经验优先 2、熟悉 AWS、ALIYUN 等云厂商,有 Kubernetes、Docker 等云原生经验优先 3、熟悉大数据开源组件的架构和技术原理,具备Hadoop、Spark、Flink、DataX、DolphinScheduler等平台的开发和使用经验;
  • 14k-17k 经验5-10年 / 本科
    软件服务|咨询 / 上市公司 / 2000人以上
    职位描述: 1. 从事深交所大数据组测试工作,可能承担中小型项目测试负责人角色,负责整个项目测试工作; 2. 参与需求评审,负责测试需求分析、测试计划制定、测试用例设计、测试执行和测试报告输出; 3. 积极参与到测试各个环节,与开发、需求等部门人员进行沟通保证测试输入和输出的正确性; 4. 能够独立完成项目功能测试、性能测试和联调测试等,保证测试项目质量和进度; 5. 分析并推送测试中的问题解决,开发测试脚本和工具,有效提升产品测试效率。 任职要求: 1. ***计算机及相关专业本科及以上学历; 2. 具有5年及以上测试工作经验,精通测试流程和测试方法; 3. 熟悉SQL语言,能编写复杂的SQL脚本; 4. 熟悉linux常用命令,能独立进行测试环境搭建及维护; 5. 有数据仓库ETL及作业调度系统相关测试经验; 6. 工作积极主动,执行能力强,努力推进问题解决; 7. 了解大数据技术及相关组件,如Greenplum、Hadoop、Kakfa、Flink等优先考虑。
  • 40k-60k·15薪 经验10年以上 / 本科
    汽车丨出行 / 未融资 / 2000人以上
    工作职责 1.负责自动驾驶数据平台、仿真平台、标注平台、训练平台及相关工具链的架构设计和研发工作,打造符合前瞻、量产智驾技术研发需要的数据闭环 2.负责大规模、可伸缩计算集群系统的解决方案的设计和搭建,以及核心技术的研究、开发和优化,负责平台长期运维支持和架构优化 3.负责自动驾驶软件系统框架架构设计和开发,与硬件、算法和测试团队合作,持续集成并优化自动驾驶系统 4.负责量产车型的数据驱动影子模式、数据记录等车端功能设计、系统架构和开发 工作要求 1.学历要求:**本科及以上学历,英语CET-4及以上, 2.工作经验:具有6年及以上相关工作经验,特别优秀者可适当放宽 3.其他: ① 计算机科学与技术、软件工程专业、自动化控制专业、人工智能等相关专业优先 ② 满足以下条件之一: 1)熟悉软件开发流程、具备扎实的算法和数据结构、算法、操作系统、网络、数据库等知识 2)熟悉几何、计算机图形学、动态系统建模等理论和方法 3)精通C/C++/Go/Python/nodejs一种或多种编程语言,熟悉HTML/CSS/React/REST 4)熟悉Linux/RTOS环境下开发与调试,有嵌入式操作系统和实时操作系统的内核或驱动开发经验,有多进程多线程、中间件、计算机视觉应用(OpenCV)、CUDA、TensorRT等开发经验优先 5)有丰富的Gin/Pylons/Django Web框架开发经验 6)熟悉PyTorch,TensorFlow,TensorRT等深度学习框架,有模型训练、调优相关经验 7)熟悉Spark/K8S相关技术,有相关开发经验,有过海量数据系统开发经验优先,有过集群系统开发、部署和优化经验优先 8)熟悉软件开发流程以及DevOps完整流程,熟悉DevOps相关系统原理,有相关工具和使用经验、如Jenkins,Argo, K8S,Docker,Kubernetes等 ③ 工作认真负责,具有良好的团队合作能力、沟通协调能力和学习能力 ④ 有Tier 1或主机厂相关工作经验优先
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。