-
职位职责: 1、负责抖音电商数据治理工作,包括不限于成本、质量、效率,提升数据易用性、安全性及稳定性; 2、深入理解数据业务,发现并总结数据研发、数据成本、数据质量、数据安全等方面数据问题,提炼数据治理方法论,推动数据治理方法实施; 3、孵化并持续迭代优化数据治理产品,以系统化、智能化能力高效支撑数据业务快速发展。 职位要求: 1、熟练使用SQL、Python、Java等工具进行大型数据分析及建模; 2、熟练使用Hadoop、Hive、Spark、Flink等组件进行大数据场景数据开发; 3、有较强的逻辑分析、沟通及工作推进能力,具备优秀的技术与业务结合能力; 4、对数据治理有一定的实践经验,有良好业务意识,对数据业务场景敏感,能够横向协同、跨团队整合资源,形成完整的方案解决业务/产品的问题; 5、有良好数据治理产品经验者、有实时数据研发经验者优先。
-
职位职责: 1、保障全公司包括抖音、国际化短视频、广告等业务的数据稳定性,提升数据平台服务产品质量,保障业务的持续可用; 2、基于运维经验、工具、平台对线上事故快速响应提升处理效率,同时优化运维体系,推动提升服务可靠性、可扩展性,保障系统SLA,同时推进运维自动化提效; 3、通过持续的全方位运营,包括运维规范及最佳实践、监控及可用性指标、历史事故等,为数据高可用架构设计和选型提供指导,同时能够系统性排查架构风险隐患,推进改进项落地; 4、参与大数据运维平台的研发、自动化建设与持续迭代,引导产品的运维模式向数字化,智能化方向发展演进。 职位要求: 1、计算机相关专业,本科及以上学历; 2、3年及以上SRE运维经验,熟悉运维体系建设与稳定性保障; 3、熟悉Linux、网络等系统运维技能,具备运维问题分析、应急解决以及性能调优等能力; 4、熟悉至少一门编程语言,包括但不限于:Shell、Python、Java、Scala、PHP、Go等; 5、具备良好的沟通表达、团队协作以及自驱能力,促进跨团队的合作; 6、有大数据稳定性问题排查经验,具备清晰排查思路,具备快速定位问题能力加分。
-
岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
-
【职责描述】: 1.结合微博平台特征与资源优势,为品牌广告销售提供策划支持,为客户提供全面的营销解决方案; 2.参与客户提案沟通,支持营销方案执行落地; 3.整理及总结不同行业客户的特性,产出 3C/日化/食品饮料等行业的行业营销研究报告; 4.结合业务需求输出模块化营销策略,如行业整合营销通案、事件营销、社会化营销及日常传播的策略规划; 【岗位要求】: 1.大学本科以上学历,3 年及以上广告公司或媒体策划类相关从业经历; 2.逻辑思维能力和创意能力强,文字功底好,熟练运用 PPT 软件; 3.熟悉广告、网络、媒体运营模式,有较强的资源整合学习能力; 4.出色的写作、概念梳理能力,熟悉策划工作流程,并掌握营销工具,能迅速产出营销概念; 5.出色的语言表达能力,并能熟练得进行现场提案或案例讲解; 6.具有相关行业数字策划经验者优先考虑,如 3C、日化、食品饮料、家电及鞋服行业; 7.能承担工作压力,并合理自我调节工作节奏; 8.良好的团队合作精神以及人际沟通能力; 9.热爱互联网媒体行业,富有工作激情。
-
岗位职责: 1. 负责音乐内容以及艺人的整合营销,提升艺人的知名度和商业价值; 2. 负责深入定位及挖掘不同艺人的商业价值,盘点梳理艺人资源,针对不同需求进行定向资源匹配和组合; 3. 负责艺人商业合作的创意性策划,实现艺人与品牌客户的共赢; 4. 负责为艺人拓展新的IP与品牌合作机会,包括但不限于综艺影视/晚会/游戏/动漫以及广告IP代言等; 5. 负责为艺人拓展更多的演出及活动机会,在巡演营销策划方面贡献创意并进行资源赋能。 岗位要求: 1. 8年以上营销/商业化相关工作经验,有极强的商业谈判与拓展能力,拥有品牌客户资源者优先; 2. 协调统筹及沟通能力强,具有运营思维,可以充分整合利用资源、挖掘和拓展资源,并合理分配资源; 3. 善于解决难点突破瓶颈,可提供关键性问题解决思路; 4. 具备较强的责任心及合作意识,能够有效推动内外部开展工作。
-
工作职责 1.负责自动驾驶数据平台、仿真平台、标注平台、训练平台及相关工具链的架构设计和研发工作,打造符合前瞻、量产智驾技术研发需要的数据闭环 2.负责大规模、可伸缩计算集群系统的解决方案的设计和搭建,以及核心技术的研究、开发和优化,负责平台长期运维支持和架构优化 3.负责自动驾驶软件系统框架架构设计和开发,与硬件、算法和测试团队合作,持续集成并优化自动驾驶系统 4.负责量产车型的数据驱动影子模式、数据记录等车端功能设计、系统架构和开发 工作要求 1.学历要求:**本科及以上学历,英语CET-4及以上, 2.工作经验:具有6年及以上相关工作经验,特别优秀者可适当放宽 3.其他: ① 计算机科学与技术、软件工程专业、自动化控制专业、人工智能等相关专业优先 ② 满足以下条件之一: 1)熟悉软件开发流程、具备扎实的算法和数据结构、算法、操作系统、网络、数据库等知识 2)熟悉几何、计算机图形学、动态系统建模等理论和方法 3)精通C/C++/Go/Python/nodejs一种或多种编程语言,熟悉HTML/CSS/React/REST 4)熟悉Linux/RTOS环境下开发与调试,有嵌入式操作系统和实时操作系统的内核或驱动开发经验,有多进程多线程、中间件、计算机视觉应用(OpenCV)、CUDA、TensorRT等开发经验优先 5)有丰富的Gin/Pylons/Django Web框架开发经验 6)熟悉PyTorch,TensorFlow,TensorRT等深度学习框架,有模型训练、调优相关经验 7)熟悉Spark/K8S相关技术,有相关开发经验,有过海量数据系统开发经验优先,有过集群系统开发、部署和优化经验优先 8)熟悉软件开发流程以及DevOps完整流程,熟悉DevOps相关系统原理,有相关工具和使用经验、如Jenkins,Argo, K8S,Docker,Kubernetes等 ③ 工作认真负责,具有良好的团队合作能力、沟通协调能力和学习能力 ④ 有Tier 1或主机厂相关工作经验优先
-
岗位职责: 1. 负责研发部基建运维,设计、部署并维护可靠、可扩展的基础设施系统,包括云计算、容器、分布式系统等; 2. 负责参与持续交付和自动化建设,制定持续集成和持续交付的流程和工具; 3. 负责事故响应和故障排查,快速定位并解决生产环境中的问题,分析事故原因,制定预防措施,持续改进系统可靠性。 岗位要求: 1.熟悉至少一种主流编程语言,如Python、Go、Java等,熟练进行代码编写、调试和优化; 2.熟悉常见的系统架构模式及常见云计算平台, 如微服务架构、分布式系统等,具备部署架构设计和优化经验及在云环境下构建和优化系统的经验; 3.熟悉SLI/SLO/SLA指标管理,对系统可用性、容错性等进行持续监控和优化,同时具备成本优化意识, 能够通过资源分析、负载预测等手段,优化系统运行成本。
-
工作职责 1、负责大数据相关系统的开发、测试、部署及上线工作,参与代码评审,确保开发质量; 2、参与业务部门临时数据分析需求,合作开展专项数据分析工作; 3、协助运营人员处理生产问题并提供技术支持,解答业务部门反馈的数据问题及各类咨询; 4、参与公司数据分析需求调研、评估、系统分析及架构设计工作。 任职要求 1、本科及以上学历,计算机、数学、统计学、管理信息类相关专业; 2、熟悉关系型数据库如Oracle、Postgresql等的使用、可熟练编写SQL实现业务逻辑,了解SQL性能调优; 3、熟悉Hadoop生态圈组件,包括但不限于Hive、Spark、HBase、Kylin、Flink、ES、Kafka等; 4、具备良好数据分析及处理能力,熟悉常见的数据处理工具,如ETL、BI工具、Python等; 5、具有较强的责任心和服务意识,良好问题分析及处理能力。
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
工作职责 1. 保障公司核心业务系统的运维管理工作,快速响应并解决线上问题,做业务稳定的“守护者”; 2. 负责业务系统发布变更管理,评估风险、执行验证,确保每一次生产发布变更都安全可控; 3. 开展业务系统容量分析与性能优化,提前识别瓶颈,支撑业务可持续增长; 4. 负责运维自动化平台建设与持续优化,推动运维工作向智能化运维方向迈进。 任职要求 1. 计算机相关专业本科及以上学历,2年以上IT运维或DevOps经验; 2. 熟悉Linux系统操作,掌握Shell或Python脚本编程; 3. 熟悉Kubernetes、Docker基本原理与常用操作; 4. 熟悉主流数据库(如MySQL、PostgreSQL、Redis、TiDB)的日常维护与调优; 5. 具备良好的逻辑思维和问题排查能力,能独立承担运维任务。 为什么选择我们? 稳定有保障:公司业务模式成熟,无大规模裁员计划,注重员工长期发展 成长看得见:定期组织技术分享、外部培训,支持向SRE、运维开发等方向转型 团队很靠谱:成员均来自一线互联网/金融企业,技术扎实、氛围开放、互相支持 工作有尊严:拒绝“救火式加班”,倡导通过自动化和预防性运维提升效率 参与核心系统:你将直接负责公司主干系统的稳定性建设,技术价值真实可见 我们承诺: 在这里,你不会只是一个“修锅侠”。 我们将为你提供清晰的成长路径、充分的技术授权和应有的尊重。 无论外部环境如何变化,我们都希望与你一起,走得稳,也走得远。
-
工作职责 1.异常分析处理,快速恢复应用系统故障,确保业务正常运行; 2.主动预防,分析应用的运行趋势找出潜在问题并防止其发生; 3.从运维角度评估应用架构可用性,变更风险,确保系统运行稳定; 4.有自动化理念,不断优化运维规范,搭建配置标准化及运维自动化平台建设; 5.探索前沿AI技术在运维领域的创新应用,推动新技术在运维场景中的落地应用。 任职要求 1、本科及以上学历,计算机相关专业,3年以上系统运维(SRE)或开发经验; 2、深入理解运维体系架构,具备扎实的运维专业知识,有故障排查、性能优化、容量规划等运维实战经验; 3、熟悉容器、微服务等云原生技术,有运维大规模服务架构应用经验; 4、熟悉主流AI框架,具备运维模型训练、调优和部署经验; 5、有良好的逻辑思维和分析能力,热衷于解决实际问题、追求极致 6、强烈的责任心、进取心、团队合作精神; 7、有知名互联网公司工作经历优先,有AI应用运维经验优先。
-
工作职责 1、自动化运营脚本或工具平台开发,提升运维工作效率; 2、梳理设计实施基础架构/应用监控,建立完备的监控体系; 3、异常分析处理,快速恢复应用系统故障,确保业务正常进行; 4、7*24h应急响应,紧急情况下执行应急预案快速恢复异常; 5. 响应和处理中间件&计算领域的日常事件,并做好事件的分析和总结,作为事件智能化的知识输入。 任职要求 1、本科及以上学历,计算机相关专业,3年及以上开发或运维工作经验; 2、有kafka/elasticsearch/rocketmq/tomcat/nginx/weblogic等软件运维经验者优先; 3、精通linux/Unix的基本操作和维护以及性能调优,熟悉常见网络配置等操作,熟悉TCP/IP协议的原理; 4、掌握shell,python等开发语言,有运维平台开发经验者优先; 5、了解docker相关技术,有基于kubernetes容器云平台开发或运维经验者优先; 6、有大规模云底座运维、应用集群运维经验者优先; 7、可以接受7*24三班值班。
-
■岗位职责 负责智慧政务、智慧城市业务国内、省内党政机关、企事业单位的市场开拓、活动策划和项目运维; 负责大河智库(大数据与人工智能)业务国内、省内党政机关、企事业单位的市场开拓、营销策划和项目运维。 ■岗位条件 (1)学历:普通高招大学本科及以上学历。 (2)年龄:原则上本科生不超过28周岁,硕士研究生不超过30岁,特别优秀者可适当放宽。 (3)专业:新闻与传播学、文学、法学、商学、经济学、统计学、管理学、马克思主义哲学、历史文化学、文化产业与旅游管理学、广播电视编导、摄影摄像、导演剪辑、市场营销学、经济金融、工业设计、电子商务、公共事业管理等相关专业。 (4)基础能力: 熟悉我国国体、政体,谙熟党政机关、企事业单位(包括金融保险证券投资、大型国企、上市公司等)的运行机制,了解智慧政务、智慧城市、智慧产业、大数字与人工智能在本行业的应用和运行规律,掌握政务、媒体行业信息化项目的发展趋势、业务流程和操作规范; 具备2-3年项目管理经验,精通项目管理的知识体系,如项目启动、规划、执行、监控和收尾等各个阶段的工作流程和方法,熟悉项目管理工具和技术; 具备优秀的协调沟通能力、团队管理能力、实践管理能力和问题解决能力; 具备风险管理知识,能够识别、评估和应对项目中的风险; 了解质量管理知识,确保项目交付成果符合质量标准。 (5)放宽及优先条件 具有符合本岗位特殊才能的,学历和年龄可适当放宽; 具有相关从业经历、从业经验且业绩卓著的,或者有客户资源、媒体工作经验的,学历和年龄可适当放宽,并优先考虑; 其他符合放宽或优先条件的。
-
团队背景 隶属于6767搜推工程策略组6767,是公司搜索与推荐业务的核心技术支撑团队。团队技术氛围开放,鼓励创新实践,团队成员具备丰富的分布式系统与海量数据处理经验。 岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: 61基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; 61设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; 61通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 61负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; 61基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; 61针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 61**本科及以上学历,计算机相关专业,大数据开发相关经验; 616767熟练掌握并使用6767(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; 61熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; 61具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 61具有良好的沟通能力和组织协调能 6767加分项:6767 61有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; 61理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; 61对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
-
岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: •基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; •设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; •通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 •负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; •基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; •针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 •**本科及以上学历,计算机相关专业,大数据开发相关经验; •熟练掌握并使用(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; •熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; •具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 •具有良好的沟通能力和组织协调能 加分项: •有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; •理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; •对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
热门职位


