• 10k-20k 经验1-3年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、针对直播风险、行业动态和安全业务数据,持续评估前端安全标准覆盖状况。有效运用安全识别能力、数据分析能力,推进制定新标准方案并落地。持续优化减少标准漏洞对平台业务的安全影响 2、对安全标准效果进行周期性复盘,通过推进可行性测试、联动质量管理团队定位聚类问题&制定执行质量提升方案,持续提升安全团队执行质量及效能 3、持续搭建并优化标准管理后台、标准透传流程、安全标准文档等配套设施迭代维护 4、对接产品、技术、数据分析、舆情等部门,有效推进标准相关需求项目落地执行;对接基地,搭建合理有效的培训体系 职位要求: 1、本科及以上学历,新闻、传播学专业者优先。具备敏锐的风险洞察能力,有2年及以上安全、时政方向相关工作经验 2、熟悉互联网法律法规及热门事件的发酵机制,具备基础数据分析能力,善于发现问题和归纳总结,能够结合业务形态制定解决方案。有直播、视频内容质量管理经验,有标准制定经验者优先 3、具有较强的工作节奏适应能力、沟通表达能力,喜欢挑战,能持续坦然地面对新问题且适应一定的出差工作
  • 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责即时零售业务的离线与实时数据仓库的构建; 2、负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3、负责指标体系建设与维护; 4、深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 5、参与大数据应用规划,为数据产品、挖掘团队提供应用指导; 6、参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1、熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
  • 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
  • 移动互联网,广告营销 / 上市公司 / 2000人以上
    工作职责 1.对站内个人用户上传的视频按照规则要求进行审核、过滤等等; 2.实时监控上级监管部门以及相关法律法规所不允许上传的内容,并提供每日监控结果报告; 3.了解每周网上舆情,并针对相关热点事件有一定关注分析能力; 4.根据运营需要把握内容尺度,确保网站内容的合法性。 任职资格 1.大专以上学历,对视频网站有一定的了解,熟悉计算机操作,能熟练使用Office办公软件; 2.熟悉网络热门事件、名词、人物等新兴事物,并有一定的分析研判能力; 3.有责任心,诚实稳重,条理清晰,能承受一定的压力,能严格遵守公司各项规章制度; 4.具备一定的社会经验,能根据国家相关政策把握各种视频内容的尺度; 5.有较强的学习能力,学习熟记国家管理部门的政策法规; 6.本职位为三班倒,早班、午班、夜班,应聘者需能适应轮班制度; 7.有视频网站内容审核工作者优先。
  • 25k-35k 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1、负责NGFW 、 WAF 、容器安全、文件防**、APT其中2-3种安全设备的运营工作,包括产品、设备的部署实施、网络对接、策略调优及故障应急处理等工作; 2、负责云原生安全方案的调研、实施推广与安全运营等工作 3、负责安全产品的策略优化,深度运营,充分挖掘安全产品能力,提升安全防护效果; 4、负责日常安全事件的应急响应与处置,攻防演习活动的防护工作; 5、安全运营自动化脚本编写等相关工作 任职要求 1、大学本科及以上,5年以上信息安全工作经验 2、深入了解2-3种主流的安全产品及防护技术,如NGFW 、 WAF 、容器安全、 APT、文件防**等,熟悉安全产品的配置和使用; 3、熟悉云原生安全领域的内容,熟悉Docker、K8S、微服务架构等技术尤佳; 4、熟悉常见安全攻防对抗手段,熟悉安全技术与工具,有实际的安全防护经验。 5、责任心强,勇于挑战,有项目管理经验,能够承受一定的工作压力,具备良好的沟通表达能力; 6、熟悉Java、python等一种或多种程序语言尤佳;
  • 15k-30k 经验5-10年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 大模型安全风险的检测及防御能力构建 1. 研究大模型在落地应用全流程的上下游业务框架系统(开发/编排/应用/智能体/MCP等)面临的安全风险,形成相关框架的安全检测规范及安全最佳实践 2. 研究大模型相关安全漏洞(框架、插件库等)的情报收集及解析处理方法,将情报赋能内部漏洞管理流程,并研究大模型安全漏洞的防护和缓解措施 大模型安全领域赋能 1. 研究蓝紫军渗透测试场景下,使用大模型开展自动化测试及分析的技术,开展大模型在安全渗透测试领域的应用及落地 2. 研究威胁狩猎场景下,使用大模型开展隐藏威胁识别及关联数据分析的技术,开展大模型在威胁狩猎领域的应用研究及落地 3. 研究漏洞挖掘场景下,使用大模型开展黑白盒漏洞检测挖掘的技术,开展大模型在漏洞挖掘领域的应用及落地 4. 研究漏洞管理场景下,使用大模型开展漏洞情报处理、漏洞优先级分类等技术,开展大模型在漏洞管理领域的应用及落地 任职要求 学历与专业: 1. 本科及以上学历,计算机科学、人工智能、信息安全等相关专业 技术能力: 1. 熟练掌握大模型相关攻防技术,具备常见大模型安全风险的检测能力 2. 熟练掌握多智能体开发及编排技术,具备快速开发大模型应用的能力 3. 熟练掌握黑/白盒漏洞检测技术,具备代码审计及二进制逆向能力 经验/素质要求: 1、至少熟练掌握Java、Python、Golang等一种编程语言,能够熟练完成漏洞分析及利用工具编写 3. 在渗透测试、威胁狩猎、漏洞挖掘及漏洞管理领域开发过成熟大模型应用者优先 4. 出色的问题分析和解决能力,能深入解决大模型训练和应用存在的问题,有自主探索解决方案的能力 5. 良好的沟通协作能力,优秀的探索能力,能和团队一起探索新技术,推进技术进步
  • 12k-20k·17薪 经验5-10年 / 本科
    汽车丨出行 / 未融资 / 2000人以上
    1、负责车联网大数据标准化接入、整车产品体验洞察、整车健康监测平台等数据应用平台的设计、开发及优化,保障数据应用服务的稳定性与可用性 2、负责车联网大数据的离线、实时数据仓库建设,负责数据的生产、建模、应用及质量体系建设 3、搭建面向数据驱动整车产品闭环的数据指标体系和BI平台 4、负责车联网数据质量、数据资产、数据治理相关的开发工作,提升数据质量及易用性 5、积极探索大数据及人工智能技术的深度应用,并落地到智能网联产品业务 1.工作经验:5年以上数据仓库经验,具备优秀的数据架构和业务抽象能力,参与过中、大型数据仓库从0到1建设的优先,具有智能网联汽车、数据治理、埋点相关经验优先 2.其他: ①、掌握大数据生态技术栈,深入了解数据平台、BI、画像、分析等方向中的一项或多项 ②、熟练使用Hadoop生态相关技术并有相关实践经验,包括Hdfs、Mapreduce、Hive、Hbase、Spark、Kafka、Flink、StarRocks等,具备海量数据加工处理(ETL)相关经验 ③、深入了解常用的数据建模理论,具有丰富的实际模型设计及ETL开发经验,可独立把控数据仓库各层级的设计,有数据治理相关经验者优先 ④、对数据敏感,有较强的逻辑分析能力,有丰富的数据处理和分析经验,有复杂业务和算法的数据平台建设经验优先 ⑤、工作认真、负责、仔细,有良好的团队合作精神,良好的分析及沟通能力
  • 电商平台 / C轮 / 2000人以上
    (此岗位需要在南京或者深圳办公) 岗位职责: 1.大数据新技术规划、调研、选型及推广落地。 2.负责大数据组件内核开发优化,推进组件容器化,进行组件二次开发与适配等工作。 3.日常负责大数据框架组件的性能优化,稳定性保障,异常监控及线上问题对接解决。 4.参与平台功能研发,提供业务系统化的解决方案。 任职标准: 1.至少6年以上相关经验,有扎实的计算机编程基础,精通java/scala,熟悉jvm的原理和调优。 2.精通spark/hive/flink组件原理和内核优化,有超大规模数据计算的架构设计和优化经验。 3.掌握大数据行业趋势,熟悉Kubernetes/Docker,有组件容器化相关经验。 4.具备较强的问题解决能力,能独立分析和攻坚复杂的技术难题。 5.有公有云使用经验者优先。 6.有良好的服务意识、沟通能力和团队协作精神。
  • 25k-35k·13薪 经验3-5年 / 本科
    硬件,物联网,电商 / 未融资 / 500-2000人
    岗位职责: 1.承担建设基于Hadoop/Spark生态的大数据离线/实时处理平台; 2.参与业务数据.生产日志的抽取.转储.检索等相关工作; 3.跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。 任职要求: 1.3年以上计算机.统计.数学等相关本科或以上学历; 2.掌握Hadoop.HBae.Hive.Kafka.Flume.Spark等大数据技术; 3.掌握数据挖掘,python,机器学习经验者优先; 4.有较强的学习能力,勤奋踏实,责任心强,有较强的沟通协调能力,有一定创新能力;
  • 15k-22k 经验不限 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
  • 12k-20k 经验3-5年 / 本科
    数据服务 / 上市公司 / 500-2000人
    【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
  • 20k-35k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
  • 25k-40k 经验5-10年 / 本科
    消费生活 / 上市公司 / 2000人以上
    岗位职责: 1、对核心业务进行应用安全架构设计,能够出具完整的应用安全实施解决方案; 2、安全需求评审、安全代码审计、渗透测试、漏洞应急响应等工作; 3、进行与业务贴近的安全技术研究、安全方案设计、安全产品能力运营等; 任职资格: 1.本科及以上学历,5年以上甲乙方安全从业经验 2.精通软件安全开发生命周期(比如微软SDL或owasp SAMM),熟悉行业主流的安全标准、安全模型、安全解决方案、安全体系; 3.丰富的WEB或移动端安全测试及漏洞挖掘经验(黑盒和白盒),有大型应用项目安全评估经验; 4.安全基础扎实,熟悉漏洞的内在原理、检测方法、利用手段以及对应解决方案; 5.熟练掌握JAVA、Python、Swift中的一种或多种编程语言; 加分项:    1、掌握数据挖掘及机器学习算法技能并有实践经验;    2、SRC核心白帽子或者通用漏洞提报者;
  • IT技术服务|咨询,新媒体,文化传媒 / 不需要融资 / 150-500人
    ■岗位职责 负责智慧政务、智慧城市业务国内、省内党政机关、企事业单位的市场开拓、活动策划和项目运维; 负责大河智库(大数据与人工智能)业务国内、省内党政机关、企事业单位的市场开拓、营销策划和项目运维。 ■岗位条件 (1)学历:普通高招大学本科及以上学历。 (2)年龄:原则上本科生不超过28周岁,硕士研究生不超过30岁,特别优秀者可适当放宽。 (3)专业:新闻与传播学、文学、法学、商学、经济学、统计学、管理学、马克思主义哲学、历史文化学、文化产业与旅游管理学、广播电视编导、摄影摄像、导演剪辑、市场营销学、经济金融、工业设计、电子商务、公共事业管理等相关专业。 (4)基础能力: 熟悉我国国体、政体,谙熟党政机关、企事业单位(包括金融保险证券投资、大型国企、上市公司等)的运行机制,了解智慧政务、智慧城市、智慧产业、大数字与人工智能在本行业的应用和运行规律,掌握政务、媒体行业信息化项目的发展趋势、业务流程和操作规范; 具备2-3年项目管理经验,精通项目管理的知识体系,如项目启动、规划、执行、监控和收尾等各个阶段的工作流程和方法,熟悉项目管理工具和技术; 具备优秀的协调沟通能力、团队管理能力、实践管理能力和问题解决能力; 具备风险管理知识,能够识别、评估和应对项目中的风险; 了解质量管理知识,确保项目交付成果符合质量标准。 (5)放宽及优先条件 具有符合本岗位特殊才能的,学历和年龄可适当放宽; 具有相关从业经历、从业经验且业绩卓著的,或者有客户资源、媒体工作经验的,学历和年龄可适当放宽,并优先考虑; 其他符合放宽或优先条件的。
  • 18k-24k 经验3-5年 / 本科
    工具类产品 / 上市公司 / 2000人以上
    团队背景 隶属于6767搜推工程策略组6767,是公司搜索与推荐业务的核心技术支撑团队。团队技术氛围开放,鼓励创新实践,团队成员具备丰富的分布式系统与海量数据处理经验。 岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: 61基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; 61设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; 61通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 61负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; 61基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; 61针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 61**本科及以上学历,计算机相关专业,大数据开发相关经验; 616767熟练掌握并使用6767(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; 61熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; 61具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 61具有良好的沟通能力和组织协调能 6767加分项:6767 61有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; 61理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; 61对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。