• 20k-40k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1、负责挖掘与分析各类业务数据建立用户画像,并通过算法模型提升风控和反欺诈能力,以数据动风险决策,并提升决策效率; 2、挖掘业务需求,基于对机器学习的理解,定义不同场景下的数据解决方案,并选择有效的算法解决可能遇到的数据、场景相关问题,提升模型的性能和稳定性; 3、配合开发人员和大数据工程师完成模型的上线运行,并进行模型的监控、维护和调整; 4、跟踪模型或方案产生的业务影响,与各业务部门紧密合作,推动数据化决策。 任职资格: 1、**本科及以上学历,统计学、数学、经济学、金融等相关专业,并在数据挖掘相关工作上有1-3年工作经验,金融信贷行业的工作经验更佳。 2、扎实的机器学习和数据挖掘理论和技术基础; 3、有一定的PYTHON 和 SQL使用能力,熟悉常用数据统计、分析和建模方法; 4、较好的团队合作精神和沟通能力; 5、优秀的分析问题和解决问题的能力,对解决具有挑战性的问题充满激情; 6、有一定英文沟通能力。
  • 20k-40k·15薪 经验5-10年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责: 1、负责海外风控流程相关业务,完成系统设计、研发、迭代 2、协助业务需求分析,将业务需求拆分成独立的业务功能,并独立负责相关的开发等工作 3、参与项目/系统架构设计,优化,协助解决项目开发过程中的问题 任职要求: 1、计算机或相关专业本科以上学历,3年左右系统开发经验 2、熟练使用Golang/Python等至少一种编程语言 3、精通SQL,熟练使用Mysql、Mongo、Kafka和Redis等中间件 4、熟悉主流的微服务架构方案 5、了解大数据相关技术 6、有独立分析、解决问题的能力和经验
  • 20k-40k 经验1-3年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责生活服务内容场景的风控安全策略/功能设计,保障整个生态安全,内容真实可信; 2、设计体系化的风险策略,及时掌握潜在风险及业务的变化,协调上下游团队提升整体风控能力; 3、与产品、数据、技术团队深度合作,沉淀风控能力,设计和构建智能化风控产品、流程和机制。 职位要求: 1、本科及以上学历,1-3年互联网产品/策略/运营工作经验,有风控、反作弊、内容生态及相关领域工作经验优先,具有较强的数据分析能力和逻辑判断能力,目标导向; 2、具备强烈的好奇心和自我驱动力,喜欢接受挑战,自我学习,追求极致; 3、具备优秀的沟通协调能力,高效的推动项目落地。
  • 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、面向字节跳动抖音电商团队,用数据分析和建模的手段推动电商业务的增长; 2、帮助业务团队通过科学的指标体系定义和探索性的数据分析,准确描述业务现状,快速发现问题、定位问题与机会;针对实际业务问题形成专题分析,给出具体解决方案并推动产品策略有效落地; 3、关注行业动态和客户诉求,深入洞察业务增长点,探索长期业务发展方向,用数据辅助业务决策。 职位要求: 1、计算机、统计学、数学、经济学等相关专业,具有相关领域较深入的技术应用的经验和能力; 2、具备国内外公司或行业数据科学经验,电商相关背景优先。 3、熟练使用SQL/Hive等数据库语言,熟悉Python或者R等数据处理语言,熟悉常用数据统计和分析方法; 4、卓越的沟通能力、团队合作精神、工作规划能力和主动意识; 5、优秀的逻辑思维能力、业务解读能力和快速学习能力,能够独立领导完整的数据分析项目。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1、负责平台商家数据分析工作,规划搭建平台电商分析体系; 2、产出数据分析系统+报表,输出可视化报告; 3、跟踪业务数据,监控数据波动和异常,通过数据分析发现业务问题和机会点,并能提出有效的解决策略; 4、关注行业动态,定期输出专业竞品&行业数据分析报告; 岗位要求: 1、本科及以上学历,数学、统计学相关专业,有至少一年电商行业经验; 2、从事数据分析工作三年及以上,熟练掌握Hive/SQL,精通Excel; 3、具有快速的业务理解及学习能力,能够发掘业务细节和数据之间的联系,逻辑思维、自我驱动、抗压能力强; 4、商业敏感性高,逻辑分析能力强,有极强的数据敏感度、数据分析和提炼归纳的能力,快速学习能力、责任心与团队合作精神。
  • 15k-20k·18薪 经验3-5年 / 本科
    社交媒体 / 上市公司 / 2000人以上
    【岗位职责】 岗位职责: 1.对于数据有敏锐感知和洞察力,可依据客户数据、销售数据和行业等数据,总结业务规律和模式探索,并定期输出报告; 2.具备优秀的沟通能力及商务写作能力; 3.通过日常业务规范和明确数据口径标准,保证基础数据关键字段统一,完成数据分析; 4.有较强的理解能力和逻辑思维,能快速准确理解业务需求和提炼总结;进行准确销售预测和业务预警,给出合理的建议规划,提升整个团队的运作效率 任职要求: 1.广告学、统计学、应用数学、计算机信息技术等相关专业,本科及以上学历; 2.2年及以上销售运营管理、数字营销、广告传播、用户运营、咨询公司、大数据分析等相关工作经验; 3.熟练运用PPT、Excel、Visio等Office软件;能够灵活应Excel 公式和宏函数的优先;
  • 8k-16k 经验3-5年 / 本科
    软件开发,物联网 / 不需要融资 / 50-150人
    职位描述: 1、 针对公司拟引入的新设备品类,独立开展品类可行性研究,包括政策分析、产业链梳理、市场需求分析、流通性评估、技术动态及风险点识别,形成系统性行业分析报告,为公司业务决策提供风控支持; 2、 独立开展项目的尽职调查,涵盖设备供应商/客户主体资质、经营状况、信用状况、合同履约能力等关键要素,编写项目尽调报告,综合分析项目结构与资产特性,识别核心风险并提出切实可行的风险控制方案; 3、 参与制定与优化公司整体风控政策、项目准入标准、租后预警规则等,推动公司风控体系制度化、标准化建设; 4、 跟进项目执行情况,识别异常风险,进行风险监控,对问题资产处置提供专业建议。 岗位要求: 1、 本科及以上学历,3年以上从事风险管理相关工作经验; 2、 能独立撰写行业研究分析报告和尽职调查报告; 3、 对项目有较强的风险识别与判断能力,具备良好的商业敏感度与逻辑分析能力; 4、 有互联网金融从业经验者优先; 5、 具有高度的责任感和敬业精神,有良好的团队协作能力。
  • 18k-24k 经验不限 / 本科
    工具类产品 / 上市公司 / 2000人以上
    岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: •基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; •设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; •通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 •负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; •基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; •针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 •**本科及以上学历,计算机相关专业,大数据开发相关经验; •​​熟练掌握并使用​​(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; •熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; •具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 •具有良好的沟通能力和组织协调能 ​​加分项:​​ •有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; •理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; •对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
  • 18k-24k 经验3-5年 / 本科
    工具类产品 / 上市公司 / 2000人以上
    团队背景 隶属于6767搜推工程策略组6767,是公司搜索与推荐业务的核心技术支撑团队。团队技术氛围开放,鼓励创新实践,团队成员具备丰富的分布式系统与海量数据处理经验。 岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: 61基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; 61设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; 61通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 61负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; 61基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; 61针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 61**本科及以上学历,计算机相关专业,大数据开发相关经验; 616767熟练掌握并使用6767(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; 61熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; 61具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 61具有良好的沟通能力和组织协调能 6767加分项:6767 61有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; 61理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; 61对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
  • 15k-25k 经验1-3年 / 本科
    IT技术服务|咨询 / 不需要融资 / 15-50人
    岗位概述:正在寻找一名Python数据开发工程师加入我们的开发团队,您将与我们优秀的工程师和研究人员一起,负责开发和维护我们的高性能数据科学研究系统的相应组件。 岗位职责: 1、熟悉使用Python来开发数据应用,熟悉数据ETL; 2、高质量完成数据开发需求,充分测试,保证数据的准确些、一致性、及时性、完整性; 3、参与开发量化交易研究的回测系统组件,包括但不限于Tick数据采样、特征构造、特征选择、以及拟合等 4、开发可重用的代码和库;完成高质量的、可维护的代码; 5、可参与开发深度学习策略、自动化实盘交易系统等其他内部系统。 任职要求: 1、本科以上理工科类学历,学习过计算机体系结构、数据结构等计算机类专业课; 2、有2年以上Python开发经验,其中至少半年以上为数据处理类工作如爬虫、ETL等; 3、熟悉Linux环境下开发,熟悉常用的Bash指令; 4、熟悉Pandas/Polars等时序数据类库以及Numpy等科学计算库; 5、熟悉MongoDB等NoSQL数据库; 6、熟悉Python中基本的数据结构的使用方法,了解其计算复杂度; 7、自驱、认真负责、技术沟通和技术协作能力强。 加分项: - 有金融行业数据处理经验。 - 有容器化(Docker)开发部署经验。 - 有使用serverless系统开发的经验,例如阿里云FC,亚马逊Lambda。
  • 40k-60k·15薪 经验3-5年 / 本科
    电商平台 / C轮 / 2000人以上
    职位职责 1、针对 SHEIN 全球业务,负责设备层面安全风险的识别、评估与对抗: -设计与迭代跨端统一设备 ID / 设备指纹算法 -群控(批量操控设备)、改机、模拟器、云真机等异常环境识别 -构建设备多维风险标签体系与动态信誉分 2、基于公司大数据平台(Hive/Spark/Flink/Kafka 等)完成特征工程、样本构建与模型训练,形成可复用的设备风险画像库; 3、调研并落地前沿对抗技术(Anti-Tamper、Jailbreak/Root 检测、硬件指纹、WMI/SMBIOS/Secure Boot 等),打造端到端的实时防御能力; 4、与风控策略、业务、产品、研发团队协作,将算法能力沉淀为 SDK / 微服务,支撑注册登录、营销投放、支付风控、内容安全等核心场景; 5、对已上线模型进行监控、评估与 A/B 测试,降低漏判率与误杀率,满足全球多区域合规与 SLA; 任职要求 必备 1、计算机、信息安全、数据科学等相关专业,本科及以上学历; 2、3 年及以上算法风控 / 设备指纹 / 反欺诈相关经验,熟悉跨境电商或互联网 To C 业务; 3、扎实的机器学习/数据挖掘基础,熟悉 GBDT、XGBoost、LightGBM、深度学习及其工程化; 4、深刻理解 Android / iOS / Windows / macOS 等平台的硬件与系统特征,熟悉常见欺诈工具链(改机、虚拟机、云手机、刷机包、合规绕过等); 5、精通 Python / Java / Scala 至少一种,具备良好编码与评审习惯; 6、有海量数据处理经验,熟练使用 Hadoop/Spark/Flink/Kafka 等大数据组件; 7、良好的沟通协作与英文读写能力。 加分 1、负责过全球化、亿级 DAU App 的设备安全体系或 SDK 设计; 2、熟悉浏览器指纹、Canvas/WebGL、字体特征、网络探针等多端采集技术; 3、参与过支付风控/流量风控/反爬项目,对跨境电商合规(PCI-DSS、GDPR 等)有实践; 4、在头部安全会议(Black Hat、DEF CON、BlueHat、QCon 等)或学术期刊发表相关论文; 5、活跃的开源项目贡献者或技术博客作者。
  • 20k-30k·15薪 经验3-5年 / 本科
    电商,企业服务 / 未融资 / 150-500人
    岗位职责: 1.负责ETL相关开发工作,深度参与数据仓库的建设与优化,保障数据存储的高效性与稳定性,支撑公司战略级数据项目的落地。 2.主导复杂数据处理流程的开发与优化,基于 Python 编写高性能的数据处理脚本,结合 spark、pandas、duckdb等进行大规模数据清洗、转换与分析,实现数据挖掘与机器学习模型开发,推动数据价值的深度挖掘。 3.设计和维护基于 Airflow 的工作流调度系统,实现数据处理任务的自动化调度与监控,确保数据处理任务按时、准确执行,提升数据开发与运维效率。 4.与业务部门紧密协作,深入理解业务需求,将业务逻辑转化为数据解决方案,通过数据驱动业务决策,助力业务增长。 5.研究大数据领域的前沿技术,持续优化数据开发技术栈与流程。 任职资格: 1.具备 3 年及以上大数据开发相关工作经验,拥有丰富的大数据项目实战经验,能够独立承担复杂数据开发任务。 2.熟练掌握 Python 编程,具备基于 Python 的大数据开发工作经验,能够运用 Python 进行高效的数据处理与算法实现。 3.熟悉数仓建设方法论   1)熟悉etl分层建设方法   2)熟悉主题建设方法,能独立抽象主题,建设主题,并且物理化和性能调优   3)熟悉常用的BI系统建设方法,理解实现原理,理解各个工具使用场景 4.精通大数据开发相关技术栈,包括但不限于 Hadoop、Spark、Hive 等,能够熟练运用这些技术进行数据处理与分析。 5.熟练掌握 Airflow,能够基于 Airflow 进行工作流设计、调度与监控;熟练使用相关技术进行数据处理与分析并能够运用其实现常见的数据挖掘与机器学习算法。 6.熟练掌握sql和调优。 7.熟练掌握python。 加分项 1.具备统计学、数学建模等相关知识,能够运用统计方法进行数据分析与模型构建。 2.有分布式系统开发、数据可视化开发经验者优先。 薪资待遇 ****,我们提供具有竞争力的薪酬体系与广阔的职业发展空间,期待优秀的你加入!
  • 15k-27k·15薪 经验3-5年 / 本科
    人工智能服务 / C轮 / 150-500人
    【岗位职责】 1、 协助风险项目解决方案规划和落地执行,包括业务梳理、需求沟通、数据和业务分析、量化模型构建、策略构建等工作; 2、负责风险咨询项目的数据分析和量化建模工作,应用技术包括评分卡、机器学习和知识图谱等,具备较强的工程能力和分析能力; 3、 熟悉金融风险,尤其是个人信贷的风险模型体系、以及具备业务和数据的深入分析能力,利用数据和AI技术解决风险相关问题。 【岗位要求】 1、本科及以上学历,经济、金融、数学、统计、计算机等相关专业,有3年相关的风控工作经验; 2、精通SQL、python、SAS等编程语言,具有强动手能力; 2、熟悉风控业务,在信贷产品设计、业务分析、量化建模、贷前/贷中/贷后策略以及客户运营等业务有实操经验; 3、 拥有银行/互金/消金等金融机构市场的风控产品或模型咨询工作经验者优先; 4、 对数据敏感,能通过数据分析发现问题并提供解决方案; 5、 有良好的沟通能力,工作认真、负责,有较强的逻辑思维能力、分析判断能力、沟通协调能力和文档撰写能力; 6、 对人工智能领域感兴趣。
  • 15k-30k·16薪 经验1-3年 / 硕士
    电商,金融 / 不需要融资 / 50-150人
    工作职责 1、负责海外金融项目中数据挖掘与机器学习等相关工作,针对用户各类数据进行深度挖掘和有效性分析,应用场景包括但不限于特征挖掘、数据分析、文本分析、关系网络、智能推荐、知识图谱等; 2、根据项目目标进行数据提取、清洗、分析、建模以及上线后观测迭代的工作; 3、结合业务方向,挖掘和拓展新市场环境下的各项数据,搭建一套适用于多个国家的风控底层数据服务; 岗位要求 1、本科及以上学历,人工智能、统计学、数学等相关专业优先,硕士优先; 2、熟悉自然语言处理或文本挖掘领域相关算法和框架,有相关处理经验; 3、2年以上在银行或消金担任风控数据分析、贷后模型、反欺诈模型产品经验,拥有完整的全套风控处理经验; 4、熟悉各类模型分类和回归算法,包括但不限于传统统计、机器学习等,对风控模型有经验者优先考虑; 5、具备良好的专业背景,逻辑能力好,有较强的执行力和沟通能力。
  • 30k-60k·16薪 经验不限 / 本科
    消费生活 / D轮及以上 / 500-2000人
    岗位描述: 1.负责安全审核内部业务相关的实时&离线数据开发,构建安全审核的数据仓库公共模型和数据集市; 2.参与清洗并提取有助于算法模型增益的特征,负责算法模型的离线特征和实时特征的开发和维护,提升模型准确度,保证异常行为拦截的时效性; 3.建立并完善安全审核内部治理业务的数据指标体系,形成内部的风险水位、治理能力、治理效率等核心数据资产,并提供实时数据指标异动监测预警能力; 4.面向超大规模数据问题,参与海量数据治理工作,提升数据易用性及数据质量; 5.理解并合理抽象业务需求,发挥数据价值,与安全业务团队紧密合作。 岗位要求: 1. 三年以上的数据开发工作经验,**研究生及以上学历; 2. 熟练掌握Java/Scala,对数据结构和设计模式有较为深刻的理解; 3. 精通数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 4. 具备较强的编码能力,熟悉sql,python,hive,spark,kafka,flink,druid中的多项,有至少TB以上级大数据处理经验; 5. 负责过电商风控、社区风控、用户画像系统, 特征在线系统(特征存储和特征服务)者优先; 6. 有较强的学习、分析和解决问题能力,良好的团队意识和协作精神以及沟通能力