• 20k-40k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1、负责挖掘与分析各类业务数据建立用户画像,并通过算法模型提升风控和反欺诈能力,以数据动风险决策,并提升决策效率; 2、挖掘业务需求,基于对机器学习的理解,定义不同场景下的数据解决方案,并选择有效的算法解决可能遇到的数据、场景相关问题,提升模型的性能和稳定性; 3、配合开发人员和大数据工程师完成模型的上线运行,并进行模型的监控、维护和调整; 4、跟踪模型或方案产生的业务影响,与各业务部门紧密合作,推动数据化决策。 任职资格: 1、**本科及以上学历,统计学、数学、经济学、金融等相关专业,并在数据挖掘相关工作上有1-3年工作经验,金融信贷行业的工作经验更佳。 2、扎实的机器学习和数据挖掘理论和技术基础; 3、有一定的PYTHON 和 SQL使用能力,熟悉常用数据统计、分析和建模方法; 4、较好的团队合作精神和沟通能力; 5、优秀的分析问题和解决问题的能力,对解决具有挑战性的问题充满激情; 6、有一定英文沟通能力。
  • 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、基于电商广告业务目标及商业模式,搭建全面、准确、客观的指标体系和监控框架,同时基于业务监控体系,清晰洞察业务全局和定位业务问题; 2、通过分析报告或专题研究等形式,对业务问题进行深入分析,为业务决策方提供数据和分析支撑,输出经营管理建议,协助达成业务目标并提升效率; 3、将监控体系及分析方法逐步总结沉淀,抽象、提炼数据产品需求,与技术、产品等相关团队开展跨部门合作并推动数据产品的落地。 职位要求: 1、具备互联网数据分析工作经验,拥有电商广告从业经验者优先,统计学、数学专业优先; 2、具备构建数据指标体系知识框架,曾有过构建指标体系经验;掌握基本数据分析方法,对数据落地到业务有一定经验; 3、熟练使用Excel、精通SQL、Hive,至少可以熟练使用一种数据可视化分析工具,擅长R和Python者优先; 4、沟通表达能力优,协调推动能力和目标感强。
  • 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、面向字节跳动抖音电商团队,用数据分析和建模的手段推动电商业务的增长; 2、帮助业务团队通过科学的指标体系定义和探索性的数据分析,准确描述业务现状,快速发现问题、定位问题与机会;针对实际业务问题形成专题分析,给出具体解决方案并推动产品策略有效落地; 3、关注行业动态和客户诉求,深入洞察业务增长点,探索长期业务发展方向,用数据辅助业务决策。 职位要求: 1、计算机、统计学、数学、经济学等相关专业,具有相关领域较深入的技术应用的经验和能力; 2、具备国内外公司或行业数据科学经验,电商相关背景优先。 3、熟练使用SQL/Hive等数据库语言,熟悉Python或者R等数据处理语言,熟悉常用数据统计和分析方法; 4、卓越的沟通能力、团队合作精神、工作规划能力和主动意识; 5、优秀的逻辑思维能力、业务解读能力和快速学习能力,能够独立领导完整的数据分析项目。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1、负责平台商家数据分析工作,规划搭建平台电商分析体系; 2、产出数据分析系统+报表,输出可视化报告; 3、跟踪业务数据,监控数据波动和异常,通过数据分析发现业务问题和机会点,并能提出有效的解决策略; 4、关注行业动态,定期输出专业竞品&行业数据分析报告; 岗位要求: 1、本科及以上学历,数学、统计学相关专业,有至少一年电商行业经验; 2、从事数据分析工作三年及以上,熟练掌握Hive/SQL,精通Excel; 3、具有快速的业务理解及学习能力,能够发掘业务细节和数据之间的联系,逻辑思维、自我驱动、抗压能力强; 4、商业敏感性高,逻辑分析能力强,有极强的数据敏感度、数据分析和提炼归纳的能力,快速学习能力、责任心与团队合作精神。
  • 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
  • 15k-20k·18薪 经验3-5年 / 本科
    社交媒体 / 上市公司 / 2000人以上
    【岗位职责】 岗位职责: 1.对于数据有敏锐感知和洞察力,可依据客户数据、销售数据和行业等数据,总结业务规律和模式探索,并定期输出报告; 2.具备优秀的沟通能力及商务写作能力; 3.通过日常业务规范和明确数据口径标准,保证基础数据关键字段统一,完成数据分析; 4.有较强的理解能力和逻辑思维,能快速准确理解业务需求和提炼总结;进行准确销售预测和业务预警,给出合理的建议规划,提升整个团队的运作效率 任职要求: 1.广告学、统计学、应用数学、计算机信息技术等相关专业,本科及以上学历; 2.2年及以上销售运营管理、数字营销、广告传播、用户运营、咨询公司、大数据分析等相关工作经验; 3.熟练运用PPT、Excel、Visio等Office软件;能够灵活应Excel 公式和宏函数的优先;
  • 18k-24k 经验不限 / 本科
    工具类产品 / 上市公司 / 2000人以上
    岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: •基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; •设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; •通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 •负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; •基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; •针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 •**本科及以上学历,计算机相关专业,大数据开发相关经验; •​​熟练掌握并使用​​(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; •熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; •具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 •具有良好的沟通能力和组织协调能 ​​加分项:​​ •有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; •理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; •对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
  • 18k-24k 经验3-5年 / 本科
    工具类产品 / 上市公司 / 2000人以上
    团队背景 隶属于6767搜推工程策略组6767,是公司搜索与推荐业务的核心技术支撑团队。团队技术氛围开放,鼓励创新实践,团队成员具备丰富的分布式系统与海量数据处理经验。 岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: 61基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; 61设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; 61通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 61负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; 61基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; 61针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 61**本科及以上学历,计算机相关专业,大数据开发相关经验; 616767熟练掌握并使用6767(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; 61熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; 61具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 61具有良好的沟通能力和组织协调能 6767加分项:6767 61有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; 61理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; 61对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
  • 15k-25k 经验1-3年 / 本科
    IT技术服务|咨询 / 不需要融资 / 15-50人
    岗位概述:正在寻找一名Python数据开发工程师加入我们的开发团队,您将与我们优秀的工程师和研究人员一起,负责开发和维护我们的高性能数据科学研究系统的相应组件。 岗位职责: 1、熟悉使用Python来开发数据应用,熟悉数据ETL; 2、高质量完成数据开发需求,充分测试,保证数据的准确些、一致性、及时性、完整性; 3、参与开发量化交易研究的回测系统组件,包括但不限于Tick数据采样、特征构造、特征选择、以及拟合等 4、开发可重用的代码和库;完成高质量的、可维护的代码; 5、可参与开发深度学习策略、自动化实盘交易系统等其他内部系统。 任职要求: 1、本科以上理工科类学历,学习过计算机体系结构、数据结构等计算机类专业课; 2、有2年以上Python开发经验,其中至少半年以上为数据处理类工作如爬虫、ETL等; 3、熟悉Linux环境下开发,熟悉常用的Bash指令; 4、熟悉Pandas/Polars等时序数据类库以及Numpy等科学计算库; 5、熟悉MongoDB等NoSQL数据库; 6、熟悉Python中基本的数据结构的使用方法,了解其计算复杂度; 7、自驱、认真负责、技术沟通和技术协作能力强。 加分项: - 有金融行业数据处理经验。 - 有容器化(Docker)开发部署经验。 - 有使用serverless系统开发的经验,例如阿里云FC,亚马逊Lambda。
  • 5k-7k 经验在校/应届 / 本科
    其他 / 未融资 / 15-50人
    [玫瑰]华师大创业团队 实习生&兼职招募[玫瑰] [烟花]推荐成功也有奖励哦[烟花]推荐身边优秀的小伙伴来试试吧 工作内容:协助外国人录音、处理音频、整理数据等 工作时间:早10晚6 工作地点:上海市普陀区谈家渡路28号 盛泉大厦3楼 工作待遇:220—250元/天 可开实习证明 实习要求:一周工作3-5天,可持续2个月以上 其他福利:校友企业、团队氛围好、高频下午茶~ 投递邮箱:****************** 联系人:***********(瞿经理)
  • 20k-30k 经验3-5年 / 本科
    IT技术服务|咨询,物联网 / 未融资 / 15-50人
    职位名称:数据采集专家 城市:上海 福利: 1.本地健康保险计划或保险津贴 2.灵活的travel安排 3.饮料、点心和水果 4.季节性饮料和生日庆祝活动 5.团队建设活动和郊游 6.上海户籍及上海工作居住证办理 7.外籍工作签证及外籍居住证办理 8.多功能有设计感的办公环境,地铁零距离 工作职责: 1.配合工程师完成数据采集项目的代码编写 2.负责日常项目维护、功能迭代和优化 3.负责电子商务网站的数据采集 岗位要求: 1.3年以上Python开发经验,熟悉Python语言 2.熟悉scrapy等爬虫框架 3.熟悉redis、mongodb、mysql、es等存储解决方案 4.熟悉消息队列,如rabbitmq 5.熟悉k8s和docker的使用 6.熟悉常见的Linux命令,独立完成日常部署更新等。 7.熟悉分布式爬虫架构和爬虫基础知识 8.流利的英文口语能力 我们的优势 1.与世界各地的国际团队合作,提高英语能力 2.获得最新的网页技术和AR虚拟现实领域的前沿科技知识 3.学到更多的电子商务和移动相关的技术 4.获得用户界面和用户体验的工作经验 5.使用类似JIRA, Confluence, Hudson and Selenium项目管理系统进行工作 关于TMO集团 TMO Group是一家国际性的数字商务解决方案提供商,在阿姆斯特丹,上海, 成都和香港设有办事处, 电商 - 数据 - AI 我们为您的电商价值链提供集成解决方案,贯穿咨询、设计、开发和智能营销以及云计算赋能的托管服务。重点服务企业为B2C、D2C模式下的健康美妆行业,以及B2B数字化转型全行业。
  • 人工智能 / 天使轮 / 150-500人
    职位描述: 工作内容: 自动驾驶数据采集以及demo车的电气设计,文档检查、整理,供应商对接,装车检查; 样件管理; 职位要求: 学历:本科或研究生在读 专业:电子电气专业、汽车工程、自动化等专业 技能: 熟悉车辆电气原理; 了解CAN通讯; 熟悉基础的linux指令操作优先; 有车队比赛经验的优先; 沟通表达良好; 动手能力强; 做事细致;
  • 20k-30k·15薪 经验3-5年 / 本科
    电商,企业服务 / 未融资 / 150-500人
    岗位职责: 1.负责ETL相关开发工作,深度参与数据仓库的建设与优化,保障数据存储的高效性与稳定性,支撑公司战略级数据项目的落地。 2.主导复杂数据处理流程的开发与优化,基于 Python 编写高性能的数据处理脚本,结合 spark、pandas、duckdb等进行大规模数据清洗、转换与分析,实现数据挖掘与机器学习模型开发,推动数据价值的深度挖掘。 3.设计和维护基于 Airflow 的工作流调度系统,实现数据处理任务的自动化调度与监控,确保数据处理任务按时、准确执行,提升数据开发与运维效率。 4.与业务部门紧密协作,深入理解业务需求,将业务逻辑转化为数据解决方案,通过数据驱动业务决策,助力业务增长。 5.研究大数据领域的前沿技术,持续优化数据开发技术栈与流程。 任职资格: 1.具备 3 年及以上大数据开发相关工作经验,拥有丰富的大数据项目实战经验,能够独立承担复杂数据开发任务。 2.熟练掌握 Python 编程,具备基于 Python 的大数据开发工作经验,能够运用 Python 进行高效的数据处理与算法实现。 3.熟悉数仓建设方法论   1)熟悉etl分层建设方法   2)熟悉主题建设方法,能独立抽象主题,建设主题,并且物理化和性能调优   3)熟悉常用的BI系统建设方法,理解实现原理,理解各个工具使用场景 4.精通大数据开发相关技术栈,包括但不限于 Hadoop、Spark、Hive 等,能够熟练运用这些技术进行数据处理与分析。 5.熟练掌握 Airflow,能够基于 Airflow 进行工作流设计、调度与监控;熟练使用相关技术进行数据处理与分析并能够运用其实现常见的数据挖掘与机器学习算法。 6.熟练掌握sql和调优。 7.熟练掌握python。 加分项 1.具备统计学、数学建模等相关知识,能够运用统计方法进行数据分析与模型构建。 2.有分布式系统开发、数据可视化开发经验者优先。 薪资待遇 ****,我们提供具有竞争力的薪酬体系与广阔的职业发展空间,期待优秀的你加入!
  • 40k-60k·15薪 经验5-10年 / 本科
    电商平台 / C轮 / 2000人以上
    (此岗位需要在南京或者深圳办公) 岗位职责: 1.大数据新技术规划、调研、选型及推广落地。 2.负责大数据组件内核开发优化,推进组件容器化,进行组件二次开发与适配等工作。 3.日常负责大数据框架组件的性能优化,稳定性保障,异常监控及线上问题对接解决。 4.参与平台功能研发,提供业务系统化的解决方案。 任职标准: 1.至少6年以上相关经验,有扎实的计算机编程基础,精通java/scala,熟悉jvm的原理和调优。 2.精通spark/hive/flink组件原理和内核优化,有超大规模数据计算的架构设计和优化经验。 3.掌握大数据行业趋势,熟悉Kubernetes/Docker,有组件容器化相关经验。 4.具备较强的问题解决能力,能独立分析和攻坚复杂的技术难题。 5.有公有云使用经验者优先。 6.有良好的服务意识、沟通能力和团队协作精神。
  • 8k-15k 经验1-3年 / 本科
    企业服务 / 不需要融资 / 少于15人
    岗位职责: 1.负责进行制造业细分行业、细分产品的产业链梳理 2.根据细分行业、细分产品的展会会刊数据、行业门户网站数据、研究报告、行业数据库等进行分类整合处理 3.部分数据手工加工、整理 4.数据批量导入到网站平台 5.数据库架构设计及结构优化 岗位要求: 1.学习能力强、懂得变通、举一反三 2.具备良好的独立工作能力和解决问题能力,善于沟通,乐于合作,热衷新技术,勤奋好学,较强的逻辑思维能力 3.本科以上学历 4.数学、统计、计算机等专业优先考虑 5.Python技术熟练,能够按照要求批量爬取数据 6.Excel熟练使用