• 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、基于电商广告业务目标及商业模式,搭建全面、准确、客观的指标体系和监控框架,同时基于业务监控体系,清晰洞察业务全局和定位业务问题; 2、通过分析报告或专题研究等形式,对业务问题进行深入分析,为业务决策方提供数据和分析支撑,输出经营管理建议,协助达成业务目标并提升效率; 3、将监控体系及分析方法逐步总结沉淀,抽象、提炼数据产品需求,与技术、产品等相关团队开展跨部门合作并推动数据产品的落地。 职位要求: 1、具备互联网数据分析工作经验,拥有电商广告从业经验者优先,统计学、数学专业优先; 2、具备构建数据指标体系知识框架,曾有过构建指标体系经验;掌握基本数据分析方法,对数据落地到业务有一定经验; 3、熟练使用Excel、精通SQL、Hive,至少可以熟练使用一种数据可视化分析工具,擅长R和Python者优先; 4、沟通表达能力优,协调推动能力和目标感强。
  • 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、面向字节跳动抖音电商团队,用数据分析和建模的手段推动电商业务的增长; 2、帮助业务团队通过科学的指标体系定义和探索性的数据分析,准确描述业务现状,快速发现问题、定位问题与机会;针对实际业务问题形成专题分析,给出具体解决方案并推动产品策略有效落地; 3、关注行业动态和客户诉求,深入洞察业务增长点,探索长期业务发展方向,用数据辅助业务决策。 职位要求: 1、计算机、统计学、数学、经济学等相关专业,具有相关领域较深入的技术应用的经验和能力; 2、具备国内外公司或行业数据科学经验,电商相关背景优先。 3、熟练使用SQL/Hive等数据库语言,熟悉Python或者R等数据处理语言,熟悉常用数据统计和分析方法; 4、卓越的沟通能力、团队合作精神、工作规划能力和主动意识; 5、优秀的逻辑思维能力、业务解读能力和快速学习能力,能够独立领导完整的数据分析项目。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1、负责平台商家数据分析工作,规划搭建平台电商分析体系; 2、产出数据分析系统+报表,输出可视化报告; 3、跟踪业务数据,监控数据波动和异常,通过数据分析发现业务问题和机会点,并能提出有效的解决策略; 4、关注行业动态,定期输出专业竞品&行业数据分析报告; 岗位要求: 1、本科及以上学历,数学、统计学相关专业,有至少一年电商行业经验; 2、从事数据分析工作三年及以上,熟练掌握Hive/SQL,精通Excel; 3、具有快速的业务理解及学习能力,能够发掘业务细节和数据之间的联系,逻辑思维、自我驱动、抗压能力强; 4、商业敏感性高,逻辑分析能力强,有极强的数据敏感度、数据分析和提炼归纳的能力,快速学习能力、责任心与团队合作精神。
  • 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
  • 15k-20k·18薪 经验3-5年 / 本科
    社交媒体 / 上市公司 / 2000人以上
    【岗位职责】 岗位职责: 1.对于数据有敏锐感知和洞察力,可依据客户数据、销售数据和行业等数据,总结业务规律和模式探索,并定期输出报告; 2.具备优秀的沟通能力及商务写作能力; 3.通过日常业务规范和明确数据口径标准,保证基础数据关键字段统一,完成数据分析; 4.有较强的理解能力和逻辑思维,能快速准确理解业务需求和提炼总结;进行准确销售预测和业务预警,给出合理的建议规划,提升整个团队的运作效率 任职要求: 1.广告学、统计学、应用数学、计算机信息技术等相关专业,本科及以上学历; 2.2年及以上销售运营管理、数字营销、广告传播、用户运营、咨询公司、大数据分析等相关工作经验; 3.熟练运用PPT、Excel、Visio等Office软件;能够灵活应Excel 公式和宏函数的优先;
  • 15k-25k 经验1-3年 / 本科
    IT技术服务|咨询 / 不需要融资 / 15-50人
    岗位概述:正在寻找一名Python数据开发工程师加入我们的开发团队,您将与我们优秀的工程师和研究人员一起,负责开发和维护我们的高性能数据科学研究系统的相应组件。 岗位职责: 1、熟悉使用Python来开发数据应用,熟悉数据ETL; 2、高质量完成数据开发需求,充分测试,保证数据的准确些、一致性、及时性、完整性; 3、参与开发量化交易研究的回测系统组件,包括但不限于Tick数据采样、特征构造、特征选择、以及拟合等 4、开发可重用的代码和库;完成高质量的、可维护的代码; 5、可参与开发深度学习策略、自动化实盘交易系统等其他内部系统。 任职要求: 1、本科以上理工科类学历,学习过计算机体系结构、数据结构等计算机类专业课; 2、有2年以上Python开发经验,其中至少半年以上为数据处理类工作如爬虫、ETL等; 3、熟悉Linux环境下开发,熟悉常用的Bash指令; 4、熟悉Pandas/Polars等时序数据类库以及Numpy等科学计算库; 5、熟悉MongoDB等NoSQL数据库; 6、熟悉Python中基本的数据结构的使用方法,了解其计算复杂度; 7、自驱、认真负责、技术沟通和技术协作能力强。 加分项: - 有金融行业数据处理经验。 - 有容器化(Docker)开发部署经验。 - 有使用serverless系统开发的经验,例如阿里云FC,亚马逊Lambda。
  • 20k-30k·15薪 经验3-5年 / 本科
    电商,企业服务 / 未融资 / 150-500人
    岗位职责: 1.负责ETL相关开发工作,深度参与数据仓库的建设与优化,保障数据存储的高效性与稳定性,支撑公司战略级数据项目的落地。 2.主导复杂数据处理流程的开发与优化,基于 Python 编写高性能的数据处理脚本,结合 spark、pandas、duckdb等进行大规模数据清洗、转换与分析,实现数据挖掘与机器学习模型开发,推动数据价值的深度挖掘。 3.设计和维护基于 Airflow 的工作流调度系统,实现数据处理任务的自动化调度与监控,确保数据处理任务按时、准确执行,提升数据开发与运维效率。 4.与业务部门紧密协作,深入理解业务需求,将业务逻辑转化为数据解决方案,通过数据驱动业务决策,助力业务增长。 5.研究大数据领域的前沿技术,持续优化数据开发技术栈与流程。 任职资格: 1.具备 3 年及以上大数据开发相关工作经验,拥有丰富的大数据项目实战经验,能够独立承担复杂数据开发任务。 2.熟练掌握 Python 编程,具备基于 Python 的大数据开发工作经验,能够运用 Python 进行高效的数据处理与算法实现。 3.熟悉数仓建设方法论   1)熟悉etl分层建设方法   2)熟悉主题建设方法,能独立抽象主题,建设主题,并且物理化和性能调优   3)熟悉常用的BI系统建设方法,理解实现原理,理解各个工具使用场景 4.精通大数据开发相关技术栈,包括但不限于 Hadoop、Spark、Hive 等,能够熟练运用这些技术进行数据处理与分析。 5.熟练掌握 Airflow,能够基于 Airflow 进行工作流设计、调度与监控;熟练使用相关技术进行数据处理与分析并能够运用其实现常见的数据挖掘与机器学习算法。 6.熟练掌握sql和调优。 7.熟练掌握python。 加分项 1.具备统计学、数学建模等相关知识,能够运用统计方法进行数据分析与模型构建。 2.有分布式系统开发、数据可视化开发经验者优先。 薪资待遇 ****,我们提供具有竞争力的薪酬体系与广阔的职业发展空间,期待优秀的你加入!
  • 20k-35k·15薪 经验1-3年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1、参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,参与ETL实施,建设稳定高效的数据体系。 2、参与数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 3、深度理解业务需求,构建并维护业务数据模型,包括不限于用户模型、业务预测模型、业务评估模型等,提升数据模型的准确性和稳定性,推动业务高效发现问题及业务决策。 4、挖掘业务需求,基于对机器学习的理解,从业务和技术等维度上,提出模型优化策略及不同场景下的数据解决方案,选择有效的算法解决可能遇到的数据、场景相关问题,提升模型的性能和稳定性; 5、参与数据产品与应用的数据研发,发掘数据价值,以数据驱动业务不断发展。 6、跟踪模型或方案产生的业务影响,与各业务部门紧密合作,推动数据化决策。 任职资格: 1、**本科及以上学历,统计学、数学、经济学、金融等相关专业,并在数据挖掘相关工作上有1-3年工作经验。 2、精通Python、SQL,熟悉常用数据统计、分析和建模方法;熟练掌握SQL/HQL/Spark SQL开发及优化技能,快速ETL实施能力,对SLA有较深刻的认识及强烈的责任心。(Must) 3、熟悉Azkaban等任务调度工具。(Must) 4、精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。(Must) 5、积极主动贴近业务,有良好的沟通协调能力和团队合作精神,数据敏感度高,能够快速理解业务模型及数据模型; 6、优秀的分析问题和解决问题的能力,对解决具有挑战性的问题充满激情; 7、有数据分析能力优先。(Plus)
  • 30k-50k 经验10年以上 / 本科
    软件服务|咨询,信息安全 / B轮 / 50-150人
    职位描述: - 负责公司核心系统的技术选型、架构设计与演进,确保系统具备高可用、高扩展性、技术前瞻性。 - 攻克系统关键技术难题(如性能瓶颈、分布式一致性、容灾设计等),保障系统稳定性与安全性。 - 参与核心代码开发,对开发团队进行技术指导与评审,提升团队整体架构与编码能力。 - 负责中间件技术的设计与研发,共同建设技术体系。 - 关注新技术发展方向并探索新技术的实际应用。 - 输出清晰的技术架构文档,赋能业务与团队,提升系统设计标准化水平。 职位要求: - 计算机、软件或相关专业,*****本科及以上学历。 - 至少5年以上系统架构/技术架构工作经验。 - 精通至少一种主流编程语言,如:Java及其主流生态(Spring/Spring Cloud/Dubbo等) - 熟悉Linux系统调优及网络编程。 - 深入理解微服务架构(服务治理、可观测性、DevOps),有云原生(K8s、Docker、Service Mesh)生产环境实践经验。 - 熟练掌握MySQL/MongoDB/Redis/Kafka/ES等中间件,具备性能优化与高可用设计能力。 - 具备产品化思维,能抽象复杂业务场景,输出清晰的技术方案与架构文档。 - 拥有SaaS、物联网、熟悉NFC及相关安全技术(如安全单元SE的应用)等领域架构经验者优先。 - 较强的组织管理、目标管理、目标拆解等领导能力。 - 英文听说读写流利(可作为工作语言)。
  • 18k-24k 经验3-5年 / 本科
    工具类产品 / 上市公司 / 2000人以上
    团队背景 隶属于6767搜推工程策略组6767,是公司搜索与推荐业务的核心技术支撑团队。团队技术氛围开放,鼓励创新实践,团队成员具备丰富的分布式系统与海量数据处理经验。 岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: 61基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; 61设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; 61通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 61负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; 61基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; 61针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 61**本科及以上学历,计算机相关专业,大数据开发相关经验; 616767熟练掌握并使用6767(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; 61熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; 61具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 61具有良好的沟通能力和组织协调能 6767加分项:6767 61有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; 61理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; 61对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
  • 18k-24k 经验不限 / 本科
    工具类产品 / 上市公司 / 2000人以上
    岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: •基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; •设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; •通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 •负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; •基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; •针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 •**本科及以上学历,计算机相关专业,大数据开发相关经验; •​​熟练掌握并使用​​(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; •熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; •具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 •具有良好的沟通能力和组织协调能 ​​加分项:​​ •有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; •理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; •对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
  • 40k-60k·15薪 经验5-10年 / 本科
    电商平台 / C轮 / 2000人以上
    (此岗位需要在南京或者深圳办公) 岗位职责: 1.大数据新技术规划、调研、选型及推广落地。 2.负责大数据组件内核开发优化,推进组件容器化,进行组件二次开发与适配等工作。 3.日常负责大数据框架组件的性能优化,稳定性保障,异常监控及线上问题对接解决。 4.参与平台功能研发,提供业务系统化的解决方案。 任职标准: 1.至少6年以上相关经验,有扎实的计算机编程基础,精通java/scala,熟悉jvm的原理和调优。 2.精通spark/hive/flink组件原理和内核优化,有超大规模数据计算的架构设计和优化经验。 3.掌握大数据行业趋势,熟悉Kubernetes/Docker,有组件容器化相关经验。 4.具备较强的问题解决能力,能独立分析和攻坚复杂的技术难题。 5.有公有云使用经验者优先。 6.有良好的服务意识、沟通能力和团队协作精神。
  • 20k-40k 经验5-10年 / 本科
    移动互联网,消费生活 / 上市公司 / 500-2000人
    工作职能: 1、主导数据仓库规划、架构及研发,建设PB级的数据仓库; 2、参与数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设; 3、参与标签体系、数据产品与应用的数据研发,发掘数据价值,以数据驱动业务不断发展 任职要求: 1、本科及以上学历,5年以上数据仓库领域工作,2年以上互联网行业经验; 2、大型数据仓库DBA/数据湖从业经验,精通至少一种常用数据库(Oracle、MySQL、SQL Sever、Postgres、GaussDB、hologre等),精通Hadoop平台离线分析/实时流处理场景; 3、精通数据仓库架构和原理,掌握数据仓库性能优化原理及方法,熟悉数据库备份、恢复原理与方法 4、熟悉linux系统,熟悉进程间通信、内存管理、网络通信机制,熟悉shell、Perl、Python、Java等中至少2种语言 5、具备大型数据仓库架构设计、模型设计、模型优化、ETL设计的相关经验
  • 35k-50k·13薪 经验5-10年 / 本科
    其他 / 未融资 / 少于15人
    岗位职责: 1.负责公司内部数据平台整体的的选型与架构设计工作; 2.负责相关业务系统与数据平台对接开发工作; 3.负责数据平台的架构设计、技术选型、搭建、开发、管理、监控和性能调优,对数据应用提供数据存储、查询引擎、实时计算、元数据管理的架构设计; 4.系统核心部分代码编写、指导和培训工程师、不断进行系统优化; 5.跨团队/部门协作,系统分析并解决各类数据平台相关的运行或数据问题 职位要求: 1.本科以上学历,软件工程专业,211以上学校,8年以上相关工作经验; 2.能够设计数据项目方案,并有成功案例。 3.精通任意一门编程语言,对数据基础架构和平台底层原理有深度理解和丰富开发经验,对复杂系统的性能优化和稳定性提升有一线实战经验,具备相关产品(Hadoop、Hive、HBase、Kafka、MapReduce、Spark、Es等)项目应用研发经验; 4.熟悉分布式存储和NoSQL数据库技术(如MonogoDB、Redis、Cassandra等),有实际生产项目应用经验;具有一定的项目规划和决策能力, 5.具备学习、分析和解决问题能力,可以迅速掌握业务逻辑并转化为技术方案; 6.具有较强的内外沟通能力,良好的团队意识和协作精神 BASE南京或上海
  • 15k-30k·14薪 经验3-5年 / 本科
    信息安全 / 上市公司 / 2000人以上
    岗位职责: 参与公安(经侦、刑侦)、企业合规部,参与非吸、骗贷、职务侵占、网赌、传销、电诈等案件的资金研判工作,并与鉴定部门配合出具对应电子数据鉴定报告 对各类涉案数据如交易、账户、税务、三方支付数据等进行清洗和深度挖掘: 利用主流资金分析工具如I2等对资金流向进行可视化分析和挖掘 任职要求: 岗位要求: 1.计算机、信息安全、金融、数学等相关专业,本科及以上学历 2.3年以上数据清洗和资金流向分析相关经验 3.熟悉常见资金分析工具,以及能够编写独立的自动化分析工具。 优先: 从事2年以上数据分析或架构师工作经验者优先 有公安经侦、金融保险欺诈,黑灰产、企业反舞弊等领域工作经验者优先