-
职位职责: 1、负责字节跳动相关产品线(抖音、头条等)风控方向的数据产品开发; 2、负责数据质量,数据安全,元数据的监控,整合; 3、面向超大规模数据问题,每天处理千亿增量的用户数据; 4、设计和实现高并发关键数据服务,用数据衡量产品并驱动产品演进。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力; 2、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 3、熟悉Kafka/Flink/HBase/Doris 等实时计算引擎的开发和使用优先; 4、有大规模实时数据平台落地经验者优先。
-
职位职责: 1、负责电商指标体系建设:梳理并构建影响整体电商流量和收入的指标体系,规划与设计业务指标维护和数据报表,为业务及管理层提供决策支持,实现流量业务的数据产品化; 2、实验:通过AB测试进行深入的归因分析,并对实验迭代提出方向性建议,帮助实验迭代和业务发展; 3、深度参与电商流量核心业务环节:通过回归、预测、优化等建模方法,挖掘用户行为规律,抽象出可上线的特征、模型,以优化业务目标,给出商业建议,挖掘算法驱动业务的增长点,并推动产品和技术落地; 4、方法论沉淀和创新:组织相关团队进行数据产品理念、技能、工具的培训,推动业务部门数据化运营。 职位要求: 1、本科及以上学历,3年以上数据分析、挖掘、建模工作经验,具备电商搜索,推荐,广告数据经验者优先,计算机,统计学,数学专业优先,具有机器学习算法基础者加分; 2、具备构建数据指标体系知识框架,曾有过构建指标体系经验;掌握基本数据分析方法,对数据落地到业务有一定经验,有专业的分析报告撰写能力; 3、对特征工程、用户行为建模等有相对丰富的经验,能够基于实际的业务场景,抽象问题为具体的模型,最终提供数据驱动的产品和见解,并影响产品和业务决策的跟踪记录; 4、有使用SQL、R,Python等数据分析经验,有建模经验择优; 5、对数据科学有热情,具有主人翁精神,沟通表达能力优、抗压能力强、协调推动能力强。
-
工作职责【职责描述】 1、方案撰写和演讲:负责微博平台价值、标杆案例的营销方法论研究与包装,方案输出与对外宣讲; 2、平台价值方案:基于高层营销战略,结合实际营销实操和需求,微博营销方法论与商业模型等持续研究与输出,赋能营销业务; 3、行业趋势分析:对内容和传播价值点有较强的敏感度,善于收集和分析行业营销趋势,关注社会热点话题和优秀品牌动向,并能够抽象出营销方法及路径,应用到实际工作中; 4、营销案例的分析包装:针对行业优秀营销案例的商业策略分析和打法提炼包装,市场传播发声; 任职资格【职位要求】 1、工作经验:至少1-2年商业策划或市场营销策划工作经验,有整合营销经验及social市场传播和创意策划能力,Agency策划或互联网市场相关工作经验优先; 2、具备较强的social营销感知力,用户洞察力和敏锐的内容感知力,兼具优秀的数据敏感度和效果分析能力,熟悉内容传播路径和用户消费偏好; 3、具有较强的owner意识,自我驱动力强,积极主动为业务结果负责。擅长跨部门协作和沟通,能够高效协同跨部门、跨职能团队共同达成结果目标; 4、能力素质及行为要求:具备优秀的PPT、Excel等办公软件操作技能, 独立完成策划方案PPT等文件的撰写工作;具备优秀的文案功底、提案技能,优秀的逻辑思维和提炼总结能力,良好的沟通表达能力; 5、良好的英语语言能力,口语和书面翻译熟练者优先。
-
外派驻场银行项目(周末双休、七小时工作制度 8:30-12:00;14:00-17:30.节假日正常休息、加班有加班费、福利优); 工作职责: 1、负责供应链信贷业务、供应链产品系统,包括渠道面客端、端到端产品流程、业务中台等方向的建设。 2、完成业务需求沟通梳理,产品需求设计落地,跟进开发和验收工作,管理产品迭代节奏。 3、深度理解供应链或信贷业务逻辑,掌握银行贷款产品的运营流程。 任职要求: 1、3年以上信贷产品经验,能独立输出PRD和原型图。 2、熟悉供应链金融业务情况及科技平台建设,有银行对公贷款、小微企业贷款业务、供应链金融业务经验的需求组分析或产品经理背景。 3、逻辑思维能力强,擅长挖掘业务需求,拆解产品流程和功能模块。 福利:五险一金/加班费/年终奖/季度补贴/过节费等
-
工作职责: 1、负责海外风控流程相关业务,完成系统设计、研发、迭代 2、协助业务需求分析,将业务需求拆分成独立的业务功能,并独立负责相关的开发等工作 3、参与项目/系统架构设计,优化,协助解决项目开发过程中的问题 任职要求: 1、计算机或相关专业本科以上学历,3年左右系统开发经验 2、熟练使用Golang/Python等至少一种编程语言 3、精通SQL,熟练使用Mysql、Mongo、Kafka和Redis等中间件 4、熟悉主流的微服务架构方案 5、了解大数据相关技术 6、有独立分析、解决问题的能力和经验
-
工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
-
"职位描述: 1、负责保险业务风险管理,包含但不限于保险产品赔付率分析、逆选择及欺诈风险特征和模式梳理 2、基于大数据与机器学习、数据挖掘等方法构建风险识别模型,支撑保险业务全流程生命周期的风险管理与风险洞察; 3、建设公司内外的数据合作流程和规范,探索、建设及接入保险相关的风险画像及风险模型; 4、深入理解业务,探索业务经营和业务创新的需求洞察,并进行技术预研; 职位要求: 1.本科及以上学历;计算机、数学、统计精算等相关专业背景,至少熟悉一门编程语言(python,SAS,R等); 2.有2年以上金融风控数据分析与建模经验、对金融业务的风险有比较深刻的理解,熟悉大数据建模方法和风控策略体系构建方法; 3.熟悉常用的特征工程、机器学习和数据挖掘相关算法,熟悉spark,hadoop等大数据平台优先; 4.有保险定价、核保、核赔、医疗健康业务的从业经验者优先;有对外大数据合作及联合建模经验者优先; 5.沟通协调能力强,性格开朗客观,积极主动,有较强的业务理解能力、抗压能力及主动性; 6.有一定的产品经理意识、与技术方向的独立思考及规划能力。"
-
岗位职责: 1、负责平台商家数据分析工作,规划搭建平台电商分析体系; 2、产出数据分析系统+报表,输出可视化报告; 3、跟踪业务数据,监控数据波动和异常,通过数据分析发现业务问题和机会点,并能提出有效的解决策略; 4、关注行业动态,定期输出专业竞品&行业数据分析报告; 岗位要求: 1、本科及以上学历,数学、统计学相关专业,有至少一年电商行业经验; 2、从事数据分析工作三年及以上,熟练掌握Hive/SQL,精通Excel; 3、具有快速的业务理解及学习能力,能够发掘业务细节和数据之间的联系,逻辑思维、自我驱动、抗压能力强; 4、商业敏感性高,逻辑分析能力强,有极强的数据敏感度、数据分析和提炼归纳的能力,快速学习能力、责任心与团队合作精神。
-
腾讯音乐投资并购分析师(海外方向)
[北京·朝阳门] 09:25发布15k-30k 经验5-10年 / 不限工具类产品,内容社区,音频|视频媒体 / 上市公司 / 2000人以上岗位职责: 1. 针对中国及国际化音乐内容进行研究,寻找投资机会; 2. 支持投资项目执行,包括项目及估值分析、撰写汇报材料、尽职调查、交易文件谈判等; 3. 推动投资公司和TME的深度业务合作。 岗位要求: 1. 本科及以上学历; 2. 有好奇心,对文娱行业有兴趣; 3. 善于沟通,目标驱动,责任心强; 4. 1年以上投资(买方卖方均可)或咨询、战略、商分相关经验; 5. 中英文沟通流利。 -
工作职责 1.负责自动驾驶数据平台、仿真平台、标注平台、训练平台及相关工具链的架构设计和研发工作,打造符合前瞻、量产智驾技术研发需要的数据闭环 2.负责大规模、可伸缩计算集群系统的解决方案的设计和搭建,以及核心技术的研究、开发和优化,负责平台长期运维支持和架构优化 3.负责自动驾驶软件系统框架架构设计和开发,与硬件、算法和测试团队合作,持续集成并优化自动驾驶系统 4.负责量产车型的数据驱动影子模式、数据记录等车端功能设计、系统架构和开发 工作要求 1.学历要求:**本科及以上学历,英语CET-4及以上, 2.工作经验:具有6年及以上相关工作经验,特别优秀者可适当放宽 3.其他: ① 计算机科学与技术、软件工程专业、自动化控制专业、人工智能等相关专业优先 ② 满足以下条件之一: 1)熟悉软件开发流程、具备扎实的算法和数据结构、算法、操作系统、网络、数据库等知识 2)熟悉几何、计算机图形学、动态系统建模等理论和方法 3)精通C/C++/Go/Python/nodejs一种或多种编程语言,熟悉HTML/CSS/React/REST 4)熟悉Linux/RTOS环境下开发与调试,有嵌入式操作系统和实时操作系统的内核或驱动开发经验,有多进程多线程、中间件、计算机视觉应用(OpenCV)、CUDA、TensorRT等开发经验优先 5)有丰富的Gin/Pylons/Django Web框架开发经验 6)熟悉PyTorch,TensorFlow,TensorRT等深度学习框架,有模型训练、调优相关经验 7)熟悉Spark/K8S相关技术,有相关开发经验,有过海量数据系统开发经验优先,有过集群系统开发、部署和优化经验优先 8)熟悉软件开发流程以及DevOps完整流程,熟悉DevOps相关系统原理,有相关工具和使用经验、如Jenkins,Argo, K8S,Docker,Kubernetes等 ③ 工作认真负责,具有良好的团队合作能力、沟通协调能力和学习能力 ④ 有Tier 1或主机厂相关工作经验优先
-
if (your_passions.includes('BigData')) { switch(your_stacks) { case 'Java': case 'Scala': case 'Python': console.log('Join AfterShip'); break; } } 岗位职责 1、负责公司级通用语义层 Semantic Layer 的整体架构设计、技术选型与核心模型构建,从源头解决数据孤岛和口径不一的问题,确保指标和业务口径在全公司的统一性与权威性; 2、与数据仓库团队、BI 团队建立并推行公司的数据建模与指标管理规范与流程,推动数据治理策略的执行,推广语义层的价值和使用方法,提升全公司的数据消费效率与体验; 3、持续监控和优化语义层的查询性能、数据时效性和系统稳定性,保障服务质量。同时,跟踪业界前沿(如 Headless BI、Data Fabric),结合业务发展,持续推动数据架构的演进与创新。 岗位要求 1、**本科及以上学历,3 年及以上数据平台或数据架构相关经验,拥有参与或者主导构建企业级数据建模体系或指标平台的成功经验; 2、 精通数据仓库建模理论(如 Kimball 的维度建模、Inmon 的范式建模)和范式理论,具备将复杂业务场景抽象和范式化为可复用数据模型的能力,拥有丰富的 SQL 调优经验; 3、熟悉主流的大数据技术栈(如 Spark、 Flink、 Iceberg),对至少一种主流 OLAP 引擎(如 ClickHouse、StarRocks、Apache Doris)有深入的实践经验; 4、熟悉 Apache Calcite、Antlr4 等 SQL 解析与优化框架,对 dbt、Cube、LookML、 AtScale 等至少一种语义层/指标平台框架或工具有深入理解或实际应用经验; 5、具备出色的业务理解和沟通协调能力,能够与数据参考、数据分析师和产品经理等不同角色进行高效协作,准确地将业务需求转化为可落地的技术方案。 加分项 1、熟悉至少一种主流云平台(AWS、GCP)的数据产品生态(如 Redshift、 BigQuery等),有云上数据架构设计经验者优先; 2、对 Headless BI、 Data Fabric 等现代数据架构理念有深入研究和独到见解者优先。 为什么加入我们 1、朝阳行业:国际电商 SaaS 服务赛道,国际一线投资机构加持; 2、稳健发展:团队稳健扩张,业务规模及营收每年持续稳健增长; 3、多元文化:团队来自全球 20 多个不同城市,国际化视角、扁平化管理; 4、极客氛围:拥抱开源技术,实践敏捷开发,崇尚通过工具和自动化来解决问题; 5、特色福利:AI 学习基金、 一对一帮带、内部商城、提供 MacBook 及可升降办公桌。
-
职位描述 1. 构建全面的、准确的指标体系,定期产出经营分析和复盘,及时发现与定位业务问题; 2. 通过专题分析,对业务问题进行深入分析,为公司运营决策、产品方向、业务策略提供数据支持 3. 沉淀分析思路与框架, 提炼数据产品需求,与相关团队(如技术开发团队) 协作并推动数据产品的落地; 4. 与相关团队协作进行数据建模工作,推动业务部门的数据化运营; 职位要求 1. 3年以上互联网平台商业分析师经验,理解创作者经济模式、熟悉内容从生产到分发全链路,有内容社区/平台行业背景者优先 2. 独立编写商业数据分析报告,及时发现和分析其中隐含的变化和问题 3. 良好的数据敏感度,能从海量数据提炼核心结果,有丰富的数据分析、挖掘、清洗和建模的经验 4. 熟练运用SQL,能高效的与数据技术团队进行沟通,有丰富的跨团队、部门的项目资源整合能力,推动项目落地经验者优先
-
岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: •基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; •设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; •通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 •负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; •基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; •针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 •**本科及以上学历,计算机相关专业,大数据开发相关经验; •熟练掌握并使用(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; •熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; •具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 •具有良好的沟通能力和组织协调能 加分项: •有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; •理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; •对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
-
团队背景 隶属于6767搜推工程策略组6767,是公司搜索与推荐业务的核心技术支撑团队。团队技术氛围开放,鼓励创新实践,团队成员具备丰富的分布式系统与海量数据处理经验。 岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: 61基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; 61设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; 61通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 61负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; 61基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; 61针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 61**本科及以上学历,计算机相关专业,大数据开发相关经验; 616767熟练掌握并使用6767(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; 61熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; 61具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 61具有良好的沟通能力和组织协调能 6767加分项:6767 61有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; 61理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; 61对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
-
岗位职责 : 1、数据仓库和数据处理:负责大数据平台的数据仓库、数据治理和数据模型的设计与开发工作。进行日常数据报表开发,理解业务需求,发挥数据价值。 2、数据服务开发:负责离线和实时数据服务的设计、开发、性能调优和效果优化。构建和维护数据管道,处理ETL过程,确保数据质量和准确性。 3、技术研究和应用:参与相关项目的数据需求的实现,设计和编码工作。参与开发过程中相关技术的研究和验证。 4、平台运维和质量管理:负责大数据平台的数据及相关的应用开发、调优及维护。完成日常数据质量的监控,参与大数据平台的日常运维工作。 5、针对数据一致性、准确性、及时性,制定数据管理与治理机制,提升数据易用性、可用性及稳定性; 任职要求 : 1、本科及以上学历,计算机相关专业,3-5年以上数据开发经验; 2、具备至少一个完整的大数据平台和BI系统实施经验,熟知平台建设各环节工作,包括数据采集、数据落地、仓库建设、数据平台搭建、数据应用产品开发 3、熟悉基于推荐系统的数据仓库建设方法论,有数仓模型设计及ETL开发经验;有数据仓库分层架构设定经验者优先; 4、熟悉Hadoop生态相关技术,如Hive、HDFS、Impala、Spark、Presto、Flink、Hudi、Elasticsearch、HBase、Druid、Kylin等,有基于分布式数据存储与计算平台应用开发经验,有较为系统的海量数据性能处理经验; 5、熟悉java、scala、python等语言,熟悉微服务,分布式架构,熟悉springcloud,springboot等技术开发; 6、熟悉数据仓库原理,有离线数仓、实时计算、数据挖掘、ETL、用户画像、数据可视化等设计与开发经验; 7、熟悉MySQL、PostgreSQL、NoSQL等数据库中至少一种数据中心建设方案,可以进行产品的独立部署、高可用架构和性能优化,熟悉开源社区解决方案; 8、熟悉阿里云大数据组件E-MapReduce、Dataworks、MaxCompute和国际AWS的EMR相关数据产品等,市场常见BI产品(superset、FineBI、神策数据)等相关组件者优先; 9、较强的学习能力和技术钻研能力、有自我驱动意识,对数据采集、数据治理、数据开发、数据分析、数据建模、算法等有深刻认识和实战经验。 期待您的加入哟,我们为您准备丰厚福利待遇: 【法定福利】:公司按国家规定购买五险一金+商业保险(员工本人及子女商业保险)+带薪年假; 【节日关怀】:节日福利礼品,以及节日礼金; 【公司福利】: 机场及高铁的贵宾服务(龙腾卡权益)+年度员工健康体检+平安360服务(在线问诊、VIP挂号及重疾紧急入院服务)+年度2次免费洁牙服务 公司提供咖啡、零食、下午茶 员工活动、旅游及团建,不定期举办聚餐、唱K、电竞赛、篮球赛、拓展、旅游、生日Party等 【学习与培训】:助力职业发展与提升,内外训双引擎发力助你高速发展 【晋升机会】:公司设立良好的晋升机制和广阔的发展空间。


