-
工作内容 职位描述: 1.参与大数据平台数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2.参与数据仓库模型的ETL实施,ETL性能优化、技术攻关等。 3.参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4.参与平台标签体系、数据产品与应用的数据研发,发掘数据价值,以数据驱动业务不断发展。 岗位要求 任职要求: 1. 本科及以上学历,2-6年工作经验,具备极强的问题解决能力。 2. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 3. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型;熟练掌握SQL/HQL/Spark SQL开发及优化技能,快速ETL实施能力,对SLA有较深刻的认识及强烈的责任心。 4. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink,DataWorks等大数据工具应用和开发经验优先。 5. 掌握Java, Python等至少一门语言,有MapReduce项目开发经验,熟悉Azkaban等任务调度工具。 6. 熟练使用git,有多人项目合作开发经验。 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。
-
职位职责: 1、负责抖音产品生活服务相关业务的数据分析工作,通过分析帮助业务解决在BC两端遇到的问题并实现业务目标; 2、负责业务上各类产品/运营的策略制定与优化、A/B实验设计与分析、运营活动效果评估、核心指标异动分析等工作,找到数据现象背后的成因,明确用户痛点和需要,给出后续优化建议; 3、主动发现业务本质的需要和痛点,找到可改进/提效的机会,给出具体可行的优化建议,推进落地并带来业务实际提升。 职位要求: 1、有本地生活、电商等相关行业从业经验优先,有商业分析、战略分析经验者优先; 2、善于思考和总结,能够持续改进工作方法; 3、能快速理解商业逻辑,通过数据量化拆解业务问题的成因及影响,并给出具体可行的优化方案; 4、具备解决复杂问题的数据分析能力、数据采集方案设计能力和优秀的沟通协调能力。
-
职位职责: 1、参与执行抖音平台生活服务领域的数据分析项目,为业务决策提供数据支持和洞见; 2、探索和分析业务数据,帮助识别用户产品体验的潜在优化点,并参与制定改进策略,与产品、运营、推荐算法、研发团队合作,辅助实施优化策略,并跟踪其对业务增长的影响; 3、与团队共同设计和分析业务相关的A/B测试,协助评估产品优化效果,进行市场活动分析,并监测关键业务指标的变化; 4、帮助构建和优化数据采集,负责制作和维护数据看板,监测关键数据指标,及时识别和排查数据异动情况,保证数据的准确性和可靠性。 职位要求: 1、本科及以上学位,2-3年数据分析经验,优先考虑拥有生活服务行业背景或数学、统计学、计算机科学等相关专业背景的候选人; 2、对数据具有一定敏感性,能在指导下发现数据与业务间的关联,辅助进行业务建模和定量分析; 3、熟悉SQL,具备基础的R、Python或其他编程语言实践经验。了解基本的机器学习技术(如回归、分类、聚类等)并有实际应用经验者优先。能在团队协助下撰写分析报告; 4、具备良好的沟通能力,能在团队协作环境中有效工作,适应跨部门合作需求。
-
岗位职责: 1、负责平台商家数据分析工作,规划搭建平台电商分析体系; 2、产出数据分析系统+报表,输出可视化报告; 3、跟踪业务数据,监控数据波动和异常,通过数据分析发现业务问题和机会点,并能提出有效的解决策略; 4、关注行业动态,定期输出专业竞品&行业数据分析报告; 岗位要求: 1、本科及以上学历,数学、统计学相关专业,有至少一年电商行业经验; 2、从事数据分析工作三年及以上,熟练掌握Hive/SQL,精通Excel; 3、具有快速的业务理解及学习能力,能够发掘业务细节和数据之间的联系,逻辑思维、自我驱动、抗压能力强; 4、商业敏感性高,逻辑分析能力强,有极强的数据敏感度、数据分析和提炼归纳的能力,快速学习能力、责任心与团队合作精神。
-
地点:武汉 岗位职责: 1、负责产品的研发工作,主要负责后台编写,包含部分算法编写、性能优化,保证平台安全、稳定、快速运行。 2、负责产品的数据模型设计以及相应接口的开发工作。 3、参与系统的需求调研和需求分析,及系统上线协助,并承担部分交付责任。 4、配合前端进行前后端联调。 任职要求: 1、计算机相关专业硕士及以上学历, 3年以上JAVA开发经验; 2、有数据控制技术、机密容器研发经验优先。 3、有隐私计算、联邦学习,隐语、Fate隐私计算开源框架、区块链等相关技术研发和应用经验优先。 4、具备良好的面向对象编程经验,深入理解OO、AOP思想,具有较强的分析设计能力,熟悉常用设计模式。 5、精通Spring、Mybatis、JPA等开源框架并熟悉其实现原理,熟悉SpringCloud等微服务框架。有两年及以上的Spring实际项目开发经验。 6、熟练使用linux操作系统,熟悉云原生架构技术Docker、K8S等。 7、熟悉SQL编写,至少掌握mysql、sqlserver、oracle的一种; 8、熟悉Tomcat、nginx等web服务器。 9、熟悉websocket,grpc等相关通信协议。 10、熟悉C/C++、python优先。
-
工作职责: 1、微博企业蓝v&品牌号产品使用偏好分析,包括但不限于产品分析、用户分析、运营分析,给出可落地的策略建议,形成报告。 2、数据分析的工具支持,包括但不限于 数据模板、数据看板,需求收集、落地、迭代。 3、负责品牌号数据中心的产品运营工作,推动产品优化迭代、提升产品价值。 职位要求: 1、本科以上学历,数学、统计学相关专业优先; 2、有2年以上互联网公司业务数据分析相关工作经验; 3、熟练使用sql、python等数据处理及分析软件; 4、具有良好的数据逻辑分析能力,能主动发现业务问题和诉求,对接协同业务方推进业务优化。
-
岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
-
【岗位职责】 岗位职责: 1.对于数据有敏锐感知和洞察力,可依据客户数据、销售数据和行业等数据,总结业务规律和模式探索,并定期输出报告; 2.具备优秀的沟通能力及商务写作能力; 3.通过日常业务规范和明确数据口径标准,保证基础数据关键字段统一,完成数据分析; 4.有较强的理解能力和逻辑思维,能快速准确理解业务需求和提炼总结;进行准确销售预测和业务预警,给出合理的建议规划,提升整个团队的运作效率 任职要求: 1.广告学、统计学、应用数学、计算机信息技术等相关专业,本科及以上学历; 2.2年及以上销售运营管理、数字营销、广告传播、用户运营、咨询公司、大数据分析等相关工作经验; 3.熟练运用PPT、Excel、Visio等Office软件;能够灵活应Excel 公式和宏函数的优先;
-
岗位职责: 1、负责电商财务域数据模型调研、设计、开发工作,与业务部门紧密配合,提供数据支持 2、负责电商财务域数据运营&治理工作,保障数据质量 3、参与电商财务域数据体系化建设,提升数据服务稳定性 任职要求: 1、计算机相关专业,大学本科及以上学历,5年以上大数据开发相关工作经验 2、熟悉大数据相关组件(如Hive、Spark、Flink、Kafka等),具备编写、优化复杂SQL的能力 3、有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题 4、熟悉Python/Java/Scala/Shell其中一种语言 5、具备电商领域业务开发经验优先;具备财务领域业务开发经验优先 6、负责过数据平台或数据仓库设计优先;有带团队经验优先。
-
岗位职责: 1. 深入了解广告商业化业务逻辑,负责广告全矩阵目标管控及数据分析支持; 2. 追踪和分析音乐内容消费链条的商业漏斗效率,独立输出专题分析报告,发现业务问题,定位原因并协同运营、产品团队讨论解决方案; 3. 基于历史数据和商业策略,支持产品和运营团队制定提收策略,并客观评估策略收益价值; 4. 积极主动发现新商业机会、推动落地,助力音乐平台,打造新增长驱动。 岗位要求: 1. 本科及以上学历,2年及以上互联网商业广告分析经验,有游戏、增值服务等商业化业务经验更佳; 2. 对数据敏感,具有较强的商业化数据分析能力,能熟练使用Excel、PPT,并具备熟练的SQL/Python/R数据处理及分析能力者优先考虑; 3. 能独立完成大型分析项目,具备结构化思维,分析能力强,能够独立解决问题,沟通表达能力优秀。
-
岗位职责: 1. 使用SQL等数据抓取工具从各种数据源中提取数据,并进行数据清洗和整理。 2. 运用统计学和数据分析方法对数据进行分析,发现趋势、模式和关联性。 3. 利用数据可视化工具(如Tableau、Power BI等)创建仪表盘、报告和可视化图表,以向利益相关者传达数据洞察。 4. 协助团队成员进行数据分析项目,提供支持和建议。 5. 监测和评估数据质量,确保数据的准确性和完整性。 6. 跟踪行业趋势和竞争对手的数据,提供市场洞察和建议。 岗位要求: 1. 2-3年相关工作经历。 2. 熟练掌握SQL等数据抓取工具,能够编写和优化复杂的查询语句。 3. 具备数据清洗和整理的技能,能够处理大量数据并确保数据的准确性。 4. 熟悉统计学和数据分析方法,能够运用这些方法解决实际问题。 5. 熟练使用数据可视化工具,能够将数据转化为易于理解和传达的可视化图表和报告。 6. 对商业和旅游行业有浓厚的兴趣,了解相关行业的趋势和挑战。 7. 具备良好的沟通和团队合作能力,能够与不同部门和利益相关者进行有效的合作。 8. 具备解决问题和分析能力,能够快速理解和解决复杂的数据相关问题。
-
■岗位职责 负责文本分析类相关产品的研发和技术运维; 对各种文本数据进行清洗、挖掘和对比分析; 依据数据特征对文本归类,制定算法优化策略。 ■岗位条件 (1)学历:普通高招大学本科及以上学历。 (2)年龄:原则上本科生不超过28周岁,硕士研究生不超过30岁,博士研究生不超过32岁,特别优秀者可适当放宽。 (3)专业:计算机科学与技术、数学、软件工程、网络工程、信息与计算科学、信息安全、电子与计算机工程、信息与通信工程、网络空间安全、数据科学与大数据技术、人工智能等相关专业。 (4)基础能力: 精通Java或Python编程语言; 掌握常用文本分词算法; 具备一定的海量数据分析处理能力; 对词向量、文本语义分析等自然语言处理有一定程度的了解; 善于对开源代码和开源算法的二次开发使用。 (5)放宽及优先条件: 具有符合本岗位特殊才能的,学历和年龄可适当放宽; 具有互联网政务服务相关工作经验、小程序开发经验者,或具有“大厂”工作经验者,学历和年龄可适当放宽,并优先考虑; 具有算法开发相关经验者优先; 具有计算机高级职称者优先; 其他符合放宽或优先条件的。
-
岗位要求: 1、教育背景:会计、金融、经济学、语言学、统计等相关专业,**本科学历; 2、英语四级及以上,具备良好的英语听说读写能力者,能熟练运用Office相关软件; 3、脚踏实地、认真负责,专业上不断追求精深,愿意长期稳定从事财务数字化相关工作。 岗位职责: 基于财经数字化产品建设需要,负责财经数据标注、数据采集、标注审核等工作: 1、熟悉数据对象的关键要素,理解具体业务含义,通过学习各类标注规则,使用标注工具对图像、文本等数据进行标注、归纳、分类等,按照要求精确完成各类标注任务; 2、根据财经数字化产品与项目需求进行数据采集,设计质检策略,对标注结果进行审核,确保标注结果质量满足产品建设需求。
-
团队背景 隶属于6767搜推工程策略组6767,是公司搜索与推荐业务的核心技术支撑团队。团队技术氛围开放,鼓励创新实践,团队成员具备丰富的分布式系统与海量数据处理经验。 岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: 61基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; 61设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; 61通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 61负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; 61基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; 61针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 61**本科及以上学历,计算机相关专业,大数据开发相关经验; 616767熟练掌握并使用6767(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; 61熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; 61具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 61具有良好的沟通能力和组织协调能 6767加分项:6767 61有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; 61理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; 61对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
-
岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: •基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; •设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; •通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 •负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; •基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; •针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 •**本科及以上学历,计算机相关专业,大数据开发相关经验; •熟练掌握并使用(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; •熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; •具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 •具有良好的沟通能力和组织协调能 加分项: •有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; •理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; •对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。


