-
职位职责: 1、负责国际支付业务的数据分析、指标体系建设、业务迭代分析及AB实验分析等工作; 2、通过基础数据建设,能够清晰、完整的刻画国际支付业务的业务现状; 3、通过专项数据分析形成数据洞察及优化迭代建议,数据驱动国际支付业务发展。 职位要求: 1、本科及以上学历,统计学、数学、计算机等相关专业; 2、熟练使用SQL/Hive/Python/Spark等语言工具进行数据分析工作; 3、扎实的统计学、数据挖掘等理论和技术基础,熟练掌握因果推断、统计与概率论等数学工具,熟悉聚类分析、关联分析、逻辑回归、决策树等数据挖掘/机器学习模型算法; 4、有较强的逻辑思维能力,对数据敏感,具备很强的数据分析和解决问题的能力,有较好的产品意识,对产品和数据有独立的思考和洞察,有较强的数据驱动的意识; 5、具备较强的学习能力,有强烈的求知欲和进取心,主动及时关注学习业界最新技术; 6、有较强的责任心和主人翁意识,具备良好的沟通表达能力,积极乐观并有良好的团队协作能力; 7、在支付、金融、信贷等领域有相关的数据工作经验及行业经验者优先。
-
职位职责: 1、建设和迭代指标体系,形成体系化的日常业绩追踪机制,并推进数据监控看板/数据产品的建设; 2、负责营销导购方向核心目标的追踪和异动分析工作(营销工具、大促、平台营销、商详、评价等方向),识别并洞察问题、提出建议主张、支持业务复盘决策; 3、主动发现问题和业务痛点,独立承接营销分析相关的研究洞察专题、短中长期可落地的解决方案,协助业务提效增收。 职位要求: 1、具备数据分析相关工作经验,具备有电商相关行业战略分析、经营分析、商业分析经验者优先,计算机,统计学、数学、经济学专业优先; 2、具有良好的战略分析框架及逻辑思维能力,数据分析能力强,能熟练应用各种数据处理和统计工具,包括但不限于Excel、SQL、SPSS、Python;有较强的撰写报告和PPT的能力; 3、好奇心强,主动性强,能快速学习,能够独立思考。
-
工作内容 职位描述: 1.参与大数据平台数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2.参与数据仓库模型的ETL实施,ETL性能优化、技术攻关等。 3.参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4.参与平台标签体系、数据产品与应用的数据研发,发掘数据价值,以数据驱动业务不断发展。 岗位要求 任职要求: 1. 本科及以上学历,2-6年工作经验,具备极强的问题解决能力。 2. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 3. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型;熟练掌握SQL/HQL/Spark SQL开发及优化技能,快速ETL实施能力,对SLA有较深刻的认识及强烈的责任心。 4. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink,DataWorks等大数据工具应用和开发经验优先。 5. 掌握Java, Python等至少一门语言,有MapReduce项目开发经验,熟悉Azkaban等任务调度工具。 6. 熟练使用git,有多人项目合作开发经验。 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。
-
岗位职责: 1、负责平台商家数据分析工作,规划搭建平台电商分析体系; 2、产出数据分析系统+报表,输出可视化报告; 3、跟踪业务数据,监控数据波动和异常,通过数据分析发现业务问题和机会点,并能提出有效的解决策略; 4、关注行业动态,定期输出专业竞品&行业数据分析报告; 岗位要求: 1、本科及以上学历,数学、统计学相关专业,有至少一年电商行业经验; 2、从事数据分析工作三年及以上,熟练掌握Hive/SQL,精通Excel; 3、具有快速的业务理解及学习能力,能够发掘业务细节和数据之间的联系,逻辑思维、自我驱动、抗压能力强; 4、商业敏感性高,逻辑分析能力强,有极强的数据敏感度、数据分析和提炼归纳的能力,快速学习能力、责任心与团队合作精神。
-
地点:武汉 岗位职责: 1、负责产品的研发工作,主要负责后台编写,包含部分算法编写、性能优化,保证平台安全、稳定、快速运行。 2、负责产品的数据模型设计以及相应接口的开发工作。 3、参与系统的需求调研和需求分析,及系统上线协助,并承担部分交付责任。 4、配合前端进行前后端联调。 任职要求: 1、计算机相关专业硕士及以上学历, 3年以上JAVA开发经验; 2、有数据控制技术、机密容器研发经验优先。 3、有隐私计算、联邦学习,隐语、Fate隐私计算开源框架、区块链等相关技术研发和应用经验优先。 4、具备良好的面向对象编程经验,深入理解OO、AOP思想,具有较强的分析设计能力,熟悉常用设计模式。 5、精通Spring、Mybatis、JPA等开源框架并熟悉其实现原理,熟悉SpringCloud等微服务框架。有两年及以上的Spring实际项目开发经验。 6、熟练使用linux操作系统,熟悉云原生架构技术Docker、K8S等。 7、熟悉SQL编写,至少掌握mysql、sqlserver、oracle的一种; 8、熟悉Tomcat、nginx等web服务器。 9、熟悉websocket,grpc等相关通信协议。 10、熟悉C/C++、python优先。
-
工作职责: 1、微博企业蓝v&品牌号产品使用偏好分析,包括但不限于产品分析、用户分析、运营分析,给出可落地的策略建议,形成报告。 2、数据分析的工具支持,包括但不限于 数据模板、数据看板,需求收集、落地、迭代。 3、负责品牌号数据中心的产品运营工作,推动产品优化迭代、提升产品价值。 职位要求: 1、本科以上学历,数学、统计学相关专业优先; 2、有2年以上互联网公司业务数据分析相关工作经验; 3、熟练使用sql、python等数据处理及分析软件; 4、具有良好的数据逻辑分析能力,能主动发现业务问题和诉求,对接协同业务方推进业务优化。
-
岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
-
【岗位职责】 岗位职责: 1.对于数据有敏锐感知和洞察力,可依据客户数据、销售数据和行业等数据,总结业务规律和模式探索,并定期输出报告; 2.具备优秀的沟通能力及商务写作能力; 3.通过日常业务规范和明确数据口径标准,保证基础数据关键字段统一,完成数据分析; 4.有较强的理解能力和逻辑思维,能快速准确理解业务需求和提炼总结;进行准确销售预测和业务预警,给出合理的建议规划,提升整个团队的运作效率 任职要求: 1.广告学、统计学、应用数学、计算机信息技术等相关专业,本科及以上学历; 2.2年及以上销售运营管理、数字营销、广告传播、用户运营、咨询公司、大数据分析等相关工作经验; 3.熟练运用PPT、Excel、Visio等Office软件;能够灵活应Excel 公式和宏函数的优先;
-
岗位职责: 1、负责电商财务域数据模型调研、设计、开发工作,与业务部门紧密配合,提供数据支持 2、负责电商财务域数据运营&治理工作,保障数据质量 3、参与电商财务域数据体系化建设,提升数据服务稳定性 任职要求: 1、计算机相关专业,大学本科及以上学历,5年以上大数据开发相关工作经验 2、熟悉大数据相关组件(如Hive、Spark、Flink、Kafka等),具备编写、优化复杂SQL的能力 3、有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题 4、熟悉Python/Java/Scala/Shell其中一种语言 5、具备电商领域业务开发经验优先;具备财务领域业务开发经验优先 6、负责过数据平台或数据仓库设计优先;有带团队经验优先。
-
岗位职责: 1. 深入了解广告商业化业务逻辑,负责广告全矩阵目标管控及数据分析支持; 2. 追踪和分析音乐内容消费链条的商业漏斗效率,独立输出专题分析报告,发现业务问题,定位原因并协同运营、产品团队讨论解决方案; 3. 基于历史数据和商业策略,支持产品和运营团队制定提收策略,并客观评估策略收益价值; 4. 积极主动发现新商业机会、推动落地,助力音乐平台,打造新增长驱动。 岗位要求: 1. 本科及以上学历,2年及以上互联网商业广告分析经验,有游戏、增值服务等商业化业务经验更佳; 2. 对数据敏感,具有较强的商业化数据分析能力,能熟练使用Excel、PPT,并具备熟练的SQL/Python/R数据处理及分析能力者优先考虑; 3. 能独立完成大型分析项目,具备结构化思维,分析能力强,能够独立解决问题,沟通表达能力优秀。
-
岗位说明: 1. 针对重点行业(能源电力、大型装备、金属冶炼、半导体、精密电子等行业)的智能制造与数智化升级,利用设备和生产数据,灵活运用数据分析相关技术解决客户实际业务问题; 2. 基于公司的数据平台产品,开展如下工作:数据预处理、特征工程、数据分析模型的开发、测试和部署、并支持相关数据分析应用的开发和落地。 岗位要求: 1. 精通统计分析、时序数据和关系数据处理,了解常用数据挖掘/机器学习等算法,有将数据算法实际应用于设备健康、故障诊断、质量追溯、工艺优化等实际项目的经验。 2. 精通数据分析语言Python及常用的算法包的使用(如numpy, pandas, scipy, sklearn, tsfresh, matplotlib, seaborn, pyecharts, plotly等),有实际项目代码开发经验。 3. 工业专业教育背景或工作经验,具有电力、电子、能源动力、半导体、化工或自动化等专业背景 4. 有良好的业务理解和团队合作能力;有项目管理或技术管理经验者优先(高级)。 5. 有较强的新领域知识学习能力、文档写作能力、客户沟通能力;能快速搜索、阅读中英文文献者(高级)。 6. 具有工业软件开发背景者优先:例如自动化行业软件开发者(例如SCADA、MES、EAM、PLM、MPC等),或具有工业机理模型开发经验者(例如基于Matlab/Simulink、ANSYS等仿真模型),或熟悉精益生产管理、六西格玛流程和工具者。 7. 了解精益生产、六西格玛等概念,或熟悉工业流程、工业通信协议,SCADA/MES/PLM等工业软件者优先。
-
岗位职责: 1. 基于平台的海量数据,结合数理统计、数据挖掘、机器学习等技术,分析推荐算法效果,协助挖掘、构建可用于推荐的特征; 2. 深入理解业务问题,传递数据驱动的可视化方案和建议给到业务对接人,设计可执行的方案并推动产品决策; 3. 和用研,产品,工程师团队密切合作,部薯和落地算法模型方案; 4. 通过执行和分析A/B test来加快产品的实验和迭代。 岗位要求: 1. 有相关工作经验,计算机、统计、数学等专业背景优先; 2. 有数据驱动意识和相关产品分析决策项目的领导经验; 3. 扎实的编程基础(Python/SQL/Scala)、大数据平台使用经验和数据分析工具(R,SPSS,Tableau)的使用能力; 4. 有将数据转化成可理解和执行的决策(A/B test, 产品方案)能力; 5. 良好的团队合作意识。
-
工作地点:广东广州 工作内容:1.数据收集与清洗:负责从多种数据源(如数据库、API、日志文件等)中提取和整合数据。对原始数据进行清洗、去重、转换和标准化,确保数据质量和可用性。 2.数据分析与挖掘:运用统计学、机器学习等方法对数据进行分析,挖掘数据背后的规律和趋势。针对业务问题,设计并实施数据分析方案,提供数据驱动的洞察和建议。 3.数据可视化与报告:使用可视化工具(如Tableau、Power BI、Matplotlib等)将分析结果转化为直观的图表和报告。定期生成数据分析报告,向业务部门和管理层汇报分析结果,支持决策制定。 4.业务支持与优化:与产品、运营、市场等团队紧密合作,理解业务需求并提供数据支持。 5.数据建模与预测:构建数据模型,进行预测分析和场景模拟,为业务规划提供数据依据。持续优化模型,提升预测准确性和实用性。 任职资格: 1.学历要求:本科及以上。 2.专业要求:计算机、数学、统计学、金融工程、经济管理、商业分析等相关专业优先。 3.工作经历:须具备数字化工作背景。 (1)具备风险管理、数据分析等工作经验; (2)熟练掌握风险评估、风险建模、数据分析等专业技能,精通Python、R、SQL等数据分析工具,能够运用大数据技术进行风险识别和预警。 (3)具备相关法律法规和监管政策等经验者优先;具备民航工作经验者优先。
-
1、分析业务对整车数据埋点采集、边缘智能车控算法的需求场景,负责整车数据埋点采集组件、边缘计算平台及智能算法的功能设计开发及优化 2、负责车载边缘端软件(边缘数据库、边缘计算引擎等)的数据接入、端云协同交互等扩展功能的方案设计、开发及测试 3、负责产品系统方案设计、技术选型及关键模块的验证 4、负责车载边缘端软件的自动化测试开发 5、跟踪整车埋点数据采集、边缘计算引擎等技术发展趋势,推动技术落地应用 1.工作经验:5年以上C++开发经验,有智能网联汽车埋点相关经验优先 2.其他: ①、熟悉常用数据结构、算法,具备Linux系统编程经验 ②、熟练掌握多线程、网络通讯协议(如TCP/IP、CAN、MQTT等)的基础实现 ③、熟悉Boost开发框架,能够熟练使用makefile、cmake、gdb等工具链 ④、工作认真、负责、仔细,有良好的团队合作精神,良好的分析及沟通能力
-
工作职责 1、负责大数据相关系统的开发、测试、部署及上线工作,参与代码评审,确保开发质量; 2、参与业务部门临时数据分析需求,合作开展专项数据分析工作; 3、协助运营人员处理生产问题并提供技术支持,解答业务部门反馈的数据问题及各类咨询; 4、参与公司数据分析需求调研、评估、系统分析及架构设计工作。 任职要求 1、本科及以上学历,计算机、数学、统计学、管理信息类相关专业; 2、熟悉关系型数据库如Oracle、Postgresql等的使用、可熟练编写SQL实现业务逻辑,了解SQL性能调优; 3、熟悉Hadoop生态圈组件,包括但不限于Hive、Spark、HBase、Kylin、Flink、ES、Kafka等; 4、具备良好数据分析及处理能力,熟悉常见的数据处理工具,如ETL、BI工具、Python等; 5、具有较强的责任心和服务意识,良好问题分析及处理能力。


