-
职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
-
职位职责: 1、参与字节跳动搜索业务离线和实时数据仓库建设工作; 2、参与数据ETL流程的优化并解决海量数据ETL相关技术问题; 3、参与复杂数据链路依赖和多元数据内容生态下的数据治理工作; 4、背靠字节跳动强大的中台架构和产品体系,在业务快速落地数据解决方案。 职位要求: 1、精通数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、具备较强的编码能力,熟悉sql,python,hive,spark,kafka,flink中的多项,有TB以上大数据处理经验; 3、对数据敏感,认真细致,善于从数据中发现疑点; 4、善于沟通,具备优秀的技术与业务结合能力。
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
岗位职责: 1.负责用户行为数据、业务数据、投放数据统计分析工作; 2.为业务方提供产品迭代、运营策略的数据支持,对产品/策略上线后进行影响及收益评估,协助业务监控产品相关指标,分析波动原因; 3.对用户增长指标进行监控与问题定位、提出改进方向、给出数据结论; 4.具备数据分析和数据建模能力,结合用户行为数据,深入挖掘用户行为特征,不断优化和完善整个数据体系。 任职要求: 1.本科及以上学历,3年以上游戏行业数据分析的工作经验,统计/数学/计算机相关专业学历背景优先,优秀者可适当放宽; 2.具备数据的处理能力,熟练使用数据分析工具; 3.具备高度责任心、良好的人际沟通技巧,有较强的学习意识及进取心,工作踏实,可承受一定工作压力; 4.有良好的职业素质、合作意识和团队精神,具有独立分析和解决问题的能力; 5、有游戏行业经验,做过数仓、常规数据分析工作的亦可,在业务项目组内做过数分的优先。
-
工作职责: 1. 负责公司各业务场景的数据仓库的建设和优化,对业务方需求进行有效支持,并对一致性、准确性、延迟性提供保障。 2. 负责公共数据指标体系和经营分析模型的开发和维护,实现数据驱动和数据价值。 3. 设计和构建完备的ETL流程,对各类业务数据进行清洗、建模、整合以及监控。 4. 日常的数据维护工作。 任职资格: 1. 计算机或相关专业在读(本科或以上);有名校背景或者名企工作经验者优先。 2. 精通sql开发,对Spark和Hive比较熟悉,有性能调优经验者优先。 3. 熟练使用大数据相关集群(Hadoop\Spark\Hive等),有集群搭建和运营经验者优先。 4. 具备3年以上数仓经验:对大数据相关领域内技术比较熟悉,可以进行技术选型和方案制定;对维度建模和数据治理比较熟悉,有自己的独到见解; 5. 拥有一门或多门编程语言的能力,可以对较复杂数据场景进行编码; 6. 踏实、勤恳、好学,有较强的沟通能力和良好的团队协作精神,能够进行任务管理和时间管理; 7.能独立负责项目,以结果为导向,保证项目真正落地并达到预期。
-
岗位职责: 1、 负责严格按公司制作及测绘相关制度开展工作; 2、 负责依据部门数据建设计划,按质按量完成上级领导所安排的工作; 3、 通过公司专业培训后,使用内部平台,负责地图制图表达、数据处理工作,并用数据处理地图; 4、 参照图片和规范的原则,在内部编辑平台上处理和标注电子地图,如道路属性,公交线路属性,POI等数据 5、 负责对生产过程中的问题进行及时反馈并提出合理性建议; 6、 结合实际工作情况,合理性提出培训需求 任职资格: 1、专科及以上学历; 2、有较强的沟通协调能力,熟练常用的办公软件
-
岗位职责: 1. 负责采用深度学习进行算法和模型的研发、训练与优化,实现目标检测识别跟踪、姿态分析、意图推断、属性分析、图像处理及计算机视觉、语音语义识别等相关无人系统相关算法研发; 2. 负责linux系统下的嵌入式应用软件开发和基于ARM、RISCV、X86等多种指令集的推理引擎开发及优化,基于专用推理芯片进行人工智能推理应用优化与实现。 3. 负责AI标注算法的开发,实现对AI数据按目标场景进行自动/半自动标注,用于辅助AI模型训练,并完成数据的采集、清洗、转换和标注优化。 4. 负责完成对结构化/半结构化/非结构化数据的存储、检索、分析和可视化等核心功能的开发、测试和维护,并基于当前存储数据构建知识图谱。 5. 结合公司的行业发展方向,对无人系统人工智能领域和大数据领域相关需求进行分析、算法设计、技术实现、迭代优化、算法自测及工程应用。 专业要求: 电子类、通信类、自动化类、计算机类、其他相关工学类 学历: 硕士研究生,博士优先 岗位要求: 1. 具有良好的政治素质,政治立场坚定,中共党员优先。 2. 熟悉计算机体系结构,了解现代计算机体系,具有Windows/Linux/Android下的系统应用开发经,熟练掌握C/C++、Python、Java和SQL等编程语言,熟练掌握主流数据库Oracle、Mysql、Sqlserver等数据库中一种(存储过程,复杂查询,开窗函数运用)。 3. 拥有扎实的统计学功底,深刻理解并熟练运用Pytorch、TensorFlow等主流深度学习框架,有丰富的无人系统视觉处理、智能算法设计经验者优先。 4. 熟悉使用常用推理引擎,如TensorRT、TVM、Tensorflow-Lite、NCNN、TNN等,掌握Linux系统环境日常开发命令,具备Linux应用C/C++编程经验,有Android系统层、HAL层、驱动层开发、NPU相关软件处理经验优先。 5. 熟悉数据仓库技术,对和云计算和大数据技术有基本认知,有Hadoop、Spark、Hbase、LevelDB、RocksDB、Redis、Kafka、ElasticSearch、MongoDB等一种或几种开发、性能调试,以及数据中心和云平台领域的平台开发、数据分析挖掘、和可视化等经验者优先。 6. 熟悉产业发展规律,对无人机行业、人工智能、大数据等方向有较深理解 7. 具有较强的逻辑能力和文档写作能力; 8. 具有良好的沟通协调能力、团队合作意识和认真负责的品质。
-
工作地点杭州之江实验室新园区 岗位职责: 1. 计算天文学相关算法研发工作,包括但不限于天文数据处理(主要面向FAST和SKA)、天文数据分析算法设计、射电信号处理、极弱信号提取等; 2. 应用人工智能、大数据和高性能计算技术,完成天文大数据处理,实现高效精确的宇宙探索; 3. 跟踪学术界和业界前沿技术进展,并且能够快速应用到课题任务中。 岗位要求: 1. 博士及以上学历,工作年限不限,有计算天文/天文学/天体物理/计算机/信号处理等方向研究背景和数据分析背景,有人工智能、大数据和高性能计算相关或融合场景的算法实践和应用。擅长下列中的两项或多项: 数据挖掘、统计分析、天文数据处理算法、GPU/CPU加速、机器学习、深度学习、大数据、高性能计算; 2. 熟悉Linux系统,熟练使用C++, Java, Scala, Python, R, Perl, Shell等一种及以上的编程语言; 3. 具有巡天数据分析、天文观测信号处理或空间光学、红外、紫外等观测数据处理经验者优先,包括但不限于LAMOST、FAST、SKA、CSST等; 4. 熟悉常见的深度学习模型,如CNN、RNN、GCN、Transformer等,并至少掌握一种深度学习平台语言及工具,如Tensorflow、Pytorch、MxNet、Keras等; 5. 工作勤奋,细心负责,热爱科研,擅于学习和思考,能独立地开展科研工作,具有良好的英语表达和论文写作能力,以**作者身份发表过高水平SCI论文; 6. 有志于从事计算天文学数据,有责任心,具有较好的表达和文档撰写能力,具备良好的沟通能力和团队协作精神。
-
工作地点杭州之江实验室新园区 岗位职责: 1. 计算天文、巡天数据、天文观测相关数据搜集、处理和分析, 数据库构建、查询和计算; 2. 开发和维护支撑高效天文大数据处理的分布式计算系统,支持用于计算天文学算法研发的人工智能、大数据和高性能计算工具需求,及图计算和图数据库工具需求; 3. 协助计算天文学科学家进行天文数据处理和相关算法工程实现,并跟踪领域的最新研究动态,引进并积极利用新的先进技术; 岗位要求: 1. 硕士及以上学历,工作年限不限,有计算天文/天文学/天体物理/计算机/信号处理等方向研究背景和数据分析背景,有人工智能、大数据和高性能计算相关或融合场景的算法实践和应用。擅长下列中的两项或多项: 数据挖掘、统计分析、天文数据处理算法、GPU/CPU加速、机器学习、深度学习、大数据、高性能计算; 2. 熟悉Linux系统,熟练使用C++, Java, Scala, Python, R, Perl, Shell等一种及以上的编程语言; 3. 具有巡天数据分析经验和空间光学、红外、紫外等观测数据处理经验者优先,包括但不限于LAMOST、FAST、SKA、CSST等; 4. 熟悉常见的深度学习模型,如CNN、RNN、GCN、Transformer等,并至少掌握一种深度学习平台语言及工具,如Tensorflow、Pytorch、MxNet、Keras等; 5. 英文良好、擅于学习和思考、有团队合作精神; 6. 满足下列条件的为加分项: a) 有大规模分布式计算平台或图计算平台及数据库开发或实践经验者优先,包括但不限于Apache Hadoop/Spark/Storm、Tencent Angel、GrahpX、Neo4J等 b) 有计算集群或大型数据库使用和维护经验者加分; c) 有大规模虚拟筛选平台搭建经验者加分。 d) 熟悉射电或雷达信号处理,擅长微弱信号处理。 e) 熟练使用MOE、Schrodinger、DS等计算模拟软件; f) 熟悉LAMOST或其他天文数据处理分析软件,以及发布流程可加分; g) 在国内或国际知名编程比赛或数学建模比赛中获得过良好排名的加分 h) 有互联网大厂实习经验者加分
-
职位描述: 1. 根据制定的项目方案,收集、整理品牌和行业资料与数据; 2. 参与专项议题,为垂直领域研究提供数据与资料支持; 3. 基础数据的整理、核查工作; 4. 协助部门日常运营工作; 任职要求: 1. 对品牌、传媒、广告等行业有自己的理解和认识; 2. 善用互联网各渠道独立进行信息搜集,善用Excel工具; 3. 学习能力强,踏实细致有耐心,执行力强,正直诚实; 4. 每周能工作4天或以上。
-
主要职责Specific Responsibilities: (一) 基于业务价值链的岗位要求(70%) 作为部门管理者,带领团队完成价值链【引流】、【洽商】、【竞标】、【筹备】、【执行】、【复盘】中的数据收集及数据分析报告。 1. 引流(3%) 带领团队0.5天内完成新客户引流背调报告及风险预警。 2. 洽商(2%) 带领团队0.5-1天内完成项目可行性分析和客户洽商的相关补充信息。 3. 竞标(35%) 带领团队1-3天内,完成公司营销传播业务:Online IMC、Social Marketing、赞助营销等项目的DDP(Data-Driven Plan)级别前置数据报告;在项目经理和数据总监协商沟通的时间内,带领团队完成品牌咨询的DDP级别前置数据报告。要求:团队能持续、质量稳定、按时交付DDP级别的前置数据报告。 注:DDP级别的前置数据报告参考数据部SOP。 4. 筹备(10%) 带领团队0.5-1天内,完成方案修改、物料筹备、资源筹备相关的数据配套工作。 5. 执行(15%) 带领团队完成: (1) 实时监控项目执行过程,实时评估原有传播种子的效果和新生成的传播种子的潜力,实时与项目经理和客户沟通,确保数据化执行的效果; (2) 按照与客户商议的频率(一般为:0.5天/1天)进行数据化执行的报告制作。 6. 复盘(5%) 带领团队完成项目复盘报告: (1) 1天内,完成用于结算汇报的《项目总结报告》; (2) 1-2天内,完成用于与客户共成长的《客户项目复盘报告》(聚焦客户关心的问题,更多考虑客户实际情况可以做的项目优化和积累的项目经验); (3) 1-2天内,完成用于公司内部持续迭代的《全面项目复盘报告》(分析所有的项目问题,更多考虑普适性项目经验和优化意见;若项目含媒介,媒介部分需要聚焦账号预计与实际的差异,明确账号和内容的适配性,为后期媒介投放提供优化意见); (4) 主动发现、有计划开发制作、不断优化迭代并在团队内推广公司标准作业程序SOP(Standard Operating Procedure)。SOP的核心内容:a、将工作中的关键质量控制点进行细化或量化;b、具备完整而高效的工作流程;c、形成有效的思维方式、方法论(原创或借鉴经典)、工具等。成功实施三次以上均产生较好效果的,交由总经办评估论证具备标准化价值后,由本岗位制作或优化形成SOP文件。 (二) 业务价值链之外的年度重点工作(20%) 1. 根据公司研发战略的需要,数据化支持公司元宇宙内容开发相关研发项目(10%) (1) 统筹数据部完成元宇宙项目的实施流程调研及可行性分析; (2) 统筹数据部完成元宇宙作品的价值评估; (3) 统筹数据部完成其他相关的元宇宙调研。 2. 文案、视觉、视频、交互的数据分析支持(8%) 开发并持续优化,提升策划(尤其是快速锁定策略,生产高质量创意)、文案、视觉、视频、交互的策略和创意能力、交付件质量和交付速度的数据分析支持和数据化思考能力,包括但不限于: (1) 建立数据框架思维力,以便更快更准确的理解策略,输出与策略一致的创意; (2) 通过数据快速找到市场热点,让创意与市场热度一致; (3) 让输出作品更贴合品牌或产品的市场标准。 3. 公司内部其他所需的数据支持(2%) (三) 团队管理(5%) 1. 团队搭建:识别并选拔符合公司战略要求的数据部成员; 2. 团队培训:开展有针对性、系统性的、能交付实际成果的团队培训,确保团队人员达到公司要求的岗位能力,包括但不限于:全面数据化能力、按时保质成果交付能力、对内/外沟通能力、供应商管理能力; 3. 团队交付管理:确保数据部成员按期、高质量完成交付。 (四) 不额外增加管理成本(5%) 1. 在合理的管理成本外,尽可能提高效率,节省时间,包括但不限于: (1) 跨部门合作额外花费的沟通成本; (2) 由于本人管理水平不足造成数据部成员(或公司内外合作伙伴)低效、重复沟通甚至返工所花费的时间成本; (3) 上级对本部门在专业方面进行额外指导所花费的时间成本; (4) 运营中心额外督导本部门遵守制度流程所花费的时间成本。 职位要求和相关经验Qualifications & Relevant Experience (一) 本科及以上学历,市场调研专业、数据分析专业、营销专业优先,985、211、国外知名高校毕业生优先; (二) 5年以上商业分析经验,对至少3个行业进行过深入研究,并完成过有价值的DDP(Data-Driven Plan); (三) 有营销行业、文旅行业经验优先; (四) 有2年以上团队管理经验者优先。
-
主要职责Specific Responsibilities: (一) 基于业务价值链的岗位要求(75%) 独立执行价值链【引流】、【洽商】、【竞标】、【筹备】、【执行】、【复盘】环节中的数据收集及数据分析报告。要求如下: 1. 初级数据经理 (1) 引流(3%) 0.5天内,完成新客户引流背调报告及风险预警。 (2) 洽商(2%) 0.5-1天,完成项目可行性分析和客户洽商的相关补充信息。 (3) 竞标(35%) 1-3天内,在数据总监的指导下完成公司营销传播业务:Online IMC、Social Marketing、赞助营销等项目的基础性前置数据研究报告;在项目经理和数据总监协商沟通的时间内,在数据总监的指导下完成品牌咨询的基础性前置数据报告。工作内容包括但不限于: a 研究框架和计划制定,并获得项目经理和数据总监的认同; b 数据收集、数据筛选、数据去水、数据挖掘等数据收集工作; c 数据归纳、清洗、结构化分析; d 数据报告的撰写和PPT制作; e 与客户沟通数据报告。 注:基础性前置数据报告参考数据部SOP (4) 筹备(10%) 0.5-1天内,完成相关的数据配套工作: a 方案修改:根据客户、项目经理要求完成数据报告修改; b 物料制作:根据客户、项目经理要求完成数据报告补充内容制作; c 资源筹备:资源有效性评估等,交付评估报告。 (5) 执行(15%) 0.5-1天内,完成项目执行过程中数据化执行报告: a 项目执行期全渠道监测及数据报告; b 项目执行期用户实时反馈内容的监测、分析及数据报告; c 按客户要求推出不同频率完整的数据监测报告。 (6) 复盘(10%) a 1天内,完成用于结算汇报的《项目总结报告》; b 1-2天内,完成用于与客户共成长的《客户项目复盘报告》(聚焦客户关心的问题,更多考虑客户实际情况可以做的项目优化和积累的项目经验); c 1-2天内,完成用于公司内部持续迭代的《全面项目复盘报告》(分析所有的项目问题,更多考虑普适性项目经验和优化意见;若项目含媒介,媒介部分需要聚焦账号预计与实际的差异,明确账号和内容的适配性,为后期媒介投放提供优化意见); d 制作、优化及在团队内推广公司标准作业程序SOP(Standard Operating Procedure)。SOP的核心内容:a、将工作中的关键质量控制点进行细化或量化;b、具备完整而高效的工作流程;c、形成有效的思维方式、方法论(原创或借鉴经典)、工具等。成功实施三次以上均产生较好效果的,交由总经办评估论证具备标准化价值后,由本岗位制作或优化形成SOP文件。 2. 中级数据经理 (1) 具备完成初级数据经理工作的专业能力; (2) 【竞标】环节要能在数据总监的指导下持续、质量稳定、按时交付DDP(Data-Driven Plan)级别的前置数据报告; (3) 【执行】环节发现数据化执行中的问题和新的机会点,并与项目经理及时沟通,补充相关新的数据分析报告; 注:DDP级别的前置数据报告参考数据部SOP 3. 高级数据经理 (1) 具备完成初级、中级数据经理工作的专业能力; (2) 【竞标】环节要能持续、质量稳定、按时独立交付DDP级别的前置数据报告; (3) 【执行】环节发现数据化执行中的问题和新的机会点,并与项目经理及时沟通,补充相关新的数据分析报告,协助项目经理完成与客户沟通新的传播策略和内容; (4) 【复盘】环节是SOP的核心开发人员,复盘报告中重量级发现的主要选手。 (二) 业务价值链之外的年度重点工作(15%) 1. 根据公司研发战略的需要,数据化支持公司元宇宙内容开发相关研发项目(10%) (1) 独立完成元宇宙项目的实施流程调研及可行性分析; (2) 元宇宙作品的价值评估; (3) 其他相关的元宇宙调研。 备注:初级数据经理无此部分工作,打分时此项权重并入竞标部分。 2. 文案、视觉、视频、交互的数据化支持(3%) 开发并持续优化,提升策划(尤其是快速锁定策略,生产高质量创意)、文案、视觉、视频、交互的策略和创意能力、交付件质量和交付速度的数据分析支持和数据化思考能力,包括但不限于: (1) 建立数据框架思维力,以便更快更准确的理解策略,输出与策略一致的创意; (2) 通过数据快速找到市场热点,让创意与市场热度一致; (3) 让输出作品更贴合品牌或产品的市场标准。 备注:初级数据经理无此部分工作,打分时此项权重并入竞标部分。 3. 公司内部其他所需的数据支持(2%) (三) 不额外增加管理成本(10%) 1. 在合理的管理成本外,尽可能提高效率,节省时间,包括但不限于: (1) 平级跨部门合作额外花费的沟通成本; (2) 上级对本岗位在专业方面进行额外指导所花费的时间成本; (3) 外部客户或供应商成果交付额外花费的沟通成本; (4) 运营中心额外督导本岗位遵守制度流程所花费的时间成本。 职位要求和相关经验Qualifications & Relevant Experience (一) 本科及以上学历,市场调研专业、数据分析专业、营销专业优先,985、211、国外知名高校毕业生优先; (二) 2年以上商业分析经验,至少在两个行业有优秀的数据驱动计划的数据报告; (三) 有基于数据报告与内外部合作方做汇报的演讲和沟通能力优先; (四) 有营销行业、文旅行业经验优先。
-
工作职责 •负责数据平台技术平台,确保系统可用性、性能和成本效益。 •与业务和技术涉众一起工作,设计和开发关系、层次和维度数据模型和定义,使其与业务规则、流程和分析需求保持一致。 •负责数据仓库的设计、建设和持续升级。 •设计流管道,操作存储系统,实现安全和合规概念 •为数据工程和项目团队提供实用的指导方针、建议和最佳实践,以支持数据管道的实施。 •理解和设计流程的端到端数据流,协作确定集成解决方案,确定特定领域对更大业务流程的影响 •评估每个工作项所需的工作量,并领导数据工程师和供应商执行工作项 •与SRE、基础设施、运营和电子商务团队合作,确保全面的系统设计、工作安排,并通知适当的员工,为转换和其他活动做好充分准备。 •识别问题,建议修复系统问题,并定义系统中包含的数据的数据所有权 •通过设计具有市场定制灵活性的全球解决方案,利用或贡献全球市场的核心组件 •紧跟技术趋势,识别新技术机会进行试验和实施。 工作要求 •计算机科学或IT专业学士学位 软件工程。 •5年丰富的大数据技术栈实践经验,如Hadoop, Flink, Spark, Kafka等。 •3年Python和Shell开发经验。 •熟悉大数据质量管理、元数据管理、数据安全管理。 •熟悉Dataphin、Dataworks、EMR、PAI等阿里云大产品和技术。 •对数据维度建模有良好的理解
-
岗位职责: 1.分析和挖掘海量数据,评估商业化价值,输出数据融合应用场景指标体系; 2.与合作方积极沟通,提炼数据需求,进行数据寻源,提升平台的数据丰富度; 3.深入业务理解运作逻辑,发现数据运营服务增长点并提出行动建议; 4.调研竞品及类似行业,持续改进数据服务模式及内容项; 5.合规安全的前提下充分挖掘数据价值,与ISV联合打造具有竞争力的数据应用。 任职要求: 1.统计、数学、计算机等相关专业本科及以上学历,三年以上工作经验; 2.有互联网行业数据分析经验者优先,有数据商业化经验者优先; 3.参与或独立主导设计过数据类产品、主导过指数项目优先; 4.熟练使用Hql、python、R等进行数据分析建模;熟悉常用的数据算法如:决策树、聚类、逻辑回归,关联分析等; 5.热爱创新、工作积极、抗压能力强。


