-
职位职责: 1、广告各类在线业务的离线数据加工与在线数据服务开发与维护; 2、数据服务接口及产品需求研发迭代,代码review、bug修复及日常服务运维; 3、针对海量数据处理和查询需求,设计适应业务变化的合理的多维数据分析系统架构,满足多样性的需求; 4、海量日志清洗加工,并抽象出可以多业务复用的数据模型; 5、指导初级数据开发工程师进行日常开发。 职位要求: 1、熟悉Hadoop架构和工作原理,精通MapReduce编程;精通Hive,有HQL优化经验; 2、有web服务开发经验,具备独立完成模块开发能力,具备大规模分布式服务设计能力和经验; 3、理解基本的设计模式,能将业务需求快速理解成技术需求; 4、熟练使用Mysql,熟练使用ElasticSearch、Druid者优先;熟悉其原理者优先; 5、善于沟通,工作积极主动,责任心强,具备良好的团队协作能力; 6、具备良好的问题分析与解决能力,有较强学习能力和逻辑思维能力。
-
职位职责: 1、参与字节跳动搜索业务离线和实时数据仓库建设工作; 2、参与数据ETL流程的优化并解决海量数据ETL相关技术问题; 3、参与复杂数据链路依赖和多元数据内容生态下的数据治理工作; 4、背靠字节跳动强大的中台架构和产品体系,在业务快速落地数据解决方案。 职位要求: 1、精通数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、具备较强的编码能力,熟悉sql,python,hive,spark,kafka,flink中的多项,有TB以上大数据处理经验; 3、对数据敏感,认真细致,善于从数据中发现疑点; 4、善于沟通,具备优秀的技术与业务结合能力。
-
工作职责: 1、微博企业蓝v&品牌号产品使用偏好分析,包括但不限于产品分析、用户分析、运营分析,给出可落地的策略建议,形成报告。 2、数据分析的工具支持,包括但不限于 数据模板、数据看板,需求收集、落地、迭代。 3、负责品牌号数据中心的产品运营工作,推动产品优化迭代、提升产品价值。 职位要求: 1、本科以上学历,数学、统计学相关专业优先; 2、有2年以上互联网公司业务数据分析相关工作经验; 3、熟练使用sql、python等数据处理及分析软件; 4、具有良好的数据逻辑分析能力,能主动发现业务问题和诉求,对接协同业务方推进业务优化。
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
岗位职责: 1、负责信贷行业相关的数据分析,包括不限于决策支持、用户增长和产品迭代、项目评估等数据分析和洞察; 2、建立业务模型,梳理指标体系,对业务进行日常监控和经营分析; 3、协助业务部门进行策略制定与拆解,通过数据分析输出策略建议和效果反馈,不断改善业务结果,提升业务效率; 4、管理数据分析团队,包括制定团队目标、进行工作规划、分配工作、管理产出等。 任职要求: 1、统计、数学、信息技术等本科以上学历,10年以上相关工作经历; 2、精通SQL,了解并会使用QuickBI等数据看板软件; 3、对信贷行业商业逻辑有较好的理解和思考,有策略制定的成功案例; 4、有数据分析团队管理经验。
-
工作内容: 1、根据业务需求进行数据业务开发,分析后台已有数据,理解数据维度和含义,并根据计算公式进行数据应用开发及分析。 2、参与数据治理工作,根据目前已有数据,解析数据依赖,编排数据拓扑结构,数据元数据结构优化;提升数据易用性及数据质量,统一数据口径,制定数据标准化规则。 3、对数据平台和执行引擎遇到问题时有一定的解决能力,负责 ETL 流程的优化及解决 ETL 相关技术问题,对数据稳定性和性能有一定的优化能力。 4、支撑采购供应链业务域的搜索、用户画像、推荐系统等业务的数据需求,确保输出时效性与准确性。 任职要求: 1、本科及以上学历,计算机相关专业,3年以上工作经验; 2、精通Python语言,能够使用python写数据分析算法; 3、精通FineBI、FineReport的开发、维护技术(有帆软高级工程师认证的优先)能够独立完成BI项目的开发; 4、精通数仓及BI系统业务建设流程; 5、熟练掌握SQL,能够熟练编写复杂的查询语句、存储过程、函数等,对常见关系型数据库(如Oracle、MySQL等)的性能优化有一定经验; 6、有良好的沟通和业务流程描述能力,书面表达能力,高度自驱。
-
岗位职责: 1.负责公司业务系统数据库的性能维护、安全性管理; 2.负责公司数据可靠性维护、数据备份和数据容灾; 3.对开发项目提供数据库技术支持; 4.负责数据库运维自动化脚本编写。 任职要求: 1.计算机、软件相关专业本科及以上学历; 2.3-5年相关工作经验; 3.较强的沟通学习能力,对技术有热情,有能力直接跟踪和学习最新的技术和知识; 4.有python或者shell编程能力; 5.有oracle、mysql、mongodb、hadoop至少一种运维能力。
-
岗位说明: 1. 针对重点行业(能源电力、大型装备、金属冶炼、半导体、精密电子等行业)的智能制造与数智化升级,利用设备和生产数据,灵活运用数据分析相关技术解决客户实际业务问题; 2. 基于公司的数据平台产品,开展如下工作:数据预处理、特征工程、数据分析模型的开发、测试和部署、并支持相关数据分析应用的开发和落地。 岗位要求: 1. 精通统计分析、时序数据和关系数据处理,了解常用数据挖掘/机器学习等算法,有将数据算法实际应用于设备健康、故障诊断、质量追溯、工艺优化等实际项目的经验。 2. 精通数据分析语言Python及常用的算法包的使用(如numpy, pandas, scipy, sklearn, tsfresh, matplotlib, seaborn, pyecharts, plotly等),有实际项目代码开发经验。 3. 工业专业教育背景或工作经验,具有电力、电子、能源动力、半导体、化工或自动化等专业背景 4. 有良好的业务理解和团队合作能力;有项目管理或技术管理经验者优先(高级)。 5. 有较强的新领域知识学习能力、文档写作能力、客户沟通能力;能快速搜索、阅读中英文文献者(高级)。 6. 具有工业软件开发背景者优先:例如自动化行业软件开发者(例如SCADA、MES、EAM、PLM、MPC等),或具有工业机理模型开发经验者(例如基于Matlab/Simulink、ANSYS等仿真模型),或熟悉精益生产管理、六西格玛流程和工具者。 7. 了解精益生产、六西格玛等概念,或熟悉工业流程、工业通信协议,SCADA/MES/PLM等工业软件者优先。
-
职位描述 1、加入高德地图的商业智能BI团队,深入理解高德核心业务,为决策层评估业务价值、进行业务决策等提供数据支撑; 2、数据研发:参与高德地图打车、搜索等核心业务的数据仓库、数据产品建设,参与数据治理并沉淀业务数据资产; 3、数据挖掘:基于高德地图的海量日志,通过算法模型挖掘有价值的业务信息,指导高德地图的产品迭代。 职位要求 1、计算机、数学、统计或者相关专业本科以上学历; 2、熟悉Java/Python,精通SQL,具有5年以上数据研发经验; 3、熟悉HADOOP大数据平台架构:HDFS/HBase/Hive/MapReduce,熟练掌握MapReduce程序开发,了解实时计算,有使用过Flink、Spark Streaming等开源实时流引擎的优先; 4、对数据仓库系统架构具有良好的认知,理解数据分层、数据倾斜、错峰调度等理念,并具有相关实战经验。
-
职位描述 1. 构建全面的、准确的、能反映服务业务线特征的整体指标体系,,并基于业务监控指标体系,定期产出经营分析和复盘,及时发现与定位业务问题; 2. 通过专题分析,对业务问题进行深入分析,为公司运营决策、产品方向、业务策略提供数据支持;在C端转化,用户运营,B端供给策略、BC联动上有分析经验优先; 3. 沉淀分析思路与框架, 提炼数据产品需求,与相关团队(如技术开发团队) 协作并推动数据产品的落地; 4. 与相关团队协作进行数据建模工作,推动业务部门的数据化运营; 5. 与相关团队协作(如数据运营团队)组织数据技术与产品相关的理念、技能、工具的培训; 职位要求 1. 统计、数学、信息技术、生物统计本科以上学历,5年以上相关工作经历 2. 熟练独立编写商业数据分析报告,及时发现和分析其中隐含的变化和问题 3. 良好的数据敏感度,能从海量数据提炼核心结果,有丰富的数据分析、挖掘、清洗和建模的经验 4. 熟练运用SQL,能高效的与数据技术团队进行沟通 5. 大项目的经验,有丰富的跨团队、部门的项目资源整合能力,能够独立开展研究项目 6. 有用户数据模型建立和运营经验、数据化运营经验、数据类产品类规划经验,尤其是互联网相关的优先
-
工作职责: 1、结合业务视角和互联网经验,对广告业务进行多维度深入分析,输出分析报告,为管理层决策和业务运营提供支持; 2、参与广告资源产品管理,从数据分析出发,结合业务实际情况,输出资源产品相关策略及优化建议; 3、设计并优化数据监控体系,搭建数据看板(Dashboard),实时跟踪广告业务情况及异常波动,及时预警风险; 4、利用专业能力为前台团队进行赋能,为广告收入持续增长提供支撑; 5、与产品、运营等团队紧密协作,通过数据分析方法驱动广告策略优化; 6、参与数据仓库建设,完善数据采集、清洗及存储流程,提升数据质量和分析效率; 岗位要求: 1、**本科及以上学历,数学、统计学、计算机等相关专业优先; 2、有3-5年商业分析、数据分析、经营分析的相关工作经验,有互联网广告行业经验者优先(如效果广告、程序化广告、DSP/SSP平台等); 3、对数字敏感,熟练使用Excel、PPT等软件,熟练掌握SQL,能独立完成复杂数据查询与处理,具备Python、R等数据分析工具能力者优先; 4、良好的沟通能力,能够有效跨部门交流和协作,较强的学习能力、适应能力和逻辑思维,能够承受一定的工作压力;
-
1.5年年及以上开发经验,计算机、数学等相关专业; 2.具有数学基础,熟悉python编程,有神经网络项目开发经验,能够进行1inux环境下的开发; 3.掌握机器学习的基本算法与概念,有深度学习模型开发经验; 4 精通深度学习模型框架如TensorFlow、pytorch等。
-
工作职责: 1、负责支持日常数据采集和管理需求,包括业务条线数据对接、加工、整合和集中管理; 2、负责开发模块的开发工作,测试工作与数据核对工作; 3、负责数据仓库设计及相关工作; 4、完成领导安排的其他工作。 任职资格: 1、本科以上学历; 2、3年以上数据库设计和开发经验,有Oracle、其他大型数据库的开发经验,能编写性能良好的SQL; 3、熟悉SmartBI等工具,具备数据仓库技术、Hive/SparkSql/Kylin/doris等数据库开发经验; 4、具备高度责任心和积极工作态度,良好的沟通能力和团队合作精神,较强的分析问题和解决问题能力; 5、具有保险行业经验者、懂理赔业务流程者优先安排面试;
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
职位描述 负责国际化B/C/D三端核心数据仓库及相关数据系统服务的研发工作,致力于数据驱动业务提升决策效率与质量。 核心职责 数据仓库开发与优化 设计并实施高性能、可扩展的海外业务数仓架构,支持多时区、多语言数据集成。 与数据分析师、业务团队协作,理解需求并输出数据服务(如指标体系、数据API)。 实时数据开发 构建实时数据工程开发服务平台,沉淀平台能力,支持Flink SQL无法满足的实时指标计算场景 基于Flink/Kafka/Spark Streaming等构建实时数据处理管道,支持业务实时监控与告警。 解决实时场景下的数据延迟、乱序、Exactly-Once等挑战。 数据服务工具构建 构建数据服务平台,提供通用的接口服务与指标管理,连接数仓数据与数据应用(线上系统、分析系统、用户等)。 推动数据治理(质量监控、血缘追踪、权限管理)在海外业务的落地。 项目管理与跨团队协作 主导数据项目全生命周期管理(需求评审、排期、风险控制、交付),协调跨时区团队。 制定数据开发规范,主导技术方案评审,培养初级工程师。 任职要求 核心要求 8年以上数据开发经验,满足以下任一背景者: 路径A:有数据平台/中台开发经验(如数据湖、计算引擎优化),有转型数仓方向意愿; 路径B:有后端开发经验(Java/Scala/Python)+ 数仓开发经验(3年以上)。 精通实时数据处理技术栈(如Flink/Kafka/Redis),有高吞吐、低延迟场景实战经验。 熟练掌握数仓分层理论、建模方法,熟悉Hive/Spark/Impala等大数据组件。 有项目管理经验(至少主导过2个中型以上数据项目),熟悉敏捷开发流程。 加分项 熟悉云数仓(Snowflake/BigQuery/Redshift)或湖仓一体架构(Delta Lake/Iceberg)。 了解数据安全合规要求(如GDPR)。 有BI工具(Tableau/Superset)或数据服务化经验。 英语能力优秀(可处理英文文档、跨团队沟通),有海外业务经验者优先 我们提供 参与全球化数据体系建设的机会,业务覆盖香港、中东、美洲等地区。 技术导向的团队,支持技术转型与前沿方案落地。 有竞争力的薪资与国际化工作环境。


