-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
岗位职责: 1、带领部门数据中台数仓开发成员,负责太保寿险内部数仓各层逻辑模型的设计、建设与维护,构建可扩展的数据仓库公共模型; 2、负责数据处理流程的优化、定位并解决有关技术问题; 3、对接公司个险、团险、运营等业务团队,协调满足业务团队对于各维度数据的需求; 4、参与制定公司与事业部数仓规划、数据研发规范、以及数据治理与指标的管理方案。 任职要求: 1、5年以上数据仓库工作经验,熟悉数据仓库模型设计方法论,有实际搭建公司层级数仓的经验; 2、精通数据仓库有关领域知识,例如元数据管理、主数据管理、ETL工作流、SQL性能调优等; 3、精通SQL、熟悉Shell、具备海量数据加工经验; 4、熟悉Flink或者阿里Blink等实时计算框架,并有实际实时数仓开发经验; 5、有阿里云数据中台产品DataWorks、MaxCompute工作经验优先、熟悉Hive/Flink/Spark等开源大数据工具优先; 6、有较强的问题抽象、概括、总结能力,独立思考并能以产品的思路提出解决方案; 7、具有较好的沟通理解能力,团队协作和创新能力; 8、有互联网公司或者保险金融企业数仓建设经验者优先; 9、有一定团队管理经验。
-
工作职责: 1.承担数据治理各阶段的相关工作,包括用户调研、分析业务数据需求与数据痛点、设计数据资产目录、数据资产盘点、盘点分析、根因分析、设计方案等; 2.负责客户管理与需求引导,深度把握客户需求,作为项目的核心交付成员,开展数据治理体系规划、数据架构、数据资产、指标体系设计、数据标准制定、数据质量管理等工作; 3.设计公司数据治理各领域的制度、规范、流程并落地推广,建立、发布和维护相应的标准化文档,与产研、产品、算法团队协作推进公司在细分场景的业务模型/指标/数据模型/算法的沉淀; 4.负责数据平台关键模块和技术方案的设计、攻关和优化,把控技术风险,协调、领导团队解决研发、交付过程中的各项技术难题,有效沉淀技术组件、形成技术积累和复用能力; 任职要求: 1.具有本科及以上学历,工作经验3年以上,*****本科及以上学历,计算机、大数据、数据科学等相关专业; 2.具备优秀的大数据需求分析、技术验证、技术方案设计、技术难点攻克能力及良好的项目交付与团队协作能力,能够组织跨团队协作、推动项目落地; 3.精通数据仓库相关理论,有企业级的数据仓库建设经验,有数据治理相关成功经验; 4.熟悉大数据生态相关技术,具备整体架构视角,熟悉数据治理方法论、ETL开发及大数据平台产品和组件,包括但不限于Hive、HBase、Kafka、Flink、ES、Spark等,至少具有1项企业级数据平台和数据中台架构设计管理经验; 5.对批流一体、数据湖等业内前沿方向有深刻理解,有实际团队落地经验者优先; 6.具备良好的沟通表达和业务理解力,能从业务视角看问题,从技术角度解决业务问题;
-
职位职责: 字节跳动ByteDance Research致力于人工智能领域的前沿技术研究,涵盖自然语言处理、计算机视觉、机器学习、机器人、AI for Science、Responsible AI等多个领域,同时将研究成果落地,为公司现有的产品和业务提供技术支持和服务。 1、为视频生成模型训练生产高质量的训练数据; 2、负责/参与搭建数据生产工作流,并能够持续提升数据生产的效率、稳定性和易用性; 3、与算法工程师密切配合,理解视频生成模型研发流程,负责/参与模型生成中数据解决方案的设计、开发和维护;同时能够探索业界前沿的多模态数据处理相关技术,并应用到数据生产中。 职位要求: 1、计算机及相关专业本科或本科以上学历,良好的沟通和团队协作能力; 2、具有3年以上数据处理或模型训练相关经验,熟悉图像或视频数据处理方法; 3、精通Python或Golang至少一种编程语言;且能够熟练使用图像或视频数据处理库,实现具有高性能、高扩展的数据处理算法; 4、熟悉大数据分布式处理框架Spark、Flink、Hadoop、Ray者优先; 5、具有海量图像或视频数据处理、平台建设者优先。
-
工作职责: 1、承担数据治理各阶段的相关工作,包括用户调研、分析业务数据需求与数据痛点、设计数据资产目录、数据资产盘点、盘点分析、根因分析、设计方案等; 2、负责客户管理与需求引导,深度把握客户需求,作为项目的核心交付成员,开展数据治理体系规划、数据架构、数据资产、指标体系设计、数据标准制定、数据质量管理等工作; 3、设计公司数据治理各领域的制度、规范、流程并落地推广,建立、发布和维护相应的标准化文档,与产研、产品、算法团队协作推进公司在细分场景的业务模型/指标/数据模型/算法的沉淀; 4、负责数据平台关键模块和技术方案的设计、攻关和优化,把控技术风险,协调、领导团队解决研发、交付过程中的各项技术难题,有效沉淀技术组件、形成技术积累和复用能力; 任职要求: 1、具有本科及以上学历,工作经验3年以上,*****本科及以上学历,计算机、大数据、数据科学等相关专业; 2、具备优秀的大数据需求分析、技术验证、技术方案设计、技术难点攻克能力及良好的项目交付与团队协作能力,能够组织跨团队协作、推动项目落地; 3、精通数据仓库相关理论,有企业级的数据仓库建设经验,有数据治理相关成功经验; 4、熟悉大数据生态相关技术,具备整体架构视角,熟悉数据治理方法论、ETL开发及大数据平台产品和组件,包括但不限于Hive、HBase、Kafka、Flink、ES、Spark等,至少具有1项企业级数据平台和数据中台架构设计管理经验; 5、对批流一体、数据湖等业内前沿方向有深刻理解,有实际团队落地经验者优先; 6、具备良好的沟通表达和业务理解力,能从业务视角看问题,从技术角度解决业务问题;
-
职位职责: 1、 负责相关业务大数据项目整体架构规划; 2、 负责指导工程师进行技术验证与实现,关键技术问题的攻关,解决项目开发过程中的技术难题; 3、 负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、 根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、 熟练使用Hadoop、Hive、spark,flink等大数据框架,熟悉SQL、Java、Python等编程语言; 2、 有PB级大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、 6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。
-
岗位职责: 1.针对海量数据开发包括不局限于金融行业财富业务营销响应、流失预警等营销模型; 2.跟进实施以量化分析为基础的咨询项目,项目业务围绕财富金融业务领域,实施内容包括不局限于流程设计、业务框架设计、特征设计、模型开发、策略制定、实施部署等; 3.熟悉公司所提供的解决方案,配合商务对机构进行方案介绍与答疑;通过量化分析工具为合作机构提供决策分析报告,配合商务有效推动机构合作与落地应用; 4.对海量内部底层数据进行清洗和深度挖掘,探索有效稳定的维度/变量/模型/标签以形成标准化的产品; 任职要求: 1.本科及以上学历,211/985院校毕业优先,数学、统计学、计算机等相关专业优先; 2.具备互联网/财富营销/金融科技机构模型开发/算法/量化策略相关实习经验; 3.熟练运用Python/R进行数据分析或建模,熟练掌握数据库操作(如SQL语句); 4.了解 LR/RF/XGB/LGBM/FM 等机器学习算法的原理及其应用; 5.了解 Hadoop、Hive、Spark 的常用功能; 6.了解推荐算法中召回、排序阶段的常用模型和策略; 7.有金融行业背景、对金融行业财富营销业务有深刻理解者优先; 8.表达清晰,逻辑严谨,对数据敏感,敢于创新,善于发现、探索并解决问题; 9.具备较强独立思考能力、学习能力、自我驱动力、责任心及抗压能力;
-
岗位职责: (1)负责兴业银行大数据应用服务的研发工作,进行数据服务方案设计、开发及上线后运营维护; (2)根据应用情况和研究情况进行提炼优化,形成稳定可复用的数据服务产品。 岗位要求: (1)精通Python/Scala/Java等至少一种编程语言,能够针对大数据环境进行高效编程; (2)熟练使用Hadoop生态体系中的核心组件,能够进行集群部署、配置和优化;掌握Mapreduce、Spark批处理框架;掌握Storm/Flink/Spark Streaming等至少一个流处理框架,能够实现实时或准实时数据流处理。 工作地点:上海
-
岗位职责: 1.负责大数据项目的开发、维护等工作,完成大数据相关的数据架构规划、数据建模及大数据产品研发工作; 2.负责各种埋点数据与业务数据的采集、清洗、整合和大数据的分布式存储、ETL加工; 3.负责大数据类产品的系统分析与架构设计,配合产品经理完成产品的快速研发与交付; 4.负责实时数仓、离线数仓的建设与演进,实时业务开发、BI系统、报表平台、大数据平台等的建设。 岗位要求: 1.本科及以上学历, 1年及以上工作经验,具备大数据开发工作经验,熟悉Hadoop/Spark/Flink等分布式计算平台。 2.扎实可靠的编程能力,精通Python/C/C++/Go/Java中的至少一门编程语言; 3.具备良好的数据结构、算法、操作系统、数据库与计算机网络基础; 4.具备良好的分析解决问题能力,能独立承担任务,有系统进度把控能力。 责任心强,良好的对外沟通和团队协作能力,主动好学。
-
工作职责: 1、协助现场项目经理进行电力数据加工聚合、简单分析 2、协助总部研发进行数据导出 3、现场服务器运维 4、帆软报表开发 任职资格: 1、电子、计算机相关专业毕业。 2、掌握Python编程语言,进行过简单的Python数据分析(相关性、回归等); 3、有linux相关经验,掌握linux操作 4、有SQL相关经验,会使用MySQL数据库; 5、有Hadoop、Elasticsearch、Spark等相关技术经验;
-
工作职责 1. 负责微博搜索部门相关产品的数据处理、统计、分析以及报表和工具开发,为产品和业务决策等提供数据支持; 2. 负责搜索业务的用户分析、需求分析、效果分析,进行策略分析和调研; 3. 负责围绕搜索结果页优化方向进行数据分析和调研,并进行策略开发和优化,提升结果页的用户满意度; 4. 负责搜索业务的日志清洗和数据规则维护,和相关部门合作对统计数据中的问题进行跟踪、调查和解决; 任职条件 1. 熟练使用python技术栈,熟悉linux下的开发环境,有c++工作经验者优先; 2. 熟练使用python、hive sql语言对数据进行统计和分析,有实际工作经验; 2. 熟悉使用hive、hadoop(mapreduce开发)、spark、mysql、BI工具等常用的数据处理平台和工具; 3. 对于产品部门的数据统计分析需求能够很好的进行理解、开发、校验、分析; 4. 对数据敏感,能够独立设计分析方案,进行业务分析,产出分析报告; 5. 有开发和维护线上业务的能力,能够推进业务策略方案的落地和效果迭代; 6. 责任心强,业务理解能力强,对数据分析有自己的理解,能够和相关业务部门的同事很好合作;
-
工作职责: 1、协助现场项目经理进行电力数据加工聚合、简单分析; 2、协助总部研发进行数据导出; 3、现场服务器运维; 4、帆软报表开发。 任职资格: 1、大专及以上学历,计算机相关专业优先; 2、掌握Python编程语言,进行过简单的Python数据分析(相关性、回归等); 3、有linux相关经验,掌握linux操作; 4、有SQL相关经验,会使用MySQL数据库; 5、有Hadoop、Elasticsearch、Spark等相关技术经验。
-
岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
-
岗位职责 1. 参与数据治理规划,制定详细的治理专项计划与实施方案,负责数据治理专项的整体推动; 2. 负责制定数据管理相关政策、制度、流程的方案,并推进实施落地; 3. 负责数据治理解决方案规划及实施,包括数据治理体系、数据架构与标准、数据质量、元数据管理、数据湖、数据主题联接、数据服务、数据分析和数据安全等方面的工作; 4. 分析数据现状,总结数据业务问题,并提出合理的解决方案。梳理数据资产(如数据目录、指标维度体系、标签体系、主数据等); 5. 研究与引入业界优秀的理论体系、解决方案、工具装备等。 任职要求 1. 本科及以上学历,数学、计算机或统计学专业,5年及以上数据管理相关工作经验,有制造行业数据相关背景优先; 2. 熟悉数据管理和数据治理相关理论与方法,深入理解数据质量管理、数据标准管理、企业级数据建模、主数据管理等方法; 3. 熟悉数据项目开发流程,能和设计人员、数据开发人员、运营人员紧密配合,协调和推进各方面工作; 4. 熟悉业界先进的数据治理相关产品和软件,了解数据湖、Hadoop、Spark、数仓、BI等平台和工具的优先; 5. 有良好的的沟通能力、逻辑思维能力和推动力; 6. 对DAMA、数据成熟度评估等方法论有较深刻的理解,有CDMP,CDGA、CDGP等数据治理证书优先。
-
岗位职责: 1. 负责业务安全风控算法研发,包括不限于音乐和社交业务中的安全用户画像/账号信用体系/黑灰产/支付风险等问题的挖掘分析与建设落地; 2. 深入了解音乐与社交业务形态及特性,定义风险场景,明确风险水位及管控目标,平衡风险与业务收益; 3. 落地风险发现到拦截处置效果追踪的解决方案,为风控提供基础识别及前置拦截能力; 4. 协调横向团队,与产品、研发、算法协同落地防控方案,从风控识别、打击、体验等多维度完善风控体系。 岗位要求: 1. 硕士研究生及以上学历,大数据分析、AI或计算机相关专业毕业,1年及以上数据分析相关经验; 2. 熟练掌握Python语言以及SQL,具有良好的工程编码实现能力; 3. 扎实的机器学习基础,包括分类、回归、聚类等,如LR、svm、GBDT、kmeans等; 4. 对大数据、分布式计算工具(MapReduce、Hadoop、Hive、Spark等)有相关经验优先; 5. 有画像/风控/账号/生态治理经验者,安全行业经验者优先; 6. 具有数据和业务敏感性,善于从数据中发现/思考并解决问题,优秀的分析问题和解决问题的能力,责任心强,积极主动,有良好的沟通能力和团队合作能力。