-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
-
岗位职责: 1、分析业务需求,建设数据库仓库,对业务部门提供数据支持; 2、参与数据源分析,完成大数据平台与各业务系统的数据对接; 3、完成基于大数据技术平台基础上的数据仓库设计和ETL开发; 4、调研相关技术,优化大数据开发流程,规划大数据平台应用。 任职标准: 1、3年以上数据仓库相关工作经验, 有互联网、电商行业数据仓库建设经验; 2、精通Hive-sql编写和优化,精通常用etl工具,至少熟悉java、python、shell等语言中一种; 3、精通大数据背景下数据仓库模型设计,熟练掌握OLAP的维度建模设计方法; 4、有数据平台(数据开发、治理、资产等)相关建设经验; 5、责任心强,有较强沟通能力和团队合作精神; 6、有spark streaming、flink等实时数据开发经验; 7、有统计学数学知识,海量数据处理、数据分析和挖掘经验者优先
-
岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营; 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.掌握实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先。
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言;
-
岗位职责: 1、负责数据的批处理、流处理,数据湖、数据仓库的设计、开发,各业务分析主题的数据模型设计,指标整理,维度建模和业务分析专题建模; 2、负责数据挖掘专题的需求分析、业务场景建模、实验模拟、制定分析挖掘目标,数据挖掘模型的设计、开发,数据模型的研究、设计、实现、优化,结果分析及验证,挖掘结果展现,知识提取和整理; 3、负责将研究成果与数据分析系统应用专题整合,在业务领域推广应用、并与客户沟通。 任职资格: 1、大学本科以上学历,五年以上工作经验,具备一个以上数据挖掘相关项目经验,有项目管理经验优先; 2、有数据挖掘项目的开发经验,具有独立完成建模、调试、优化和展现汇报的能力;有电信行业数据仓库系统开发经验者优先; 3、熟练掌握 spark、flink、clickhouse、presto 等常见大数据开发技术; 4、熟悉一种数据展现工具;熟练掌握ETL工具或能够编写程序进行数据操作; 5、有耐心,有钻研精神,严谨,细致;具有良好的团队合作精神,善于沟通;有强烈的责任心,积极主动; 6、有过运营商从业经验者优先; 7、有云平台、营销平台、推荐系统、BI等产品的从业经验者优先 。
-
30k-50k·15薪 经验3-5年 / 本科社交媒体 / 上市公司 / 2000人以上职位描述: 1. 负责微博搜索、智搜相关业务功能、策略算法、数据处理等开发工作; 2. 支持微博搜索、智搜相关相关模块,包括线上搜索引擎、语义搜索、搜索推荐、实时数据流、离线数据处理; 3. 参与搜索和智搜架构开发,包括对策略体系和架构体系的设计、开发、优化、调整,提升系统整体性能和可扩展性; 4. 负责搜索和智搜相关日志统计、大数据处理等用户行为分析工作,支持产品、业务、技术的规划和落地; 任职资格: 1. 熟练掌握如下程序开发技术之一,并有实际工作经验:linux下c\c++程序开发技术;linux下python程序开发技术;hive SQL;hive、hadoop、mr、spark等大数据工具; 2. 熟悉基础的数据结构和算法,程序设计开发中能够合理考虑性能问题,对系统架构设计有丰富的经验,能够给出合理的设计方案; 3. 有过搜索引擎、推荐、广告等相关系统设计、开发经验者优先; 4. 三年以上工作经验; 5. 良好的沟通能力,良好的团队合作精神;
-
1.参与离线/实时数据仓库的需求对接、数据调研、架构设计、实施交付、关键技术攻克; 2.参与企业数据治理的需求调研、数据架构设计、方案编写、治理实施; 3.参与大数据平台、数据治理平台的研发、交付工作。 任职要求: 1.计算机、软件工程、大数据相关专业本科及以上学历,5年以上大数据开发或数据治理经验; 2.熟悉Hadoop生态及相关组件,包括但不限于Hadoop/Hive/Spark/HBase/Flink/Kafka/ClickHouse等; 3.熟悉维度建模、范式建模等数仓理论,掌握离线数仓和实时数仓相关主流技术框架; 4.掌握数据治理流程,熟悉数据标准、数据质量、元数据管理等治理方法,具有一定的文档编写能力,了解DAMA、DCMM等数据管理方法优先; 5.有良好的沟通能力和理解能力,工作主动,能够承担一定的交付压力。
-
职责描述: 1、负责公司离线数仓和实时数仓体系的设计和搭建; 2、结合维度建模理论,梳理业务流程,构建公司数据资产和主题数据应用; 3、负责数据治理相关工作,构建稳定、可靠的数据处理链路,提升数据质量; 4、深入理解业务,负责数据分析、数据大屏和数据报表等需求的对接和开发; 任职要求: 1、本科及以上学历,计算机或数据领域相关专业,5年以上数据开发相关经验; 2、具备丰富的数据仓库体系架构、建模方法、数据治理等知识,有复杂场景或海量数据的数仓应用实践; 3、精通Sql并有丰富的Hive性能优化经验,具有良好的Shell或python编程能力; 4、掌握大数据相关技术栈,包括Sqoop、Flume、Kafka、Hadoop、Hive、Spark、Flink等; 5、有实时数仓相关经验者和多维分析/OLAP经验者(如doris/clickhouse/druid/kylin等); 6、有百度云EasyDAP或阿里云DataWorks使用经验优先; 7、有较强的逻辑思维能力,主动积极有责任感,具备较强的沟通协作能力,自我驱动能力。
-
工作职责: 1、负责数字监督数据体系的规划设计和建设,通过数据产品和数据服务等方式,实现数据驱动业务增长 2、负责数字监督业务的离线数仓、实时数仓、数据服务化的设计、开发、性能优化,为OLAP和AI提供可靠、统一的离线+实时数据服务 3、负责数字监督数据分析平台建设与优化,面向产品、项目、BI等提供体验良好的的交互式/可视化分析工作台 4、负责离线/实时的ETL工作,为各业务提供定制化的数据支持,并优化计算任务性能 5、与团队协同数据智能的工作,推动数据在业务智能化中的落地。 任职资格: 1、计算机与大数据相关专业,本科及以上学历,5-8年大数据开发相关工作经验 2、精通Java/Python/Scala等至少一门语言,熟悉Spark/Presto/Hadoop/Hive/HBase/Kafka /Flume/Flink等大数据研发工具 3、精通数据建模及ETL设计开发,对数据仓库、数据平台、数据分析等有深刻理解,具备丰富的海量数据加工处理和优化经验 4、熟悉数据仓库领域知识和技能者优先,包括但不局限于:元数据管理、数据开发测试工具与方法、数据质量、主数据管理 5、有ClickHouse/Druid/Kylin/Superset等OLAP和数据可视化相关经验者优先 6、对数据挖掘和机器学习有所了解,包括常用的机器学习算法和数据建模过程的优先。
-
重要说明 1、本岗位需要长期客户方驻场开发(石家庄,至少1年)、稳定性强,此为必备条件,非诚勿扰。 2、外地驻场公司提供住宿、提供交通补贴。 任职要求 1、本科5年以及上的大数据开发经验,学历在学信网可查; 2、具有全面的数据中台技术能力,精通华为云大数据工具,精通Hadoop、Hive及其生态; 3、具有较强的文字功底和口头表达能力,工作认真细致,责任感强,沟通协作良好,具备电力行业信息化服务经验,能够开展电力营销相关解决方案编制及业务设计; 4、具备软件设计开发经验优先;有营销业务系统、企业中台相关项目经验者优先。 岗位职责 1、负责团队整体的技术支持,解决疑难问题; 2、基于华为云大数据相关工具和技术开展数据中台开发; 3、负责数据仓库和大数据处理ETL流程开发以及模型设计; 4、基于华为云平台技术开展电网营销专业海量数据的处理、分析、统计、挖掘工作; 5、基于华为云平台技术开展电网营销专业实时数据需求分析、处理、加工工作; 6、总结和编写相关的开发文档;并能够根据规划需求制定相关技术与产品的解决方案。
-
任职要求 1、本科5年以及上的大数据开发经验,学历在学信网可查; 2、具有全面的数据中台技术能力,精通阿里云大数据工具,精通Hadoop、Hive及其生态; 3、具有较强的文字功底和口头表达能力,工作认真细致,责任感强,沟通协作良好,具备电力行业信息化服务经验,能够开展电力营销相关解决方案编制及业务设计; 4、具备软件设计开发经验优先;有营销业务系统、企业中台相关项目经验者优先。 岗位职责 1、负责团队整体的技术支持,解决疑难问题; 2、基于阿里云大数据相关工具和技术开展数据中台开发; 3、负责数据仓库和大数据处理ETL流程开发以及模型设计; 4、基于阿里云平台技术开展电网营销专业海量数据的处理、分析、统计、挖掘工作; 5、基于阿里云平台技术开展电网营销专业实时数据需求分析、处理、加工工作; 6、总结和编写相关的开发文档;并能够根据规划需求制定相关技术与产品的解决方案。
-
岗位职责: 1、负责爬虫服务架构的设计、研发、爬虫效率的优化,完成数据采集/爬取、解析处理、入库及备份等数据日常工作,使用自动化脚本、工具对上市公司行业数据提取、处理、分析,搭建完善的数据库体系;收集行业最新动态,建立行业基本数据库; 2、开发数据生产、管理的流程和框架、监控数据的实时性和准确性; 3、开发模型、分析数据并清洗数据,评估类似数据的有效性,为前后端系统提供数据支撑; 任职要求: 1、熟悉爬虫脚本的编写和相关框架的使用,熟悉数据类统计模型和方法,熟悉数据清洗概念和方法;有过相关的数据挖掘经历,能够熟练使用Python语言,了解基本的机器学习算法; 2、具备银行、证券等金融企业数据治理工作经验或企业级数据仓库、数据中台建设经验者优先考虑; 3、了解一定的金融概念和金融结算方法,了解数据展示方法。 福利待遇: 底薪+补助+项目提成,待遇优厚 双休,法定节假日正常休息 入职30日内签订劳动合同缴纳社会保险 不定期团建、节日福利 集团公司,晋升空间大,发展平台大
-
岗位职责 1、参与业务需求的分析和设计工作; 2、负责软件功能的设计、编码、单元测试工作; 3、为测试团队进行软件测试提供设计、编码解释支持工作; 4、编写软件开发过程中的相关技术文档。 5、主导项目代码质量检查工作 任职要求 1.本科及以上学历、沟通表达能力良好、学习能力较好 2.数据开发方向工作经验5年及以上,有小组组长经验为佳 3.了解hadoop生态圈相关组件hive/Spark/HDFS/Hbase/Yarn等,熟悉常见大数据平台,如星环TDH、华为FI、HDP等 4.熟悉非关系型数据库者优先考虑,如ES、图数据库等 5.熟悉常用的ETL工具,如Datastage、Kettle 6.Hql、spark SQL基础良好,能够熟练的进行开发,要求使用经验2年以上 7.熟悉linux常用操作命令 8.shell或python脚本编写能力良好 9.了解银行业务者优先考虑
-
工作职责: 1、负责组织人员进行数据库的代码开发工作。 2、负责数据库的优化和维护工作。 3、负责编写数据库的技术文档和工作规范,参与数据库设计或者审核数据设计,配合产品经理或者开发人员,纠正常见的数据库错误。 4、分析和解决数据库应用系统出现的问题 5、指导开发工程师进行数据库的程序编写工作,并负责SQL编码规范、逻辑、性能的审核。 6、为数据库的开发应用提供技术咨询。 任职资格: 教育背景:本科或以上学历,计算机等相关专业; 语言要求:英语熟练者可优先考虑。 经验要求:3年以上软件及应用系统开发经验,有相关团队管理经验者优先。
-
岗位职责: 1.负责数据平台架构,需求分析,技术选型 2.参与平台大数据采集、清洗、传输、存储、实时计算、离线计算、调度、服务化等设计与落地 3.根据业务需求,提供面向业务的OLAP、报表、数据服务等,支撑业务快速发展 4.深入理解数据安全相关法规及标准,结合云平台业务制定合理的安全规范; 5.编写相关技术文档 任职资格: 1.本科及以上学历,扎实的Java基础,5年以上大数据工作经验 2.熟悉HBase、Redis等NoSQL数据库,熟悉PostgreSQL、Mysql等RDBMS,了解时序数据库更佳 3.持续优化ETL流程及性能,保证数据及时有效产出 4.精通常用大数据处理相关系统,如Hadoop、hive、spark、flink、kafka等,有实时离线数仓的模型设计与落地经验; 5.熟悉大数据体系,对数据采集、消息转发(Kafka等)、数据存储、批流计算等相关组件及技术有较深刻理解; 6.有算法开发、算法建模经验的优先