-
职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
-
岗位职责 : 1、数据仓库和数据处理:负责大数据平台的数据仓库、数据治理和数据模型的设计与开发工作。进行日常数据报表开发,理解业务需求,发挥数据价值。 2、数据服务开发:负责离线和实时数据服务的设计、开发、性能调优和效果优化。构建和维护数据管道,处理ETL过程,确保数据质量和准确性。 3、技术研究和应用:参与相关项目的数据需求的实现,设计和编码工作。参与开发过程中相关技术的研究和验证。 4、平台运维和质量管理:负责大数据平台的数据及相关的应用开发、调优及维护。完成日常数据质量的监控,参与大数据平台的日常运维工作。 5、针对数据一致性、准确性、及时性,制定数据管理与治理机制,提升数据易用性、可用性及稳定性; 任职要求 : 1、本科及以上学历,计算机相关专业,3-5年以上数据开发经验; 2、具备至少一个完整的大数据平台和BI系统实施经验,熟知平台建设各环节工作,包括数据采集、数据落地、仓库建设、数据平台搭建、数据应用产品开发 3、熟悉基于推荐系统的数据仓库建设方法论,有数仓模型设计及ETL开发经验;有数据仓库分层架构设定经验者优先; 4、熟悉Hadoop生态相关技术,如Hive、HDFS、Impala、Spark、Presto、Flink、Hudi、Elasticsearch、HBase、Druid、Kylin等,有基于分布式数据存储与计算平台应用开发经验,有较为系统的海量数据性能处理经验; 5、熟悉java、scala、python等语言,熟悉微服务,分布式架构,熟悉springcloud,springboot等技术开发; 6、熟悉数据仓库原理,有离线数仓、实时计算、数据挖掘、ETL、用户画像、数据可视化等设计与开发经验; 7、熟悉MySQL、PostgreSQL、NoSQL等数据库中至少一种数据中心建设方案,可以进行产品的独立部署、高可用架构和性能优化,熟悉开源社区解决方案; 8、熟悉阿里云大数据组件E-MapReduce、Dataworks、MaxCompute和国际AWS的EMR相关数据产品等,市场常见BI产品(superset、FineBI、神策数据)等相关组件者优先; 9、较强的学习能力和技术钻研能力、有自我驱动意识,对数据采集、数据治理、数据开发、数据分析、数据建模、算法等有深刻认识和实战经验。 期待您的加入哟,我们为您准备丰厚福利待遇: 【法定福利】:公司按国家规定购买五险一金+商业保险(员工本人及子女商业保险)+带薪年假; 【节日关怀】:节日福利礼品,以及节日礼金; 【公司福利】: 机场及高铁的贵宾服务(龙腾卡权益)+年度员工健康体检+平安360服务(在线问诊、VIP挂号及重疾紧急入院服务)+年度2次免费洁牙服务 公司提供咖啡、零食、下午茶 员工活动、旅游及团建,不定期举办聚餐、唱K、电竞赛、篮球赛、拓展、旅游、生日Party等 【学习与培训】:助力职业发展与提升,内外训双引擎发力助你高速发展 【晋升机会】:公司设立良好的晋升机制和广阔的发展空间。
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
岗位职责: 1:数据项目的ETL开发工作 2:熟悉hadoop架构 hdfs spark flink 3:熟练使用ETL工具,比如datastage/kettle/datax/dolphinscheduler等 4:设计ETL整体架构和任务调度平台 5:熟悉ETL流程及开发 6:参与数据仓库ETL流程优化及解决相关技术问题 7:熟练编写plsql 8:参与数据仓库建模,不断改进现有数据仓库 9:大数据环境的搭建与运维 10:熟悉python或java优先 11:熟悉MPP(doris clikhouse)优先 任职要求: 1.本科及以上学历,计算机/软件工程等相关专业优先; 2.2年以上相关工作经验,有大型数据仓库实施经验者优先; 3.有良好的沟通能力和自我驱动动力,具备出色的规划、执行力,有强烈的责任感,以及优秀的学习能力,对技术有热情,愿意不断尝试新技术和业务挑战。 福利待遇:早九晚六 做五休二 带薪年假 零食下午茶 年度体检 定期团建
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
专门处理金融大数据,利用大数据分析技术来给企业增加效益和规避风险 要求:本科**学历及以上,年龄不超过35周岁,专业要求:金融,计算机,会计,统计,数学 等相关专业 无经验也可,有3个月的岗前统一技术培训
-
工作职责: 1、负责集团基于大数据技术的数据平台开发、数仓建设、数据治理、数据统计分析等开发工作; 2、负责数据挖掘领域的分析研究,包括数据挖掘算法的分析研究,特定场景的数据挖掘模型的需求分析、建模及实验模拟工作; 3、研究前沿技术,了解项目需求,制定解决方案,解决实际应用场景中的业务问题,优化离线/实时大数据计算任务的性能。 任职资格: 1、本科及以上学历,计算机、软件技术、数据挖掘、统计学、应用数据等相关专业; 2、至少3年以上大数据开发/数据存储/数据平台/分析挖掘相关经验; 3、熟悉Linux操作系统,掌握Shell/Python/Perl至少一种脚本语言; 4、理解主流大数据处理架构和相关技术,会使用Hadoop、Spark等平台,Hive 、Impala 、Azkaban 、Kafka、Sqoop、 Flume、Zookeeper相关组件和开源系统; 5、熟悉SQL语言,包括MySQL、Oracle等关系型数据库;Redis 、MongoDB、HBase等NOSQL 数据库;了解数据仓库技术,能够使用常用的ETL工具; 6、熟悉Lucene、ElasticSearch等 检索技术; 7、具有优秀的口头和书面表达能力,思维活跃、关注和了解技术发展的最新动态,踏实肯干、有责任心,能适应高强度工作,沟通协作能力较好、学习能力强。
-
1、负责公司大数据平台总体架构顶层设计;2、负责数据治理体系的规划和建设,提升数据质量,加速分析效率,建立数据信心;3、负责业务分析和数据应用体系的规划和建设,驱动业务的增长;4、负责数据开发、分析、挖掘人才梯队的建设;5、结合业界大数据最佳实践持续优化大数据架构。岗位要求;1、计算机、数学、统计相关专业***本科及以上学历,5年以上大数据工作经验,3年以上大数据架构经验;2、对高可用的分布式架构运行机制有深入了解,有丰富的离线及实时架构搭建经验;3、熟练掌握编程语言Scala、Java,熟练掌握至少一种脚本语言python、shell;4、精通大数据生态系统Spark、Flink、Hadoop、hive、Kafka、Yarn等的架构、底层原理和技术细节,并有丰富开发、调优、维护经验;5、了解ElasticSearch、Spark、Kafka等技术工作原理,熟悉Storm、Spark、Impala等分布式计算平台的应用;6、熟练使用ETL工具进行数据抽取,清洗,转换,关联等操作;7、对数据敏感,能从数据中发现问题、解决问题;具备敏锐的洞察力,清晰缜密的结构化思维,以及独立分析的能力;8、较强的人际关系能力、有团队精神,较强的执行与推动能力,有一定抗压力。
-
岗位职责: 1.负责项目ETL接口数据调研及ETL程序开发; 2.负责大数据平台监控、例检及运维工作; 3.负责程序调度开发、配置、监控及优化工作; 4.负责文档、经验知识梳理及更新。 基本条件: 1.***本科及以上学历、计算机相关专业; 2.态度端正,热爱学习,善于沟通,接受能力范围内的加班值守及应急故障处理工作; 3.熟悉sql命令,了解基本的linux命令,了解大数据相关知识更佳; 4.有一定文档编写能力,对工作有责任感和团队精神。 岗位技能: 1.了解ETL工作原理; 2.了解程序调度原理; 3.有一定SQL操作经验,有oracle、mysql数据库使用及运维经验更佳; 4.熟悉常见的linux操作命令,能开发shell程序,能在linux环境下工作; 5.了解大数据相关知识更佳:如分布式集群、数据仓库、ETL、调度、BI等;
-
岗位职责: 1、协助数据中台技术架构设计,协助相关子模块设计; 2、协助业务分析师工作,完成数据业务需求梳理及分析; 3、负责业务数据的数据分析工作及ETL任务及数据仓库开发,部署和管理; 任职要求: 1.大数据、数学或计算机相关专业本科以上学历; 2.了解数据处理、数据建模、数据分析等过程; 3.了解一个主流ETL工具,如Kettle,Infomatica,Datastage,SSIS等; 4.了解一个主流大数据产品,如spark、Flink、EMR、Hadoop等; 5.了解一个主流的数据库产品,如Oracle,SQL Server,Maxcompute、GP等;
-
工作职责: 1)、数据ETL工作; 2)、参与数据产品设计工作:数据分析挖掘:与医疗业务专家配合,承担数据仓库构建、模型构建、数据标签、知识库、画像分析等相关数据产品等设计工作; 3)、数据挖掘分析工作; 4)、数据产品研发工作。 任职要求: 1)、具有深厚的统计学、数据挖掘等相关知识,熟悉数据仓库和数据挖掘的相关技术,精通建模方法并有过独立的建模实践; 2)、熟悉软件产品研发流程:精通SAS,R,SPSS等统计分析软件,具有海量数据挖掘、分析相关项目实施经验,参加过完整的数据挖掘项目并有成功案例; 3)、精通Kettle、pentaho等工具的使用或开发; 4)、熟悉Python、TIDB、关系型数据库、大数据Hadoop生态编程及数据库操作者优先录用。
-
工作职责: 1. 参与公司内部数据模型设计、开发并服务下游,数据解释,问题答疑; 2. 跟进IT需求,对接各源系统数据调研,评估,模型设计,离线及实时ETL开发等工作; 岗位要求: 1、数学、统计、计算机等相关专业本科及以上学历,2年以上相关工作经验(数据/业务分析、BI、数据模型、决策支持、数据挖掘) ; 2、扎实的数据仓库理论基础,熟悉数据仓库范式模型设计 3、熟悉Hadoop、HIVE的基本原理,精通SQL,能熟练运用 ORACLE/MY SQL/HIVE/PostgreSQL等获取分析所需数据; 4、根据需求可以通过flink、kafka、spark等大数据组件进行开发与调测; 5、具备良好的沟通能力、团队合作精神及抗压能力 ;
-
职责: 1. 负责推进公司数据项目工作,包括需求分析、方案制定、产品实现、交付推广等工作。 2. 负责基于帆软报表软件的报表、大屏等数据产品的设计和开发工作。 3. 负责公司数据仓库建设,及数据ETL工作,编写ETL开发实施文档,监控和解决ETL任务的问题。 4. 负责数据指标体系的建设,维护数据字典。 5. 参与公司各项数据管理标准的制定和落实工作。 任职要求: 1. 具备2年以上相关数据项目实施经验,其中作为核心人员的项目经验不少于3个。 2. 熟练掌握任意一款商业报表设计软件,如:帆软(FineReport)、PowerBI、Tableau等。 3. 熟悉数据仓库分层模型的建模、指标提炼理论。 4. 精通SQL,对大数据基础架构有一定了解,熟悉ETL任务开发 5. 有较好的沟通理解能力和团队协作能力。
-
数据项目经理 职责: 1. 负责推进公司数据项目工作,包括需求分析、方案制定、产品实现、交付推广等工作。 2. 负责基于帆软报表软件的报表、大屏等数据产品的设计和开发工作。 3. 负责公司数据仓库建设,及数据ETL工作,编写ETL开发实施文档,监控和解决ETL任务的问题。 4. 负责数据指标体系的建设,维护数据字典。 5. 参与公司各项数据管理标准的制定和落实工作。 任职要求: 1. 具备2年以上相关数据项目实施经验,其中作为核心人员的项目经验不少于3个。 2. 熟练掌握任意一款商业报表设计软件,如:帆软(FineReport)、PowerBI、Tableau等。 3. 熟悉数据仓库分层模型的建模、指标提炼理论。 4. 精通SQL,对大数据基础架构有一定了解,熟悉ETL任务开发 5. 有较好的沟通理解能力和团队协作能力。
-
岗位职责: 1、在数仓负责人带领下,针对BI,算法,数据产品的需求,负责公司多业务数据仓库建设与模型设计,制定和落实数据仓库规范以及数据治理工作; 2、进行ETL设计,数据集市建设,落地及后续的运维; 3、负责各条业务线的数据整合方案设计及日志规范,数据分析指标体系建设及元数据管理; 4、稽查和监控数据质量,数据报表系统及相关数据产品的研发和数据需求的沟通及数据开发项目管理。 岗位要求: 1、掌握数据仓库(DW)商业智能(BI)理论知识,具备2年以上数据仓库建设经验,有数据中台、数据治理呼吁等相关经验优先; 2、精通SQL,熟悉mapreduce原理,有hive调优经验,具备一定的python和java开发能力,有Hadoop, Spark, Flink等大数据开发相关经验优先 3、具有高度的责任感,思路清晰,有良好的沟通能力; 4、本科以上学历,计算机、信息管理等相关专业


