-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
岗位职责: 1. 大数据后端应用平台研发 2. 系统性能调优与优化 3. 大数据平台架构设计 任职要求: 1. JAVA基础扎实,理解io、多线程、集合等基础框架,对JVM原理了解,有一定调优经验; 2. 3年及以上Java开发经验,能够熟练使用springmvc、spring、mybatis等主流的开源框架; 3. 熟悉高并发分布式系统的设计及应用,掌握MySQL等数据库中的一种或多种,熟练运用NoSQL、Cache、MQ等中间件技术,并了解主流中间件原理和机制; 4. 具有良好的编程习惯,注重利用合理的设计模式和模块化的组织方式对代码进行架构,善于学习,具备独立分析和解决问题的能力; 5、有系统架构设计优化经验; 6. 熟悉大数据组件,如hadoop,hbase,es 7. 良好的团队协同能力,熟悉敏捷开发流程;
-
大数据平台工程师
[上海·陆家嘴] 2023-03-1050k-100k·15薪 经验3-5年 / 本科软件服务|咨询,IT技术服务|咨询,人工智能服务 / 不需要融资 / 50-150人岗位职责:负责公司数仓的搭建,包括大数据存储的技术选型,框架制定和开发管理;负责公司数据质量管理,包括数据清洗,查错等流程的制定和自动化治理;负责对接第三方数据源和公司对新数据的需求。任职要求:3年以上数据分析挖掘等相关工作经验以及数据仓库开发经验,处理过数百TB级以上结构化和非结构化数据的存储、读写问题;熟练使用SQL,Python,Spark,Hadoop等分析软件或框架;拥有数仓建模、ETL数据抽取、报表开发、任务调度等经验;有项目管理经验者优先;熟悉金融数据者优先。 -
工作职责: 1. 负责大数据消息服务如 Kafka 集群优化,运维、部署、管理; 1. 参与大数据基础服务如 Hadoop 、Spark 等集群运维、部署、管理与优化; 2. 负责大数据平台服务器的维护与管理,保证各集群服务器正常运行; 职位要求: 1. 熟悉 Java、Scala、Go 等一门主流语言,熟悉并发和网络编程,有良好的数据结构和算法功底; 2. 熟悉消息系统的原理和关键技术,熟悉 Kafka/Pulsar/RocketMQ 等消息产品的原理和实现,有开源社区贡献者优先; 3. 有分布式存储的使用和研发经验者优先; 4. 对云原生相关技术有一定的了解; 5. 了解大数据相关技术,如Hadoop,Spark,Hive,Flink等,有开发或者运维经验者优先; 6. 熟悉Linux常用命令; 7. 有技术热情和较强的学习能力,以及良好的沟通能力、抗压能力和团队协作能力;
-
工作职责: 1、参与设计/研发一站式大数据平台,降低数据技术使用门槛,提高数据生产效率; 2、基于多云环境,构建满足 Data&AI 链路需求的 SaaS 化产品,沉淀和输出解决方案; 3、负责大数据各计算引擎的性能分析与体系优化,提高性能和降低成本。 任职资格: 1、熟悉 Spark/Flink,Hive,Presto,Clickhouse,Tensorflow/Pytorch 等 Data&AI 开源组件; 2、丰富云上经验,熟悉 Kubernetes; 3、强悍的编码和 troubleshooting 能力,掌握Java,Python,Go等语言; 4、具备快速学习能力和结构性思维,热衷于思考和解决客户难题。
-
职责描述: 参与新型大数据平台/数据库后端的研发,在资深工程师的指导下完成特性的设计、开发、测试和相关文档的撰写; 任职要求: 1、 计算机、软件、通信、数学等相关专业本科及以上学历,具备扎实的计算机基础理论知识;有志于云化、智能化数据管理、数据库相关研发工作; 2、 热爱编程,熟练掌握C/C++/RUST中一种及以上编程语言; 3、对分布式系统的架构和原理有深入的了解; 熟悉 MySQL/PostgreSQL/Greenplum 等数据库系统实现原理; 4、 优秀的发现和解决问题能力,良好的沟通能力,具备团队合作精神。 满足以下三项其中之一的优先考虑: 5、拥抱开源,对前沿技术有浓厚的热情和探索欲望,有开源项目经历; 6、熟悉 MySQL/PostgreSQL实现,并熟悉其源码; 7、熟悉分布式计算引擎或数据库,例如 Spark/ Greenplumn/ Clickhouse,并熟悉其源码。
-
高级大数据平台研发工程师-查询引擎方向 (MJ000135)
[上海·长宁区] 2023-12-1025k-50k·14薪 经验5-10年 / 本科数据服务|咨询 / C轮 / 150-500人职位描述: 1. 负责大数据基础平台架构建设和研发; 2. 负责大数据计算引擎的特性研发和性能调优; 3. 负责大数据系统整体及组件的性能、效率、稳定性分析与优化。 职位要求: 1. 熟悉Trino或Flink计算引擎,有5年计算引擎特性开发和性能调优经验; 2. 熟悉HDFS/Hive metastore/Presto/Kudu/Kafka等大数据技术和组件, 3. 具备扎实的计算机基础,熟悉分布式系统研发; 4. 精通Java研发语言,具有良好的编程研发能力; 5. 对新技术敏感,有较强的学习能力和解决问题的能力,乐于学习分享,有较好的沟通能力和执行力。 -
工作内容: 1、针对hive,spark进行bug修复,性能优化; 2、运营离线任务,主动发现用户离线场景下的使用不当或性能问题,对最终的用户质量和体验负责; 岗位要求: 1、**本科或以上学历,工作至少3年以上; 2、具有hive、spark的使用和优化经验,理解数据开发模式和数仓建模; 3、精通java,熟悉java在web、分布式系统中常用的开发框架,并阅读过源代码,能从源码级分析和解决问题并优化; 4、能单独设计和实现产品模块,并能对该模块的产品运营质量结果负责; 5、具有作业调度平台开发、数仓开发经验者优先; 6、喜欢沟通,主动服务用户、解决用户问题,善于换位思考。
-
福利待遇: 五险一金、免费中餐+晚餐、国家法定假日、带薪年假、节日礼品或慰问金、定期体检、生日福利等。 工作地点:深圳市福田区车公庙天经大厦AB座8楼 乘车路线:地铁1、7、11号线车公庙J1出口,步行10分钟即可,从跨越速运旁边的电梯口上来即可。 职责描述: 1、搭建大数据底层平台框架,建设数据采集系统,支持离线与实时方式采集与入仓; 2、建设数据工具平台,设计与开发数据服务平台、用户画像分析平台; 3、建设企业BI系统,提供可视化数据报表和分析的平台能力。 任职要求: 1、3年以上工作经验,本科以上学历,计算机等相关专业,有零售行业或教育行业经验优先; 2、2年及以上大数据研发、调优、运营经验,参与过数据集成、数据仓库、数据治理、数据应用等领域的研发工作,熟悉业界主要大数据开发、分析、BI报表产品,有大数据后台/中台研发相关经验者优先; 3、熟悉大数据生态架构和基本原理,有相关使用和开发经验,包括但不限于Flume、Kafka、HDFS、Hive、Spark、Presto、Flink、ClickHouse、Superset; 4、技术栈包括但不限于Java、Python; 5、有良好的逻辑分析能力,有很好的自驱力、团队沟通与协作能力,有很强的学习能力和钻研精神,热衷于新技术的探索和实践,可适应一定压力下的工作。
-
1.负责公司大数据平台的设计、开发、性能优化、技术难点攻关; 2.负责构建高性能、稳定、灵活的实时大数据计算平台; 3.保障大数据平台架构的合理性、可扩展性及经济性。 任职资格: 1计算机或相关专业本科及以上学历,3年以上大数据工作经验,有复杂数据业务全局架构设计经验; 2熟悉主流大数据计算引擎(Hadoop、Spark、Presto等),深刻理解内部机制和原理。 3.精通FlumeKafkaElasticsearchFlink等实时系统组件,有至少一个以上相关项目实际开发经验; 4.Java基础扎实,有高可用高并发架构设计经验的优先; 5熟悉数据仓库开发流程和数据仓库的各个子系统; 6.对新技术敏感,有独立分析,技术研究能力,乐于接受挑战,具有良好的团队合作精神。
-
岗位职责: 1、参与和负责数据中台的各类大数据开发平台,数据服务平台的开发和集成工作,包括但不限于离线开发平台,实时计算平台,算法应用平台,指标资产服务平台以及各类数据产品服务 2、支持企业级数据中台构建,服务和支持企业数据工程业务核心流程和各类数据应用产品,包括但不限于广告,风控,营销,推荐,流量分析等业务场景 3、以数据驱动业务为目标,建设和完善统一的用户画像,标签,图谱等服务体系 职位要求: 1、有扎实的Java技能基础 ,熟悉缓存、消息、搜索,数据库等底层组件 2、有微服务开发经验,对微服务基础的概念,框架和周边组件有较好的理解和实践 3、对大数据平台调度系统,权限管理系统,监控报警系统,数据采集交换系统,指标特征系统,机器学习系统等其中一项或多项技术和相关项目开发经验优先 4、熟悉大数据生态圈相关组件技术,对底层各类计算存储引擎有过开发或深度应用经验的同学优先
-
工作职责: 1、负责实时计算平台的迭代优化,包括:实时计算国产化、实时计算上云、实时数仓、数据湖等技术的预研和落地。 2、主导设计大数据平台国产化信创改造实际应用过程中ARM适配、性能验证、应用迁移等解决方案与实施落地。 3、负责信创云和云原生大数据技术预研与落地,包括:云化计算引擎容器化及性能调优、资源弹性收缩、日志收集等技术方案实施。 4、解决收敛现有大数据集群生产问题,对集群性能优化提供建设性实施方案。 任职要求: 1、计算机、数学及统计学等相关专业本科学历,硕士优先,具备丰富的项目开发和管理经验。 2、负责大数据集群的开发、维护管理等相关工作。 3、熟悉hadoop/hive/spark/flink/elasticsearch等。 4、集群问题排查,性能优化,以及集群监控工具开发。 某银行岗位
-
岗位职责: 1、研究与跟踪大数据新技术发展方向; 2、负责大数据平台的架构设计,参与核心架构部分代码的编写; 3、以技术专家的身份解决项目中所遇到的核心技术问题; 4、审核数据平台项目总体技术方案,对各项目进行质量评估。 岗位要求: 1、计算机相关专业本科及以上学历, 4年以上系统架构经验,至少3年以上大数据系统架构经验;精通开源数据集成和治理工具的使用; 2、深入掌握Hadoop、Hive、HBase、Spark和Flink等大数据处理平台,并有丰富的实践经验; 3、熟悉MySQL、Oracle、SqlServer、PostgreSQL、NoSql、apache druid等主流数据库,了解内存数据库等快速计算技术; 4、熟悉kubernetes和docker部署工具 5、有工业互联网平台搭建和应用经验者佳 6、有强烈的责任心、良好的沟通协调能力、团队合作精神、优秀的执行能力;
-
岗位职责: 1、负责业务数据体系建设,合理构建业务数仓建模、埋点体系、应用体系等; 2、负责大数据平台产品的规划、设计、开发跟踪与迭代改进; 3、负责业务数据治理,包含元数据管理、指标设计、埋点治理等工作; 4、负责参与产品部门数据分析工作,并通过产品化形式,提高数据分析的效率。 任职要求: 1、**本科及以上学历,计算机、数学、统计学等理工类专业优先; 2、有大数据平台设计或使用经验,了解数据埋点、数仓建模、数据治理等相关知识; 3、熟练掌握SQL语言,能完成复杂数据环境下的数据提取、分析、可视化; 4、勤奋细致,有责任心,对数据敏感,执行力强,能在压力下工作; 5、良好的沟通能力和团队合作精神,有一定的组织协调和推动能力。


