-
岗位职责: 1.大数据新技术规划、调研、选型及推广落地。 2.负责大数据组件内核开发优化,推进组件容器化,进行组件二次开发与适配等工作。 3.日常负责大数据框架组件的性能优化,稳定性保障,异常监控及线上问题对接解决。 4.参与平台功能研发,提供业务系统化的解决方案。 任职标准: 1.至少6年以上相关经验,有扎实的计算机编程基础,精通java/scala,熟悉jvm的原理和调优。 2.精通spark/hive/flink组件原理和内核优化,有超大规模数据计算的架构设计和优化经验。 3.掌握大数据行业趋势,熟悉Kubernetes/Docker,有组件容器化相关经验。 4.具备较强的问题解决能力,能独立分析和攻坚复杂的技术难题。 5.有公有云使用经验者优先。 6.有良好的服务意识、沟通能力和团队协作精神。 此岗位base深圳南京都可~
-
一、职位职责: 1、全面负责用户&商品画像和标签平台的架构设计与核心研发,确保平台的高可用性和扩展性; 2、深入理解公司各重点产品及业务需求,通过数据挖掘和分析,发掘潜在价值点,制定画像平台的长期发展策略,拓展画像在多场景下的应用; 3、领导画像产品的持续优化,推动画像标签应用平台的建设和技术创新,确保其在市场中的竞争力和领先性; 4、与跨部门团队紧密合作,推动用户画像技术在公司内部和外部生态系统中的推广和应用,提升公司整体数据应用能力。 二、职位要求: 1、精通Java语言及其生态系统,具备5年以上相关开发经验,能够在复杂场景下提供高效、稳定的解决方案; 2、深刻理解分布式系统、缓存、消息队列等技术原理,具备大规模分布式系统的设计和优化经验; 3、计算机基础扎实,对技术有极高的热情,具备解决复杂技术难题的能力,并愿意持续学习和应用新技术,应对业务挑战; 4、深入掌握大数据常用开源框架,如Hadoop、HBase、Flink、Spark、ClickHouse、Doris、Flink等,具备大规模数据处理的实战经验; 5、具备丰富的用户画像、数据应用开发经验,能够从业务角度出发,设计和实施数据驱动的解决方案; 6、有出色的领导力和团队合作能力,能够带领团队共同实现目标,并推动团队的技术成长和发展。
-
工作职责: 1. 负责电信、交通、政务等领域项目的总体架构设计,包括:软件集成方案,关键技术方案,部署方案,安全方案,割接方案等。确保其符合客户需求和要求。 2. 指导项目团队,确保以上方案可以在项目中的落地实施。以保障项目按时交付和高质量完成 3. 在项目实施全周期内,项目出现架构的问题,需要进行技术判定,并指导解决问题。 能力要求: 1. 要求具备2年以上政企项目总体架构设计经验,有开发与需求分析经验优先,有海外项目架构设计经验优先。 2. 具有某个行业领域业务知识。以下行业优先:电信、交通、政务。 3. 具备深厚的技术知识和经验,熟悉多种技术平台和编程语言。 a) 技术方向:云原生、大数据、业务开发框架、AI、数字孪生、数据库、5G专网、安全等。 b) 编程语言:java、python、node.js、go等 4. 具备良好的沟通和领导能力,能够与客户和团队成员进行有效的沟通和合作。 5. 具备良好的解决问题的能力和创新思维,能够提供最佳的解决方案。 6. 具备良好的时间管理和组织能力,能够把总体架构进行分解,指导落地实施。
-
职位职责: 1、 负责相关业务大数据项目整体架构规划; 2、 负责指导工程师进行技术验证与实现,关键技术问题的攻关,解决项目开发过程中的技术难题; 3、 负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、 根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、 熟练使用Hadoop、Hive、spark,flink等大数据框架,熟悉SQL、Java、Python等编程语言; 2、 有PB级大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、 6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。
-
岗位职责: (1)负责兴业银行分布式应用开发平台的设计和研发,牵头制定行内相关平台的规范指引; (2)深度参与兴业银行超大型分布式应用的建设。 岗位要求: (1)具备5年以上分布式微服务技术相关工作经验; (2)曾负责或者以骨干身份参与分布式应用开发平台研发建设,并具有超大型分布式系统建设经验; (3)研究过SpringCloud、Dubbo、Sofa等分布式开发框架,有源码重构经验优先; (4)熟悉超大型分布式应用建设时所需的关键技术,如单元化、双活/多活、灰度发布、分布式事务、分布式批量调度等; (5)熟悉超大型分布式系统建设时所需的缓存、注册中心、配置中心、日志、全链路监控等组件; (6)具有大型系统应用上云相关经验; (7)具有大型互联网技术中台的研发和架构经验或者银行分布式核心系统建设经验者优先。 工作地点:上海、福州、成都
-
岗位职责: (1)负责兴业银行容器平台及中间件PaaS平台设计、研发、建设及维护工作; (2)负责容器云及中间件相关技术研究、技术标准制定、故障排查处置、安全加固等工作; (3)负责对使用容器云平台和接入各类PaaS服务系统提供技术支持。 岗位要求: (1)熟悉Docker容器技术,深度掌握相关技术原理细节; (2)深度掌握Kubernetes,深度了解各资源对象、技术组件运作原理,有实际项目经验; (3)对应用容器化设计、改造有深度认识以及实践经验; (4)熟悉Linux,熟悉Python、Shell中一种脚本语言,深度理解网络原理、存储原理、虚拟化、软件定义网络SDN等; (5)熟悉Tomcat、Kafka、RocketMQ、Redis、Nginx等中间件中一项或者多项,具有丰富的调优、高可用架构设计、故障排查、安全加固、监控经验。 符合以下一项或多项条件者优先: (1)曾负责或深度参与互联网或大中型金融企业的容器平台或中间件PaaS平台建设者; (2)具有2年以上容器平台或PaaS平台管理运维经验者; (3)对Docker、Kubernetes有源码级掌握者; (4)对云原生社区有贡献或者熟悉源码者; (5)具备Kubernetes Operator开发经验者; (6)具有Kubernetes相关认证者; (7)具备Redis、RocketMQ、Kafka、Zookeeper、Elastic等中间件二次开发经历者。 工作地点:上海、成都
-
职位职责: 1、 负责相关业务大数据项目整体架构规划; 2、 负责指导工程师进行技术验证与实现,关键技术问题的攻关,解决项目开发过程中的技术难题; 3、 负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、 根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、 熟练使用Hadoop、Hive、spark,flink等大数据框架,熟悉SQL、Java、Python等编程语言; 2、 有PB级大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、 6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。
-
工作职责: 1)负责大数据解决方案规划,与产品体系、目标客户深入沟通引导,推动方案落地实施; 2)负责数据治理解决方案制定和推动实施,包括:数据标准化制定和落标、数据质量管理、生命周期管理等; 3)负责核心客户项目的规划方案和需求支持,取得阶段性成果,并对项目成果进行包装和分享; 4)深入研究竞品和客户诉求,给予产品迭代和项目规划建议,注重市场驱动、数据驱动; 5)与公司产品部门、交付部门等多部门紧密协作,协同客户推动企业数据向资产化、资本化发展。 任职条件: 1)5年以上大数据工作经验,有较好的技术功底,本科及以上学历,计算机、电子、通信类相关专业毕业; 2)具备丰富的大数据解决方案包装和宣传推广经验,获得核心客户、协同部门认可,体现价值; 3)具备较强的执行力及抗压性,具备良好的团队沟通能力、团队合作精神及项目管理能力,适应一定频率的短差; 4)具备较强的问题分析能力、判断能力及独立思考能力,对新技术、新产品、新需求感觉敏锐,关注数据产品发展趋势; 5)有以下工作经验优先:运营商大数据项目经验、数据治理项目经验、大数据基础组件实际使用经验。
-
工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
1. 熟悉Hadoop生态常用开源组件(如hdfs、hive、spark、flink、doris)的问题排查、性能和管理优化、部署升级、扩容缩容等,有过相关运维管理平台或自动化部署系统开发经验者优先; 2. 熟练使用shell、python、Java,有相关开发经验;熟悉大数据组件源码或有大数据开源组件开发经验者优先; 3. 良好的沟通合作能力,热爱技术并善于钻研,能主动思考,有解决疑难问题的毅力和决心
-
到家研发平台秉承"零售+科技"战略,致力于推动餐饮、零售需求侧和供给侧数字化升级,构建了超大规模的在线交易平台和实时调度系统,保障了百万商家和亿级用户的高效安全交易,实现了对百万骑手所在物理世界全链路的数字化。随着万物到家业务战略推进,我们在需求侧致力于通过大数据与大算力深度融合,建设强大的LBS零售电商系统和平台;同时,在供给侧紧密关注决策智能、因果推断和机器人等诸多新技术的发展和应用,建设行业领先的智能决策平台。 人工智能生成内容(AIGC)和大模型技术是到家研发平台重点探索和布局的前沿领域。我们积极将这些颠覆性的技术与到家的业务场景相结合,力求在智能搜索、个性化推荐、智能助手、营销创意生成等方面取得突破,为用户和商家提供更加智能、高效、有温度的服务体验。未来,我们将持续加大在AIGC和大模型领域的研发投入,吸引和培养**人才,打造业界一流的AIGC创新平台。 加入我们,你将有机会与最优秀的人才一起工作学习,参与到AIGC等前沿技术的研发和应用中,用创新重新定义本地生活服务,为数亿用户带来前所未有的体验,用技术改变世界,让人们的生活更加简单美好。 岗位职责 i18n&l10n:建设出海本地化解决方案,统一时间、货币、度量衡、节假日、习语、翻译等方案,支持全平台一套代码跑遍全球 服务治理:解决大型复杂系统所引发的架构问题,包括且敏感数据治理、公共参数治理、SOA服务治理等,解法是优化及重构双管齐下 多机房架构:解决外卖出海情况下,多机房架构搭建,多机房架构的数据同步、多活灾备等问题 支撑、助力和创新业务:不断预判或发现共性技术问题,通过服务化、中间件化、配置化、数据化等手段,建设标准、工具和平台,支持业务稳定运行、快速迭代,并能基于数据智能做创新 岗位基本需求 1.本科及以上学历,2年以上互联网系统研发经验; 2.具备优秀的业务分析能力和解决问题能力,能够将复杂的业务问题转变为清晰的系统需求; 3.对技术有热情,有强烈的求知欲、好奇心和进取心,关注IT行业动态,能够快速学习和运用新技术; 4.做事有责任感和主动性,面对复杂业务问题,可以从技术和业务多角度推进,最终达成目标 具备以下者优先 1. 具备大型机房迁移经验的同学优先; 2. 具备高可用中间件建设的同学优先 3. 主导过大型复杂分布式互联网业务系统的设计,有高并发场景下的架构设计和稳定性保障经验; 4. 有过国际化相关从业经验; 5. 英语流利,可作为工作语言者 岗位亮点 能全面参与境外用户端业务从0到1的建设过程,可了解业务的全貌及系统架构演进。 如果你对世界充满好奇心,在这里,你会接触到不同的国家、语言和文化,开拓国际视野,探索异域市场。 如果你富有冒险精神,在这里,一个个陌生的国家等待你的开发,一个个全新的关卡等待你的挑战。 如果你渴望快速成长,在这里,你可以经历新业务从0到1的过程,不断解锁新技能,持续获得成就感。 我们的目标是星辰大海,期待有想法、敢于冒险、渴望快速成长的你加入!让我们一同见证美团境外业务的征程!
-
职位描述: 1. 负责微博搜索、智搜相关业务功能、策略算法、数据处理等开发工作; 2. 支持微博搜索、智搜相关相关模块,包括线上搜索引擎、语义搜索、搜索推荐、实时数据流、离线数据处理; 3. 参与搜索和智搜架构开发,包括对策略体系和架构体系的设计、开发、优化、调整,提升系统整体性能和可扩展性; 4. 负责搜索和智搜相关日志统计、大数据处理等用户行为分析工作,支持产品、业务、技术的规划和落地; 任职资格: 1. 熟练掌握如下程序开发技术之一,并有实际工作经验:linux下c\c++程序开发技术;linux下python程序开发技术;hive SQL;hive、hadoop、mr、spark等大数据工具; 2. 熟悉基础的数据结构和算法,程序设计开发中能够合理考虑性能问题; 3. 有过搜索引擎、推荐、广告等相关系统设计、开发经验者优先; 4. 一年及以上工作经验; 5. 良好的沟通能力,良好的团队合作精神;
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。