-
岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
-
职位职责: 1、设计与开发智能测试与诊断工具:构建下一代测试平台,利用静态代码分析、动态插桩、故障注入等技术,对大数据核心组件进行深度质量探测; 2、推进AI在质量保障领域的落地:探索AI/ML技术在大数据平台质量保障与稳定性的应用场景,如代码风险挖掘、智能异常检测、故障根因定位等; 3、参与大数据平台稳定性架构建设:从测试和可观测性视角,参与平台架构评审,设计和开发高可用、可测试的框架与规范; 4、建立平台级的质量洞察能力:通过代码覆盖率、性能基准测试、混沌工程等手段,构建平台质量度量体系,为研发团队提供可视化的质量数据和改进方向。 职位要求: 1、计算机相关专业本科及以上学历,3年以上测试开发或后端开发经验,具备扎实的计算机基础和编码能力; 2、精通至少一门主流编程语言(如:Java/Python/Go),具备软件设计能力,能独立完成工具或框架的开发与迭代; 3、对软件测试理论和质量保障体系有一定理解,熟悉自动化测试、性能测试、混沌工程等; 4、具备良好的项目推动能力、沟通能力和团队合作精神,能够独立解决问题并承担压力; 5、有AI或机器学习相关项目经验优先;有代码分析经验或了解工具或库优先(例如:AST分析、代码插桩);有大数据平台开发测试运维经验优先;或具备优秀英语能力者优先。
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
岗位职责 1、负责客路下一代大数据湖平台的规划、建设与持续优化,打造高效稳定的数据处理与分析能力; 2、负责数据基础架构的设计与研发,提供高性能的离线与实时计算能力,支撑公司在海量数据分析、机器学习等场景下的业务需求,实现数据平台价值的持续交付; 3、牵头大数据平台研发团队的建设与管理,制定并落地大数据平台相关技术标准与规范; 4、打造数据服务与预警机制,赋能业务与运营团队的数据化运营; 5、建设埋点,AB实验,用户圈选,CDP等数据应用,提供离线和实时的数据服务; 6、推动数据治理与数据资产管理平台的建设与完善,提升数据质量与资产价值。 任职要求 1、本科及以上学历,计算机、数学、统计等相关专业优先;具备5-8年数据平台开发经验,有一定团队管理经验者优先; 2、扎实的大数据平台架构设计能力,深入理解大数据生态及关键组件,熟悉以下技术: 3、Doris、Spark、Hadoop 等核心组件; 4、Flink、Iceberg等实时与湖仓一体技术; 5、有AWS / GCP / 阿里云平台经验者优先; 6、对埋点、广告投放、用户圈选系统等有深刻理解与实战经验; 7、具备较强的业务理解力,能够结合业务场景构建数据产品与解决方案,具备数据化运营经验优先; 8、具备优秀的跨团队沟通与协作能力,善于总结与规范化,推动多部门协作与项目落地,责任心强,具备良好的团队合作意识。
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
岗位职责: 1.大数据基础平台、应用平台功能设计和开发。 2.负责大数据平台及组件的调研选型,部署,日常监控及问题解决。 3.参与海量数据处理方案设计,提供业务系统技术支撑。 任职要求: 1.本科以上,计算机相关专业。 2.至少精通java/scala其中一种开发语言,熟悉主流后端开发框架。 3.熟悉大数据平台常用框架(hadoop/hive/spark/hbase/flink/presto/clickhouse/kafka)原理及常用应用场景,至少有3年以上大型生产系统相关经验。 4.熟悉linux系统,熟悉常用的操作系统命令和shell脚本编写。 5.责任心强,有较强的沟通能力和团队合作精神。 6.了解docker、k8s相关技术,有大数据组件容器化经验优先。
-
【我来自如做什么?】 1.成为自如大“管家”,管理区域库存自如房源,了解区域房源信息,熟悉地铁、公交站、超市等基本生活设施情况; 2.处理APP客户约看信息,与租客“面基”,准确了解客户租房需求,根据客户需求推荐合适房源; 3.成为签约自如客的“贴心小棉袄”,包括但不限:提供租期内关系维护、电话回访、咨询受理、客户关怀等租务。 【自如全国坐标】 北京、上海、深圳、杭州、成都、广州、天津(按个人意愿及岗位空缺就近分配) 【自如WORK TIME】 早9晚7,周一休息,平时外勤工作较多,上下班打外勤卡,无需坐班,工作自由 【自如人的大福利!】 1、无责底薪4000元(季度晋升,每晋升一个级别底薪涨幅400~500元,最高6500元)+餐补260元左右(出勤10元/日)+文化心赞奖(300-1500元)+提成(130-270/每单)。达到相应单量即可晋级(S1-S6),底薪相应提高,综合月薪范围8000-12000元,上不封顶~ 2、自如内部员工租房福利,超多租房福利任你选择~ a、首次入职且首次入住自如,自如旗下长租房源,享受房租折扣及专享服务费优惠,更有免费换租机会呦~ b、25~26届实习生专享住房福利:零服务费,零押金,让你实习也能住得自如! c、海燕计划 (针对应届生,免押金、服务费折扣、租金月付); 3、入职即缴纳五险一金 4、自如与Apple的员工购买计划(EPP),给你和亲友提供购买Apple产品及配件优惠哦; 5、自如BYOD制度,和自己的办公设备一起征战职场,还有每月补助哦; 6、带薪年假、节日礼物、健康体检、国内及出境游; 7、每月主题激励活动:斯巴达之战、寒战……赢了有大礼,超燃! 8、每逢佳节有奇葩活动:光棍节送狗粮、定制专属名字的可乐、王者荣耀杯……超欢乐! 【在自如能学到什么】 自如学院开设全系列课程培训,贯穿职业生涯: 1、师徒制:入职赠送师傅一枚,带你迅速了解工作和岗位; 2、通用能力培训:入职2周内新人培训,让你全面了解行业和公司; 3、专业能力培训:开设提升中阶训、金牌公开课,员工分享活动,全面提升技能! 4、高阶领导力训:优秀员工可进入成就训练营,参加拓展研讨活动及课程,培养管理力,储备管理层; 【我在自如的晋升前景?】 在自如,业务管理层不外聘,只对内提拔。每季度公开竞聘,谢绝关系户! 你有能力,我们有平台! 所以,自如是谁? 自如是一家提供高品质居住服务与生活服务的科技公司,业务覆盖品质居住产品,智慧生活服务,智能家居家装,智慧社区组织运营四大板块,新颖的模式被收入哈佛商业案例及清华MBA案例库中。目前自如业务遍及10城,为50万业主,500万自如客提供服务,管理房源近100万间。 自如Team怎么样? 我们崇尚简单公平:公司实行花名制,扁平化管理。 爱“自如范”:聪明、阳光、专业、坚强。 我们是一群心存热火的年轻人,自如的10000多名工作伙伴,致力于全员*****本科及以上学历,平均年龄仅27.5岁~ 如果你充满激情,讨厌循规蹈矩,想和志同道合的人一起,为推动城市文明进程贡献一份力量,那么欢迎来到自如!
-
校招实习生-技术研发工程师 (MJ001718)
[深圳·南山区] 2025-10-104k-5k 经验在校/应届 / 本科旅游|出行 / D轮及以上 / 500-2000人作为研发工程师参与Klook实习生项目,你将会从事KLOOK 研发团队某一产品线的后端岗位,为全球旅行者提供最优秀的旅行服务,并有获得转正名额的机会。 面对各种挑战,你将要: 1、负责KLOOK各线产品的开发、测试和上线 2、负责管理自身项目和需求的优先级、按时高质量交付 需要这样的你: 1、2026年大学本科以上学历应届毕业生,可以在2025年实习至少2个月 2、计算机科学等专业优先,具有一种或多种通用编程语言的软件开发经验(C++、Golang、python、Java、JS、Objective C或其他计算机编程语言编程) 3、具备较强的跨部门合作能力 4、良好的中英文口语及写作能力,可用英文作为工作语言优先 关注【客路客】公众号获取更多校招信息! 1、Klook是全球领先的旅行体验预定平台,协助全球千万旅行者发现更好玩的世界,预定独特的旅行体验,帮助千万旅行者找到“想要”和“需要”的一切。 2、成立八年融资E轮融资总计达到7.2亿美元,荣升中国独角兽企业排行榜。 3、覆盖超过400+个全球目的地,10,000+家供应商合作伙伴,月访问量超3000万,拥有500万条用户体验后评价。 4、国际化平台,开放和充满激情的国际化团队,硅谷式企业文化;行业大咖技术分享,每个人都有那么一点传奇;扁平化的团队管理,你的能力和价值很快会被看到;苹果办公设备+Google办公套件,提升云协同效率;团队足迹踏遍国家50+,等你来一起占领地球。 5、六险一金:医疗、失业、养老、生育、工伤、住房公积金+商业保险。 6、福利&补贴:年度体检、年节活动及礼包、年度旅游基金、欢乐津贴、欢乐下午茶、聚众吸猫撸狗、Outing、社团活动、健身房、睡眠舱、协议商家优惠... 7、节假日&休假:法定节假日、双休制、弹性上班、10天及以上带薪年假。 -
研发工程师JAVA校招 职位描述 如果你想了解JAVA开发在钉钉的应用广度与深度,如果你希望在应用技术领域大展身手,或热衷于高性能分布式技术,或喜欢研究复杂领域建模和抽象,或对企业服务产品技术感兴趣,或对数据敏感,那就加入我们吧! 具体职责包括但不限于: 1、参与高性能分布式服务端程序的系统设计,为钉钉的产品提供强有力的后台支持,在海量的网络访问和数据处理中,设计并设施最强大的解决方案; 2、参与复杂领域业务的系统设计,通过领域抽象和建模,为钉钉的产品提供可持续快速发展的具备良好扩展性、健壮性的系统设计,在海量的业务需求类型和大规模客户的时效性需求中,设计并设施强大的解决方案; 3、参与企业存储引擎各个功能模块的设计和实现,构建高可靠性、高可用性、高可扩展性的体系结构,满足日趋复杂的业务需求; 4、参与产品的开发和维护,完成从需求到设计、开发和上线等整个项目周期内的工作; 5、参与海量数据处理和开发,通过sql、pl/sql、java进行etl程序开发,满足商业上对数据的开发需求; 6、参与项目为用户提供丰富而有价值的桌面或无线软件产品。 职位要求 【必备项】 1、热爱编程,熟悉掌握但不限于JAVA/C/C++/PHP/NET等编程语言中的一种或几种,有良好的编程习惯; 2、熟悉网络编程和多线程编程,对TCP/IP,HTTP等网络协议有一定的理解,并了解XML和HTML语言; 3、熟悉Unix/Linux/Win32环境下编程,熟练使用调试工具,并熟悉Perl,Python,shell等脚本语言; 4、热衷于数据库技术,能够熟练编写SQL脚本,参与过MySql或Oracle应用开发项目; 5、对数据结构、算法有一定了解; 6、学习能力强,对新事物保有好奇心,有良好的沟通能力和团队协同能力,善于独立思考并反思总结。 【加分项】 1、 AIGC有不错的实践或应用, 相关项目有一定的使用人群 2、有互联网公司实习经验,参与过互联网软件等相关产品; 3、热衷于ACM,在校期间参与过大学生数学建模竞赛,“挑战杯”,机器人足球比赛等,或作为骨干参与过学生网站的建设和开发; 4、在相关领域国际会议、期刊发表论文,或相关学术会议组织的权威比赛中获奖。 一段全新、有意思的旅程正待开启!为了更全面的展现你自己,你还可以在简历中附上你认为自己最有意思的爱好、特长、经历,或是对未来有意思的畅想,没有限制,此项非必填。加入我们,一起打开有意思的未来! 工作地点:杭州
-
岗位职责: 1. 大数据后端应用平台研发 2. 系统性能调优与优化 3. 大数据平台架构设计 任职要求: 1. JAVA基础扎实,理解io、多线程、集合等基础框架,对JVM原理了解,有一定调优经验; 2. 3年及以上Java开发经验,能够熟练使用springmvc、spring、mybatis等主流的开源框架; 3. 熟悉高并发分布式系统的设计及应用,掌握MySQL等数据库中的一种或多种,熟练运用NoSQL、Cache、MQ等中间件技术,并了解主流中间件原理和机制; 4. 具有良好的编程习惯,注重利用合理的设计模式和模块化的组织方式对代码进行架构,善于学习,具备独立分析和解决问题的能力; 5、有系统架构设计优化经验; 6. 熟悉大数据组件,如hadoop,hbase,es 7. 良好的团队协同能力,熟悉敏捷开发流程;
-
现招聘后端开发(java)工程师,参与中国电信电商大数据平台相关项目的系统开发: 任职资格: 1、***本科或以上学历,计算机软件或相关专业,五年以上,知名软件或互联网公司工作经验; 2、熟悉java编程语言,以及io、多线程、集合等基础框架; 3、熟悉主流开发框架,包括Spring、SpringMVC、SpringBoot,mybatis等 4、熟悉基于Mysql关系数据库设计和开发、对数据库性能优化有丰富的经验; 5、熟悉底层中间件、分布式技术(如RCP框架、缓存、消息系统等)以及物联网技术与协议; 6、具有一定的分析复杂问题和解决问题的能力,有强烈的责任心和使命感,良好的沟通表达能力和团队协作能力。 加分项: 1、了解大数据开发相关知识,熟悉Hadoop生态圈及MPP体系相关技术 工作职责: 1、参与企业电商大数据开发平台相关的应用开发,平台建设、优化和维护。 2、负责根据项目进度及质量管理体系要求,完成项目开发工作,完成系统编码及单元测试等相关工作。 3、负责开发规范等wiki文档的编写与维护,以及其他与项目相关的工作。 4、愿意接受大数据领域海量数据、服务高可用的挑战,推动系统可用性和可扩展性的提升。 求职邮箱:***************,请邮件主题标注姓名和应聘职位。
-
【此岗位为 2025 年应届毕业生校招岗位,最后一轮 补招!】 岗位职责 1.负责小米海外游戏中心产品需求跟进、数据分析等工作。 2.负责基础体验、产品增长等方面工作,对DAU和留存负责。 3.对接运营、研发团队,推动需求落地,达成业务目标。 4.基于数据调整产品策略,持续优化产品功能与用户体验。 岗位要求 1.有较强的学习能力和自驱力,能快速适应工作环境和任务要求; 2.对数据敏感,具有较强的数据分析能力; 3.优秀的团队协作意识和沟通能力,; 4.有产品经理相关岗位实习经历优先; 5.有海外、游戏类产品相关实习经验优先。
-
岗位职责: 1、负责公司大数据平台及应用平台的设计、开发、环境搭建、调优及故障诊断; 2、负责公司大数据计算组件平台级支持服务,以及大数据计算组件的研发和性能优化工作; 3、跟进相关计算组件社区最新动态,在确保平台稳定运行的同时升级新特性; 能力要求: 本科及以上学历,计算机相关专业,3年及以上大数据平台研发经验; 熟悉操作系统、计算机网络、分布式系统原理、Java后端程序设计; 熟悉大数据技术栈,熟悉HDFS、Kafka、Hive、HBase、Flink、Yarn等多种组件和技术,有一定的系统性能优化及故障排除能力; 有Owner精神,善于沟通,主动性和责任心强,对数据敏感,逻辑性强,有良好的抗压能力,有良好的团队合作精神; 具备Spark,Flink,Presto至少一种源码分析经验或者开源社区有代码贡献者优先;
-
职位描述: (1)负责大数据平台的维护与稳定性建设; (2)负责集团大数据平台的运维工作(安装,部署,扩容,迁移等); (3)负责解决大数据领域出现的技术问题和故障,全面分析,定位根因,并给出解决方案; (4)根据大数据业务发展,引入新组件或新技术满足数据存储和计算的需求。 职位要求: (1)教育程度: 本科毕业3年以上,计算机,信息工程,数学等相关专业毕业; (2)相关经验: 具有3年以上大数据平台搭建与维护相关经验; (3)专业能力: 1、熟悉Hadoop大数据生态圈,包括但不限于CDH/HDFS/YARN/Hive/Hbase/Spark/Zookeeper/Flink等 2、具备安装、部署、维护hadoop集群及相关组件的工作经验,有生产环境实施变更和维护管理的经验 3、掌握至少有一种开发语言(Shell、Java、GO、C++等) 4、具备排查和解决技术难题和故障的能力,有Hadoop其中一个组件源码阅读或维护的经验优先 5、精通服务器监控(Prometheus,zabbix等)、日志分析,熟悉运维自动化 6、熟悉Linux软硬件环境、系统管理和优化,熟练部署各种基础组件和服务 7、具有很好的沟通表达能力,勤奋好学,具有很好的团队合作意识,喜欢技术研究
-
**招聘职位:大数据研发工程师(上海、成都、深圳)** **岗位职责:** 1. 负责多种云产品的内核开发与维护,解决客户使用过程中碰到的各种问题。 2. 参与大数据平台的部署、运维和优化,保障平台的高可用性、稳定性和性能; 3. 制定并完善大数据平台监控、报警及自动化运维工具,确保系统健康; **任职要求:** 1. **计算机相关专业本科及以上学历**,具有扎实的计算机基础,熟悉数据结构和算法; 2. 对至少一种主流大数据框架(如 Spark、Flink、Hive、Hadoop、Iceberg、Paimon 等)的源码有深入理解,能够分析并优化其内部实现; 3. 具备大数据平台 SRE 能力,熟悉容器化技术(如 Docker、Kubernetes),能够实现大数据服务的容器化部署和管理; 4. 优秀的问题分析和解决能力,善于快速定位并解决复杂系统问题; 5. 加分项:有开源项目贡献经验 **我们提供:** - 有竞争力的薪资和福利; - 广阔的技术发展空间和成长机会; - 开放、创新的团队氛围;


