-
职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
-
职位职责: 1、支持字节跳动研发团队,作为接口人满足业务团队日常招聘需求; 2、负责端到端招聘流程管理,深刻理解业务,把握招聘需求,为快速发展的团队搭建优秀的人才梯队; 3、参与/负责团队内高端人才寻访,以及面试,offer,入职跟进等全流程管理; 4、管理招聘渠道,如猎头/招聘网站等资源管理; 5、负责招聘相关项目,如校园招聘、人才mapping、高端人才招聘等; 6、分析招聘数据及漏斗,提升招聘有效性。 职位要求: 1、**本科及以上学历 ,5年以上招聘领域经验,甲乙方皆可; 2、良好的项目执行能力和推进能力; 3、优秀的沟通能力和解决问题能力,较高的人际敏感度和影响力; 4、热爱招聘,自我驱动力强; 5、有IT/互联网研发相关招聘经验者优先;有批量招聘经验者优先;有高端招聘经验者优先; 6、有行业头部研发人才**经验者优先; 7、有海外人才回流招聘经验者优先。
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
岗位职责 1. 选择并且维护招聘渠道,沟通、邀约及面试候选人、进行薪资谈判、安排候选人入职; 2. 协助雇主品牌建设工作,拓展和更新有关宣传渠道; 3. 配合开展行业人才MAPPING研究工作。 任职要求 1. 23届及之后毕业的本科或研究生在校学生,有人力相关实习经验者优先; 2. 可保证每周实习至少4天,实习周期至少3个月; 3. 良好的沟通能力,逻辑思路清晰; 4. 喜欢挑战性的工作,性格开朗,具备较强的自我驱动力。
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
我司在招聘大数据工程师的同时也在招聘Java工程师 技能要求: Linux,网络安全,数据库开发 岗位职责: 1. 构建基于网络信息安全的大数据平台,支持数据采集、处理、分析、监控和可视化全过程。 2. 解决数据规模增长带来的技术、异地存储检索和复杂的业务问题。 3. 参与项目的需求分析和设计工作,并完成相关技术文档的编写。 4. 协助项目负责人解决项目中的技术难题; 任职要求: 1. 本科及以上学历,计算机相关专业,5年以上开发经验,2年及以上大数据从业经验。 2. 熟悉分布式编程,精通JAVA语言程序设计,具有良好的架构规划能力。 3. 熟悉Hadoop/Hive/Spark/Storm/Flink/Kafka/等技术,具备实际项目设计及开发经验。 4. 精通SQL,熟悉Mysql/Oracle处理机制及应用场景;熟悉NOSQL,如Redis、Hbase、MongoDB等 5. 有Druid、Clickhouse 或Kylin使用及性能优化经验者优先。 6. linux操作系统操作熟练,有能力进行复杂脚本(shell/PYTHON等)编程。 7. 工作态度端正,对技术充满热情具有钻研精神,有良好的问题分析和追踪能力,团队合作意识较好。 具有以下条件者优先考虑: 1)有Kubernetes/docker/Etcd 等容器技术使用者。 2)有网络信息安全从业经验者。
-
岗位职责: 1、掌握项目具体数据需求,分析数据源系统,确定所需源数据的数据结构、统计口径、数据下发方式、数据下发频率等特性,确定数据映射关系,数据含义,构建数据模型 2、协助ETL工程师完成模型落地以及调度开发 3、了解大数据平台整体规划,针对银行业内的数据存储、平台资源、业务需求,使用模型设计软件构建全行级数据体系的数据模型 4、在数据资产管理平台中维护系统表清单、表结构、表类型、数据字典、数据映射关系 5、研究银行业的建模思路、方法和落地方式,结合行内现有数据模型、业务逻辑等,开展各项主题研究分析根据行内的模型规划,制定具体标准、流程设计以及实施方案,并推动实施 6、参与数据挖掘及数据产品研发的规划、设计及实施。包括数据准备、数据分析、数据建模、模型优化、算法应用等工作。 招聘条件: 1、211/985硕士及以上学历,年龄35周岁及以下; 2、具备3年及以上银行、大数据分析、IT公司从事金融行业数据挖掘相关工作经验; 3、作为核心团队成员参与过金融数据分析或数据仓库项目,有项目管理经验者优先考虑; 4、熟悉数据仓库模型设计方法论,并有实际的模型设计经验,具备大数据模型建设能力 熟悉大数据、数据仓库、数据治理等行业技术发展趋势 5、熟悉金融行业基本知识,熟悉银行基本业务体系 6、熟悉高斯DB相关技术,熟悉MPP数据库、关系型数据库技术,具有丰富的SQL语言经验会使用至少一种模型设计软件(PD、ERWIN等) 7、具有较强的逻辑分析能力,同时对新知识、新事物具有强烈的钻研精神,思路清晰、思维缜密,有良好的团队合作能力。
-
航旅纵横2023届校园招聘 【简历请直接投递邮箱】 中航信移动科技有限公司(简称移动科技)是由民航局空管局、中国东方航空集团、中国南方航空集团作为主要股东的国有科技型企业,2017年4月,被国家发改委选中作为第二批九家混改试点企业之一。 公司旗下“航旅纵横”是国有企业打造的在战略新兴领域为数不多具有广泛影响力和市场竞争力的创新产品,被国务院国资委誉为改革开放40年中国有企业在互联网领域取得的重大突破。公司具有浓厚的技术底蕴,70%为研发人员,在移动互联网、大数据、人工智能、区块链等领域建立起具有完全自主知识产权的技术体系,秉承用科技赋能民航产业的发展思路,积极推动民航迈向智能化时代,公司打造的无纸化通关、电子证照、智能计算、泛在感知、民航服务评价等系统已经逐步成为民航新型基础服务设施,显著提升了行业的运行效率和服务水平。公司相关研究入选国家自然基金重点项目,荣获“中国交通运输协会科技进步一等奖”“中国航协科技进步二等奖”“全国工人先锋号”“全国交通运输系统抗击新冠****先进集体”“全国向上向善好青年群体”等奖项,获得国家发明专利授权超过60项。 未来,移动科技将持续在人工智能、区块链等前沿领域积极承担国家重点研发计划项目,打造惠及旅客与行业的创新型服务模式,通过多种服务载体建立智慧民航服务体系,建立完整面向行业的数字化服务支撑体系,为民航服务数字化转型升级提供持续动力。 【公司官网】www.umetrip.com 【 2023届,职等你来 】 【面向人群】2023届应届毕业生 *中国大陆以***为准,非中国大陆地区以***为准,且最高学历期间无全职工作经验。 【工作地点】北京市石景山区 【 20+岗位,全面开放 】 【研发类】 Java后台开发工程师、区块链开发工程师、大数据开发工程师、数据分析师、网络爬虫工程师、算法工程师-机器学习、算法工程师-计算机视觉、算法工程师-自然语言处理、客户端工程师(ios/android)、WEB前端开发工程师、嵌入式开发工程师、windows开发工程师、云计算开发工程师、运维开发工程师、测试开发工程师、研发效能工程师 【产品类】 产品经理助理、产品运营助理、用户体验设计师、视觉设计师 【业务类】 法务、财务会计、人力资源 【 投递之路,一键启程 】 个人简历和邮件主题命名规范:【岗位名称】+【学校学历专业】+【候选人姓名】 简历投递邮箱:*************************** 【 目标OFFER,3步实现 】 提交简历 - 远程面试 - offer 【 更多福利,尽在航旅 】 福利待遇:北京户口落户安排,定期免费高端体检; 房补饭补补贴满满,生日节日福利多多。 成长发展:国有科技潮头创未来,混改试点先锋促发展; 扁平管理激发价值创造,活泼氛围助力才华施展; 新员工成长集训计划,学长学姐一对一带队; 定期精品课程强辅导,关注高潜人才重培养。
-
招聘岗位(工作地:除额外标记上海外,其余均在北京) 研发方向岗位 大数据开发工程师 Java开发工程师 数据挖掘工程师 风控模型工程师(工作地:北京、上海) 产品方向岗位 大数据产品经理(工作地:北京、上海) 平台产品经理 综合管理方向岗位 销售岗 政府关系岗 总裁办事务岗 应聘方式 发送简历邮件至:*****, 邮件主题请注明:【应聘岗位名称】 + 【姓名】+【学校】+【专业】 薪酬待遇: 我们将提供具有竞争力的薪酬,优秀的毕业生可解决北京户口。 招聘对象 2023届应届毕业生(于2022年11月-2023年8月期间毕业) 应聘条件 具有国家**本科及以上学历。 研发、产品岗位须计算机、数学、金融工程等相关专业,综合管理方向专业不限。
-
大数据开发工程师 1.本科及以上学历,计算机、数学等相关专业;; 2.熟悉hadoop,hive,spark使用及调优; 3.熟悉Java,掌握PythonShell等脚本语言,熟悉Linux操作系统; 4.了解机器学习常用算法,具备自然语言处理、特征分析等方面知识及应用经验者优先; 5.有较强的逻辑思维能力,较强的抽象、总结概括能力、沟通协调能力和抗压能力,善于思考。 ———————————————— 【招聘对象】 2020年9月1日-2021年7月31日期间毕业的海内外高校应届生 【招聘岗位】 大数据开发工程师、数据挖掘分析师、Java 开发工程师、前端开发工程师、ETL工程师 工作地点:深圳、广州、北京、上海、大连、厦门、成都 【薪酬福利】 完善的薪酬体系:有竞争力的工资、年终奖 多样的福利保障:双休、带薪假期、六险一金、员工基金、年度体检、节日/纪念日礼物...... 清晰的发展路径:管理及多种专业职位序列发展路径 持续的培养计划:导师制、内部专家讲师团队、学习部落,保障学习成果转化 【招聘流程】 宣讲→网申→两轮面试→发放offer→签订三方协议→实习/报到 (线上线下同时进行) 【网申方式】 PC端:进入校招官网https://app.mokahr.com/campus_apply/datamargin,选择意向职位投递简历 手机端:微信查找并关注“索信达控股”微信公众号,路径【加入我们】-【校园招聘】,选择意向职位投递简历 关注索信达控股,了解最新招聘资讯、查询简历投递进度
-
岗位职责: 1.支持Hadoop集群底座的运维故障分析、解决、性能优化;大数据集相关组件主要包括:Yarn、HDFS、ZooKeeper、Storm、Kafka、Hbase、Hive、Spark、Kerberos、Spark、Flink、Flume、MySQL等组件运维; 2.开发数据采集、清洗、分析、挖掘及可视化功能,需熟悉ES、milvus、pgsql等。 3.熟悉国产数据库,包括doris等; 4.配合开展HDFS存储、Hive元数据治理优化,建立并完善存储治理方案; 5.配合开展Hive、Spark作业优化,对业务侧提出优化建议。如:作业小文件问题、数据倾斜治理方案等; 6.提出集群优化建设方案,配合建设和优化大规模分布式集群的自动化运维、监控等工具和管理平台。 任职要求: 1.本科及以上学历,通信/计算机等相关专业,具有良好的学习能力、沟通能力、团队合作能力及一定的抗压能力; 2.熟悉Hadoop、Hive、Hbase、Spark等开源项目,理解组件架构及原理; 3.对大数据运维开发有浓厚兴趣,熟悉Apache Hadoop部署、性能调优; 4.能阅读/理解Hadoop等相关开源组件源码; 5.对HQL、SparkSQL等有较深入的研究,能解决实际业务性能问题; 6.熟练掌握LDAP、Kerberos等安全认证体系; 7.熟练掌握Linux命令与工具进行问题定位,熟悉常规的互联网技术架构; 8.具备一定的Java开发能力; 9.有信控平台开发经验者优先录取。
-
急招职位描述 1、负责公司数万节点大数据集群的各项运维管理工作,保障集群服务的高可用性运行; 2、负责超大规模集群服务运维管理平台的设计与研发工作,保障集群服务版本高速迭代以及变更的风险控制; 3、负责集群服务的监控报警体系规划与产品研发迭代,推进监控报警有效性与智能化; 4、负责集群服务容量规划、服务管理与治理规划与产品研发迭代工作。 任职要求 1、大学本科及以上学历,计算机或者相关专业 2、熟悉Hadoop生态圈各组件基本原理以及使用(包括但不限于Hdfs、Yarn、Hbase、Kafka、Hive、Clickhouse); 3、具备扎实的编程能力,掌握至少一种脚本语言(Shell、Perl、Python等),熟悉Java等开发语言者优先,熟悉常用算法和数据结构; 4、Linux操作系统基础扎实,对操作系统原理有一定了解; 5、具有良好的抗压能力,较强的故障分析排查能力,有很好的技术敏感度和风险识别能力。 符合以下条件优先: 1、有大规模大数据服务集群(包括但不限于Hdfs、Yarn、Hbase、Kafka、Hive、Clickhouse)维护经验,对运维体系建设有自己的见解;
-
这个平台足够大 工作有点累, 时间有点长, 压力有点大。 但这里不拼爹,不拼关系,只要努力,专业,坚持,可以让平凡的我们实现不平凡的梦想 招聘:一起努力拼搏的伙伴 薪资待遇: 1、无责任底薪5000/月; 2、转正后有保障薪资,业绩提佣30%-75%; 3、缴纳社保五险一金; 4、免费培训+带薪年假+精英社国内外旅游+互助金: 5、有创新精神及拓展精神。敢于挑战高目标,有晋升意愿; 6、要求:**本科学历。 欢迎推荐,有奖励 联系电话☎️**********刘经理
-
岗位职责: 1、支持业务部门岗位招聘,满足部门招聘需求 2、负责海外招聘渠道维护,及跟进海外招聘网站上的外籍人士沟通和和项目组招聘需求跟进 3、负责日常招聘基础工作的推进,包括岗位分析,渠道维护,开拓等 4、充分利用各种招聘渠道满足公司的人才需求; 5、提出有利于优化部门流程及工作方式方法的可行性建议; 职位要求: 1、1-3年相关工作经验 2、有过游戏行业加分 3、优秀的语言表达及沟通能力,协调能力,亲和力和敏锐的洞察力和分析判断力 4、责任心强,亲和力好,善于沟通,认真细心 5、协助各模块HR工作 4、优秀的语言表达能力及良好的文字组织能力,善于分享,高效沟通,注重团队协作。 福利待遇: 1、月薪+年终奖+五险一金+弹性工作+节假日福利+下午茶+生日会+团队旅游周末双休 2、办公室下午茶新鲜水果小零食不限量供应; 3、不定期的各种员工活动,篮球、羽毛球、聚会; 4、享有专业的岗位、商务礼仪等提升能力的培训; 有游戏公司工作经验者优先!
-
1、负责高端岗位招聘工作,支持各业务中心核心岗位、专家级岗位招聘;2、合理做好人才mapping,并进行有效分析,对招聘数据进行收集和整理,支持招聘渠道建设;3、深刻理解所支持业务部门的业务和组织,及时把握组织动态并识别潜在风险,提供解决方案,为业务部门赋能;4、总结招聘工作中存在的问题,提出优化招聘制度和流程的合理化建议;5、参与或负责大型招聘项目。 任职要求 1、**本科及以上学历,5年以上专职招聘经验,有猎头背景优先;2、有互联网、算法岗、业务负责人招聘经验优先;3、有mapping经验,能够主导mapping工作 。


