-
职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
-
岗位职责 : 1、数据仓库和数据处理:负责大数据平台的数据仓库、数据治理和数据模型的设计与开发工作。进行日常数据报表开发,理解业务需求,发挥数据价值。 2、数据服务开发:负责离线和实时数据服务的设计、开发、性能调优和效果优化。构建和维护数据管道,处理ETL过程,确保数据质量和准确性。 3、技术研究和应用:参与相关项目的数据需求的实现,设计和编码工作。参与开发过程中相关技术的研究和验证。 4、平台运维和质量管理:负责大数据平台的数据及相关的应用开发、调优及维护。完成日常数据质量的监控,参与大数据平台的日常运维工作。 5、针对数据一致性、准确性、及时性,制定数据管理与治理机制,提升数据易用性、可用性及稳定性; 任职要求 : 1、本科及以上学历,计算机相关专业,3-5年以上数据开发经验; 2、具备至少一个完整的大数据平台和BI系统实施经验,熟知平台建设各环节工作,包括数据采集、数据落地、仓库建设、数据平台搭建、数据应用产品开发 3、熟悉基于推荐系统的数据仓库建设方法论,有数仓模型设计及ETL开发经验;有数据仓库分层架构设定经验者优先; 4、熟悉Hadoop生态相关技术,如Hive、HDFS、Impala、Spark、Presto、Flink、Hudi、Elasticsearch、HBase、Druid、Kylin等,有基于分布式数据存储与计算平台应用开发经验,有较为系统的海量数据性能处理经验; 5、熟悉java、scala、python等语言,熟悉微服务,分布式架构,熟悉springcloud,springboot等技术开发; 6、熟悉数据仓库原理,有离线数仓、实时计算、数据挖掘、ETL、用户画像、数据可视化等设计与开发经验; 7、熟悉MySQL、PostgreSQL、NoSQL等数据库中至少一种数据中心建设方案,可以进行产品的独立部署、高可用架构和性能优化,熟悉开源社区解决方案; 8、熟悉阿里云大数据组件E-MapReduce、Dataworks、MaxCompute和国际AWS的EMR相关数据产品等,市场常见BI产品(superset、FineBI、神策数据)等相关组件者优先; 9、较强的学习能力和技术钻研能力、有自我驱动意识,对数据采集、数据治理、数据开发、数据分析、数据建模、算法等有深刻认识和实战经验。 期待您的加入哟,我们为您准备丰厚福利待遇: 【法定福利】:公司按国家规定购买五险一金+商业保险(员工本人及子女商业保险)+带薪年假; 【节日关怀】:节日福利礼品,以及节日礼金; 【公司福利】: 机场及高铁的贵宾服务(龙腾卡权益)+年度员工健康体检+平安360服务(在线问诊、VIP挂号及重疾紧急入院服务)+年度2次免费洁牙服务 公司提供咖啡、零食、下午茶 员工活动、旅游及团建,不定期举办聚餐、唱K、电竞赛、篮球赛、拓展、旅游、生日Party等 【学习与培训】:助力职业发展与提升,内外训双引擎发力助你高速发展 【晋升机会】:公司设立良好的晋升机制和广阔的发展空间。
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
岗位职责: 1. 负责大数据集群的搭建、扩容、升级及迁移工作,支撑业务和数据量的快速增长; 2. 负责大数据集群的日常监控、资源管理、故障处理,保障平台服务稳定高效运行; 3. 负责大数据Hadoop/Yarn/HBase/Hive/Flink/presto等大数据相关组件的底层运维与调优工作; 4. 紧跟大数据前沿状态,持续优化公司大数据服务。 任职要求: 1. 计算机、通信工程等相关专业,本科及以上学历2023年应届毕业生; 2. 对Hadoop大数据平台有浓厚兴趣,了解现有常用大数据架构,包含并不限于Hadoop/Yarn/Hbase/Hive/presto等; 3. 熟悉linux系统,至少熟悉一种脚本语言:Shell、Python 等
-
2023校招-大数据应用顾问-上海(J11012)
[上海·静安区] 2022-12-2715k-30k·14薪 经验在校/应届 / 本科数据服务|咨询 / D轮及以上 / 500-2000人工作职责: 我们希望你负责: 1. 纳入公司“启明星计划”人才发展体系,进行公司的大数据应用人才培养; 2. 学习和掌握数据治理、数据分析及营销技术相关能力,熟练掌握神策相关产品的应用落地; 3. 参与客户需求的沟通和梳理,并结合神策的产品和服务能力给出客户解决实际业务问题的解决方案; 4. 负责神策各类数据产品在客户业务场景当中的落地,通过神策产品能力为客户创造价值。 任职资格: 我们期望你具备: 1. 2023届优秀本科及以上毕业生,专业不限,理工科相关专业优先; 2. 热爱企业服务,希望通过自己的工作能够为企业客户创造价值; 3. 具有良好的学习能力、逻辑思维能力、沟通表达能力、协作能力、抗压能力; 4. 希望专业化的职业发展; 5. 有强烈的进取心和积极的心态。 温馨提示: 1.投递简历后请注意查看邮箱,笔试链接邮件有可能被归类到垃圾邮箱; 2.对于海外留学生,建议大家预留微信号,保证沟通及时畅通! 神策的HR小哥哥小姐姐们超用心,期待你的简历投递,期待与你相遇~ -
2023校招-大数据应用顾问-北京(J11011)
[北京·学院路] 2022-12-2715k-30k·14薪 经验在校/应届 / 本科数据服务|咨询 / D轮及以上 / 500-2000人工作职责: 我们希望你负责: 1. 纳入公司“启明星计划”人才发展体系,进行公司的大数据应用人才培养; 2. 学习和掌握数据治理、数据分析及营销技术相关能力,熟练掌握神策相关产品的应用落地; 3. 参与客户需求的沟通和梳理,并结合神策的产品和服务能力给出客户解决实际业务问题的解决方案; 4. 负责神策各类数据产品在客户业务场景当中的落地,通过神策产品能力为客户创造价值。 任职资格: 我们期望你具备: 1. 2023届优秀本科及以上毕业生,专业不限,理工科相关专业优先; 2. 热爱企业服务,希望通过自己的工作能够为企业客户创造价值; 3. 具有良好的学习能力、逻辑思维能力、沟通表达能力、协作能力、抗压能力; 4. 希望专业化的职业发展; 5. 有强烈的进取心和积极的心态。 温馨提示: 1.投递简历后请注意查看邮箱,笔试链接邮件有可能被归类到垃圾邮箱; 2.对于海外留学生,建议大家预留微信号,保证沟通及时畅通! 神策的HR小哥哥小姐姐们超用心,期待你的简历投递,期待与你相遇~ -
工作职责: IT互联网国企,七险二金(公积金按最高12%)、年终奖、绩效奖、餐补(660元)、生活补贴(800元)、话费补贴(300元)、千元过节费、年度体检、周末双休等福利! 1. 熟悉软件开发的工作流程、学习和掌握软件开发工具和开发技能; 2. 根据软件需求和软件设计,承担代码编写,测试文档编写工作。 任职资格: 1、本科及以上,软件工程、人工智能、通信工程、信息系统、信息安全、工业设计、计算机等相 关专; 2、对数据处理、数据建模、数据分析等有深刻认识和实战经验; 3、熟悉SQL语言,熟悉shell, python等脚本语言; 4、有hadoop、spark、flink等大数据平台的基础经验; 5、有数据仓库建设、商业数据分析、增长项目基础经验。 卓望数码,2000年成立的国有控股企业,拥有员工2300多名,研发人员超过50%。至今已有20年的发展历史,是中国移动的控股子公司,主要探索IT信息化、ICT、Internet领域的业务。业务覆盖全国30余个省市,在北京、广州、深圳、杭州、上海、南京、成都等地设有分公司或办事处,为客户提供完备的技术和运营支持。
-
2022校招-大数据分析与挖掘(J10191)
[深圳·前海] 2022-12-0622k-26k·15薪 经验在校/应届 / 硕士智能硬件,人工智能服务,物联网 / 上市公司 / 500-2000人工作职责: 1、参与数据分析与挖掘系统的需求分析,方案设计、系统研发和业务挖掘工作 2、参与图像大数据挖掘项目的开发 任职资格: 1、熟悉Java平台IO、多线程、网络等基础知识和相关框架 2、熟悉Linux基础知识和常用命令,能较强的分析和解决问题能力 3、熟悉HDFS、Hbase、Hive等大数据存储技术工具,原理和应用 4、熟悉Yarn/Mesos、MapReduce/Spark,Kylin等大数据分析技术的一种或多种 5、熟悉数据集成和大规模数据转换技术和工具,如Kettle,Sqoop,Flume等 6、熟悉数据采集工程(爬虫)工作原理,能编写和部署大规模爬虫系统 -
岗位要求: -重点本科以上学历,1-3年工作经验,校招不受限 -熟悉java/c++,java语言优先,有良好的算法和数据结构基础 -熟悉jvm和java应用调试技术,有java后端服务优化经验加分 -熟悉linux,有大型开源项目研究和应用加分 -使用过hadoop/spark相关大数据技术、有底层研究经验加分 -优秀的分析和解决问题能力,良好的团队协作精神,有责任心 加分项: -有大数据全栈经验(hive/hbase/kylin/kafka/storm) -了解cuda/cpu、tensorflow/caffe等 岗位职责: -负责hadoop/spark/hive/hbase等内核研发 -研究大数据相关前沿技术,包括机器学习和深度学习等 -负责大数据相关项目的软件分析、设计和开发工作 -负责底层应用架构调整和系统调优 公司地址: 北京海淀区科学院南路2号院3号楼 搜狐媒体大厦 如果你对我们的职位感兴趣,请尽快发简历到 alaleiwang @sohu-inc.com 我们会尽快安排面试!
-
大数据开发工程师 1.本科及以上学历,计算机、数学等相关专业;; 2.熟悉hadoop,hive,spark使用及调优; 3.熟悉Java,掌握PythonShell等脚本语言,熟悉Linux操作系统; 4.了解机器学习常用算法,具备自然语言处理、特征分析等方面知识及应用经验者优先; 5.有较强的逻辑思维能力,较强的抽象、总结概括能力、沟通协调能力和抗压能力,善于思考。 ———————————————— 【招聘对象】 2020年9月1日-2021年7月31日期间毕业的海内外高校应届生 【招聘岗位】 大数据开发工程师、数据挖掘分析师、Java 开发工程师、前端开发工程师、ETL工程师 工作地点:深圳、广州、北京、上海、大连、厦门、成都 【薪酬福利】 完善的薪酬体系:有竞争力的工资、年终奖 多样的福利保障:双休、带薪假期、六险一金、员工基金、年度体检、节日/纪念日礼物...... 清晰的发展路径:管理及多种专业职位序列发展路径 持续的培养计划:导师制、内部专家讲师团队、学习部落,保障学习成果转化 【招聘流程】 宣讲→网申→两轮面试→发放offer→签订三方协议→实习/报到 (线上线下同时进行) 【网申方式】 PC端:进入校招官网https://app.mokahr.com/campus_apply/datamargin,选择意向职位投递简历 手机端:微信查找并关注“索信达控股”微信公众号,路径【加入我们】-【校园招聘】,选择意向职位投递简历 关注索信达控股,了解最新招聘资讯、查询简历投递进度
-
工作职责 1. 负责大数据分析需求设计和开发,承担数据抽取、清洗、实时统计及离线数据处理等程序开发; 2. 开发数据统计系统,完成项目数据统计与分析任务,为业务运营提供数据支持服务; 3. 根据项目需求预研并引入新的大数据分析技术 任职要求 1、本科及以上学历,计算机、数学相关专业,5年以上相关工作经验; 2、精通Java或者scala、基础扎实,有良好的编码习惯; 3、精通主流的大数据开源框架(如Hadoop/Spark/Flink等),并有丰富的应用开发经验; 4、熟练使用kafka/elasticsearch/redis/mongodb/Hbase/druid/kylin等大数据组件; 5、熟练使用主流关系型数据库(如Oracle/Mysql/PostgresQL), 熟练掌握SQL语言; 6. 热爱开发,有较强的学习能力和快速解决问题的能力,具备较强的责任心和良好的沟通能力
-
工作职责: 1、负责集团基于大数据技术的数据平台开发、数仓建设、数据治理、数据统计分析等开发工作; 2、负责数据挖掘领域的分析研究,包括数据挖掘算法的分析研究,特定场景的数据挖掘模型的需求分析、建模及实验模拟工作; 3、研究前沿技术,了解项目需求,制定解决方案,解决实际应用场景中的业务问题,优化离线/实时大数据计算任务的性能。 任职资格: 1、本科及以上学历,计算机、软件技术、数据挖掘、统计学、应用数据等相关专业; 2、至少3年以上大数据开发/数据存储/数据平台/分析挖掘相关经验; 3、熟悉Linux操作系统,掌握Shell/Python/Perl至少一种脚本语言; 4、理解主流大数据处理架构和相关技术,会使用Hadoop、Spark等平台,Hive 、Impala 、Azkaban 、Kafka、Sqoop、 Flume、Zookeeper相关组件和开源系统; 5、熟悉SQL语言,包括MySQL、Oracle等关系型数据库;Redis 、MongoDB、HBase等NOSQL 数据库;了解数据仓库技术,能够使用常用的ETL工具; 6、熟悉Lucene、ElasticSearch等 检索技术; 7、具有优秀的口头和书面表达能力,思维活跃、关注和了解技术发展的最新动态,踏实肯干、有责任心,能适应高强度工作,沟通协作能力较好、学习能力强。
-
我司在招聘大数据工程师的同时也在招聘Java工程师 技能要求: Linux,网络安全,数据库开发 岗位职责: 1. 构建基于网络信息安全的大数据平台,支持数据采集、处理、分析、监控和可视化全过程。 2. 解决数据规模增长带来的技术、异地存储检索和复杂的业务问题。 3. 参与项目的需求分析和设计工作,并完成相关技术文档的编写。 4. 协助项目负责人解决项目中的技术难题; 任职要求: 1. 本科及以上学历,计算机相关专业,5年以上开发经验,2年及以上大数据从业经验。 2. 熟悉分布式编程,精通JAVA语言程序设计,具有良好的架构规划能力。 3. 熟悉Hadoop/Hive/Spark/Storm/Flink/Kafka/等技术,具备实际项目设计及开发经验。 4. 精通SQL,熟悉Mysql/Oracle处理机制及应用场景;熟悉NOSQL,如Redis、Hbase、MongoDB等 5. 有Druid、Clickhouse 或Kylin使用及性能优化经验者优先。 6. linux操作系统操作熟练,有能力进行复杂脚本(shell/PYTHON等)编程。 7. 工作态度端正,对技术充满热情具有钻研精神,有良好的问题分析和追踪能力,团队合作意识较好。 具有以下条件者优先考虑: 1)有Kubernetes/docker/Etcd 等容器技术使用者。 2)有网络信息安全从业经验者。
-
岗位职责: 1.支持Hadoop集群底座的运维故障分析、解决、性能优化;大数据集相关组件主要包括:Yarn、HDFS、ZooKeeper、Storm、Kafka、Hbase、Hive、Spark、Kerberos、Spark、Flink、Flume、MySQL等组件运维; 2.开发数据采集、清洗、分析、挖掘及可视化功能,需熟悉ES、milvus、pgsql等。 3.熟悉国产数据库,包括doris等; 4.配合开展HDFS存储、Hive元数据治理优化,建立并完善存储治理方案; 5.配合开展Hive、Spark作业优化,对业务侧提出优化建议。如:作业小文件问题、数据倾斜治理方案等; 6.提出集群优化建设方案,配合建设和优化大规模分布式集群的自动化运维、监控等工具和管理平台。 任职要求: 1.本科及以上学历,通信/计算机等相关专业,具有良好的学习能力、沟通能力、团队合作能力及一定的抗压能力; 2.熟悉Hadoop、Hive、Hbase、Spark等开源项目,理解组件架构及原理; 3.对大数据运维开发有浓厚兴趣,熟悉Apache Hadoop部署、性能调优; 4.能阅读/理解Hadoop等相关开源组件源码; 5.对HQL、SparkSQL等有较深入的研究,能解决实际业务性能问题; 6.熟练掌握LDAP、Kerberos等安全认证体系; 7.熟练掌握Linux命令与工具进行问题定位,熟悉常规的互联网技术架构; 8.具备一定的Java开发能力; 9.有信控平台开发经验者优先录取。


