• 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
  • 18k-35k·14薪 经验5-10年 / 本科
    生活服务,旅游|出行 / 上市公司 / 150-500人
    岗位职责 : 1、数据仓库和数据处理‌:负责大数据平台的数据仓库、数据治理和数据模型的设计与开发工作。进行日常数据报表开发,理解业务需求,发挥数据价值‌。 2‌、数据服务开发‌:负责离线和实时数据服务的设计、开发、性能调优和效果优化。构建和维护数据管道,处理ETL过程,确保数据质量和准确性‌。 3、技术研究和应用‌:参与相关项目的数据需求的实现,设计和编码工作。参与开发过程中相关技术的研究和验证‌。 ‌4、平台运维和质量管理‌:负责大数据平台的数据及相关的应用开发、调优及维护。完成日常数据质量的监控,参与大数据平台的日常运维工作‌。 5、针对数据一致性、准确性、及时性,制定数据管理与治理机制,提升数据易用性、可用性及稳定性; 任职要求 : 1、本科及以上学历,计算机相关专业,3-5年以上数据开发经验; 2、具备至少一个完整的大数据平台和BI系统实施经验,熟知平台建设各环节工作,包括数据采集、数据落地、仓库建设、数据平台搭建、数据应用产品开发 3、熟悉基于推荐系统的数据仓库建设方法论,有数仓模型设计及ETL开发经验;有数据仓库分层架构设定经验者优先; 4、熟悉Hadoop生态相关技术,如Hive、HDFS、Impala、Spark、Presto、Flink、Hudi、Elasticsearch、HBase、Druid、Kylin等,有基于分布式数据存储与计算平台应用开发经验,有较为系统的海量数据性能处理经验; 5、熟悉java、scala、python等语言,熟悉微服务,分布式架构,熟悉springcloud,springboot等技术开发; 6、熟悉数据仓库原理,有离线数仓、实时计算、数据挖掘、ETL、用户画像、数据可视化等设计与开发经验; 7、熟悉MySQL、PostgreSQL、NoSQL等数据库中至少一种数据中心建设方案,可以进行产品的独立部署、高可用架构和性能优化,熟悉开源社区解决方案; 8、熟悉阿里云大数据组件E-MapReduce、Dataworks、MaxCompute和国际AWS的EMR相关数据产品等,市场常见BI产品(superset、FineBI、神策数据)等相关组件者优先; 9、较强的学习能力和技术钻研能力、有自我驱动意识,对数据采集、数据治理、数据开发、数据分析、数据建模、算法等有深刻认识和实战经验。 期待您的加入哟,我们为您准备丰厚福利待遇: 【法定福利】:公司按国家规定购买五险一金+商业保险(员工本人及子女商业保险)+带薪年假; 【节日关怀】:节日福利礼品,以及节日礼金; 【公司福利】: 机场及高铁的贵宾服务(龙腾卡权益)+年度员工健康体检+平安360服务(在线问诊、VIP挂号及重疾紧急入院服务)+年度2次免费洁牙服务 公司提供咖啡、零食、下午茶 员工活动、旅游及团建,不定期举办聚餐、唱K、电竞赛、篮球赛、拓展、旅游、生日Party等 【学习与培训】:助力职业发展与提升,内外训双引擎发力助你高速发展 【晋升机会】:公司设立良好的晋升机制和广阔的发展空间。
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 15k-30k 经验不限 / 本科
    我司在招聘大数据工程师的同时也在招聘Java工程师 技能要求: Linux,网络安全,数据库开发 岗位职责: 1. 构建基于网络信息安全的大数据平台,支持数据采集、处理、分析、监控和可视化全过程。 2. 解决数据规模增长带来的技术、异地存储检索和复杂的业务问题。 3. 参与项目的需求分析和设计工作,并完成相关技术文档的编写。 4. 协助项目负责人解决项目中的技术难题; 任职要求: 1. 本科及以上学历,计算机相关专业,5年以上开发经验,2年及以上大数据从业经验。 2. 熟悉分布式编程,精通JAVA语言程序设计,具有良好的架构规划能力。 3. 熟悉Hadoop/Hive/Spark/Storm/Flink/Kafka/等技术,具备实际项目设计及开发经验。 4. 精通SQL,熟悉Mysql/Oracle处理机制及应用场景;熟悉NOSQL,如Redis、Hbase、MongoDB等 5. 有Druid、Clickhouse 或Kylin使用及性能优化经验者优先。 6. linux操作系统操作熟练,有能力进行复杂脚本(shell/PYTHON等)编程。 7. 工作态度端正,对技术充满热情具有钻研精神,有良好的问题分析和追踪能力,团队合作意识较好。 具有以下条件者优先考虑: 1)有Kubernetes/docker/Etcd 等容器技术使用者。 2)有网络信息安全从业经验者。
  • 13k-16k 经验3-5年 / 本科
    其他 / 未融资 / 15-50人
    岗位职责: 1.支持Hadoop集群底座的运维故障分析、解决、性能优化;大数据集相关组件主要包括:Yarn、HDFS、ZooKeeper、Storm、Kafka、Hbase、Hive、Spark、Kerberos、Spark、Flink、Flume、MySQL等组件运维; 2.开发数据采集、清洗、分析、挖掘及可视化功能,需熟悉ES、milvus、pgsql等。 3.熟悉国产数据库,包括doris等; 4.配合开展HDFS存储、Hive元数据治理优化,建立并完善存储治理方案; 5.配合开展Hive、Spark作业优化,对业务侧提出优化建议。如:作业小文件问题、数据倾斜治理方案等; 6.提出集群优化建设方案,配合建设和优化大规模分布式集群的自动化运维、监控等工具和管理平台。 任职要求: 1.本科及以上学历,通信/计算机等相关专业,具有良好的学习能力、沟通能力、团队合作能力及一定的抗压能力; 2.熟悉Hadoop、Hive、Hbase、Spark等开源项目,理解组件架构及原理; 3.对大数据运维开发有浓厚兴趣,熟悉Apache Hadoop部署、性能调优; 4.能阅读/理解Hadoop等相关开源组件源码; 5.对HQL、SparkSQL等有较深入的研究,能解决实际业务性能问题; 6.熟练掌握LDAP、Kerberos等安全认证体系; 7.熟练掌握Linux命令与工具进行问题定位,熟悉常规的互联网技术架构; 8.具备一定的Java开发能力; 9.有信控平台开发经验者优先录取。
  • 15k-25k·13薪 经验3-5年 / 本科
    硬件 / C轮 / 500-2000人
    工作职责: 1. 负责当贝业务数据资产的设计与研发,包括架构和内容设计,项目计划,开发测试部署等。构建行业标杆级的操作系统领域核心数据资产池; 2. 打造先进的大数据平台,包括实时数据流、数据仓库、调度系统、查询引擎,用户行为分析,abtest 实验系统等,降低数据的使用门槛,实现数据的最大价值; 3. 建设适合业务的大数据存储、计算等分布式系统,为海量数据和大规模业务系统提供可靠的基础设施。 任职资格: 1. 本科以上学历,3年以上工作经验 2. 有3年以上的大数据仓库构建和数据分析经验 3. 有很强的架构设计能力, 编码能力扎实,熟悉Java,SQL及常用工具 4. 熟悉主流分布式计算引擎,中间件,NoSQL数据库,如hadoop,hive,flink,kafka,hbase,redis等,并熟悉运行原理 5. 有Github等开源社区贡献者优先 6. 具备大规模分布式服务设计能力和经验优先
  • 25k-35k·14薪 经验3-5年 / 本科
    数据服务|咨询 / C轮 / 150-500人
    职责描述: 1. 负责分布式大数据平台架构建设、数据建模和数据应用后端开发。 2. 负责大数据相关组件OLAP引擎、实时计算,文件存储等相关研究和开发。 3. 负责大数据系统及组件的性能、效率、稳定性分析与优化。 任职要求: 1. 熟悉Hadoop/Kafka/Presto/Kudu等大数据技术和组件,有5-7年大数据组件的使用和二次开发经验。 2. 具备扎实的计算机基础,熟悉分布式系统开发,熟悉云原生技术。 3. 精通Java开发语言,具有良好的编程开发能力。 4. 对新技术敏感,有一定独立分析,技术研究能力,具有良好的团队合作精神。 5. 能够深刻理解业务,善于利用技术实现相关业务价值。 6. 具备一定云原生技术经验(kubernetes ,Docker)者优先
  • 20k-40k·14薪 经验3-5年 / 本科
    数据服务|咨询 / C轮 / 150-500人
    岗位职责: 1. 负责分布式大数据平台架构建设、数据建模和数据应用后端开发; 2. 负责大数据相关组件OLAP引擎、实时计算,文件存储等相关研究和开发; 3. 负责大数据系统及组件的性能、效率、稳定性分析与优化。 岗位要求: 1. 熟悉Hadoop/Kafka/Presto/Kudu等大数据技术和组件,有3年以上大数据组件的使用和二次开发经验; 2. 具备扎实的计算机基础,熟悉分布式系统开发,熟悉云原生技术; 3. 精通Java开发语言,具有良好的编程开发能力; 4. 对新技术敏感,有一定独立分析,技术研究能力,具有良好的团队合作精神; 5. 能够深刻理解业务,善于利用技术实现相关业务价值; 6. 具备一定云原生技术经验(kubernetes ,Docker)者优先。
  • 20k-35k 经验5-10年 / 本科
    企业服务,数据服务 / C轮 / 50-150人
    岗位职责: 1. 负责大数据采集、存储、计算、分析等场景的通用架构设计和开发; 2. 负责流式数据的实时传递、清洗、转换和计算(实时统计、分析等)的设计和开发; 3. 负责大数据相关框架/工具/中间件的设计和开发; 4. 负责以上各种架构平台及相关基础技术组件的稳定性保障及源码级的bug修复; 5. 负责大数据相关解决方案的设计文档撰写。 任职要求: 1. 本科以上学历,计算机相关专业; 2. 五年以上大数据平台相关开发及架构设计经验; 3. 深入使用Java,深入理解并熟练使用Java类库及框架,如多线程、并发处理、I/O与网络通讯; 4. 对Java虚拟机有较深了解,有运行态JVM分析及调优的实际经验; 5. 熟悉Linux系统,具备Shell、Python等脚本开发能力者优先; 6. 熟悉并使用过各种大数据相关框架或组件优先,如Kafka、Storm/JStorm、Hadoop/Spark、Hive、HBase、kylin、opentsdb、redis、flume等,具备源代码级问题解决和集群优化改造能力者优先; 7. 具备丰富的数据处理和数据仓库建模的项目实践经验者优先; 8. 具有良好的语言表达和文档撰写能力,学习能力强,喜欢研究开源新技术,有团队观念,具备独立解决问题的能力; 9. 有一年以上大数据团队带领经验优先。
  • 8k-12k 经验3-5年 / 本科
    移动互联网,医疗丨健康 / 上市公司 / 150-500人
    岗位职责: 1.参与数据中心建设数据存储方案制定。 2.参与数据中心数据存储能力评估。 3.负责数据中心环境维护与优化。 4.支撑数据开发人员快速完成开发工作。 个人能力: 1.有大数据存储、分析相关项目工作经验,承担核心工作。 2. 掌握与大数据处理相关的技术,包括但不限于Hadoop,Hbase,Hive等。 3. 掌握常用的的mpp数据库,包含但不限于Doris 与 ClickHouse等。 4. 掌握常用的关系形数据库,包含但不限于 sql server,oracle,mysql等。
  • 30k-60k 经验5-10年 / 本科
    内容社区,游戏 / B轮 / 150-500人
    岗位职责: 1.负责业务领域核心数据体系的规划设计,在数据化运营和数据能力产品化等方向上,制定数据技术和服务的策略; 2.规划设计数据服务工具,提升数据研发的工作效率,搭建数据服务的工具/产品,赋能业务同学和业务产品,灵活支撑业务的创新和探索,让数据价值更浸透; 3.负责数据质量、稳定性等数据管理,数据内部共享融通的数据平台,让数据标准更规范、数据获取更高效; 任职资格: 1. 本科及以上学历,5年以上大数据平台研发经验。 2. 具有扎实的编程功底,熟悉常用的算法和数据结构,精通Java/Python/Scala/Shell语言(至少两种),并具备丰富的实战经验。 3. 对大数据基础架构和平台有深刻理解和丰富编码经验,熟练使用Hadoop、Hive、Presto、Kafka、Flume、Spark、kudu、Redis等组件。 4. 熟悉并有过Flink开发经验加分。 5. 有PB级别大数据处理实战经验,包括数据的采集、清洗、预处理、存储、分析挖掘和数据可视化,以及架构设计、开发、部署和运维等工作。 6. 熟悉机器学习相关技术,可利用spark或相关组件设计机器学习的模型训练架构。 7. 熟悉算法使用并理解其原理者优先。 8 .具备创新精神,逻辑思维能力强者优先。
  • 25k-35k 经验5-10年 / 本科
    科技金融,金融业 / 不需要融资 / 150-500人
    岗位职责: 1、领导负责大数据技术团队建设及管理,并根据业务需求,制定大数据(包括数据存储,数据模型,数据应用架构)的整体技术栈、业务应用框架和系统架构技术路线; 2、参与规划从数据源到数据应用的整体流程,并参与相关产品的决策; 3、负责规划大数据产品的架构设计,包含数据集成、数据存储、数据应用,并完成相关架构设计文档的撰写; 4、负责系统功能模块分解,接口设计,技术文档规范,统筹技术全局,具备随时为各模块工作补位能力; 5、跟踪、研究和应用大数据相关前沿技术,持续对大数据应用系统进行性能优化、功能改善以及稳定性提升; 6、通过参与大数据相关的业务线全过程,提供技术决策。 任职条件: 1、本科以上学历,计算机类专业; 2、具有至少5年及以上大数据应用架构设计和开发经验; 3、熟悉整个大数据的完整处理流程,包括数据的采集、清洗、预处理、存储、分析挖据、机器学习和数据可视化; 4、熟悉Scala、Python、Scala等一门以上脚本语言,以及Redis/MySQL和Linux平台; 5、精通Hadoop生态系统(如HDFS HBase MapReduce Hive等),熟悉ElasticSearch、STORM、SPARK、FLINK等工作原理,具有丰富项目经验,开源社区贡献者优先; 6、思路清晰,具备良好的沟通能力和理解能力,较强的学习能力以及快速解决问题的能力; 7、具有大型企业跨业务线技术管理岗位任职经验者优先。
  • 30k-45k 经验10年以上 / 本科
    软件服务|咨询 / 天使轮 / 500-2000人
    1、负责公司大数据平台产品建设(包括可行性分析,需求调研、方案设计、技术实现、持续迭代等) 2、负责大数据相关项目的技术交付工作,解决软件项目开发、实施中遇到的各种问题 3、负责大数据系统架构,数据建模、清洗算法设计、数据维护 4.深入分析公司数据治理需求,规划数据治理框架和数据标准,设计数据治理的增值应用服务场景和实施路线,包含数据标准管理、主数据管理、元数据管理、数据质量管理、数据生命周期管理等领域的规划。 5、与公司各部门的沟通,团队协作和客户技术沟通。 任职要求: 1、本科或本科以上学历,计算机相关专业; 2、5年以上的数据开发经验;有数据系统架构设计经验优先 3、熟悉大数据相关存储和离线、实时计算技术,如:hadoop、hive、kudu、hbase、hdfs、spark、flink、sqoop、Oozie、kafka等; 4、具备大数据研发能力,熟悉至少一门大数据开发语言,如:java、scala、shell、python、sql等; 5、逻辑清晰,有工程师思维和较强的协作能力; 6、快速学习能力,较强自我驱动意识。 7、有数据架构、数据ETL、大数据技术栈优化、开源社区贡献、统计学经验者优先;
  • 18k-22k 经验不限 / 博士
    移动互联网 / 未融资 / 150-500人
    岗位职责: 1.主要研究信息安全及加密算法及框架,不限于区块链、时间戳相关技术,安全存储、通讯加密及解密,主要用于身份识别平台数据存储、传输等应用; 2.基于大数据的模型分析及应用,千万级以上数据的处理及分析,基于数据可视化、可视分析、人机交互、大数据分析等应用等场景; 3.数据异常/离群点检测(包括大数据采样、可视化分析等)、大数据预测分析、文本挖掘与分类、大规模图数据分析与挖掘、大规模多源多模态数据融合与分析、机器学习与算法、基于图像与视频大数据的场景理解与分析; 4.围绕数字政府、城市大脑、应急、环保、自然资源、住建等业务需求,开展大数据、人工智能、CIM、物联感知等方案设计开发,并且设计开发整体解决方案及相关的软件硬件产品。 任职要求: 1.在国内外已获得或即将获得博士学位者;已获得博士学位者,毕业不超过3年; 2.年龄不超过三十五岁; 3.品学兼优,身体健康; 4.具有较强的科研能力、进取精神和创新能力; 5.具有与研究项目相关的专业知识,并在本领域取得一定成绩。