• 30k-50k 经验不限 / 本科
    区块链 / 上市公司 / 2000人以上
    大数据开发工程师(浏览器  岗位职责:  1、制定数据仓库设计与开发规范,推动落地;  2、设计并实现链上全域业务(地址信息,defi业务信息,标签)的数据仓库模型;  3、重点建设链上标签体系和特征工程;  4、数据治理相关的规划和建设,提高数仓数据质量;  5、与合作部门共同建设实时数仓和落地应用;  6、日常告警监控运维。  任职要求:  1、大学本科及以上学历,计算机、软件、信息等相关专业;  2、相对丰富的数据开发或数据仓库经验;  3、精通Hive Sql;  4、熟悉数据仓库建模、ETL过程、ETL和BI工具、技术和开发流程,一定的调优经验;  5、熟悉常用的shell命令,掌握java语言,能够开发udf/udtf等简单程序者优先;  6、熟悉阿里云大数据产品MaxCompute、DataWorks、Flink等经验优先;  7、熟悉AWS大数据产品经验优先;  8,了解机器学习(决策树、随机森林、聚类、逻辑回归)者优先
  • 18k-30k 经验在校/应届 / 本科
    工具 / 上市公司 / 500-2000人
    岗位职责 1、负责技术方案和架构设计,包含技术架构和数据架构; 2、负责大数据平台开发过程中的技术攻关和关键设计。 岗位要求 1、有分布式大数据平台开发项目经验; 2、有Hadoop、Spark等平台的海量数据处理经验; 3、熟练掌握Hadoop、hive、Spark、Flink、Hbase、Impala、Druid、clickhouse、ElasticSearch、Kylin技术栈中一种及以上; 4、熟练掌握数据架构设计、数据库设计及数据建模; 5、对大数据技术和大数据演进有深刻认识; 6、具备开发、部署、调优Hadoop生态环境项目经验; 7、熟练掌握java语言,熟悉python、scala、go、rust更佳。
  • 15k-30k·20薪 经验在校/应届 / 本科
    区块链 / 上市公司 / 2000人以上
    岗位职责 1. 负责区块链Defi模块的开发(链上交易/合约/defi数据解析/了解区块链核心/负责链上大数据传输服务/web3服务开发); 2. 配合产品,能力很好的理解产品需求,协助Leader完成模块业务设计; 3. 能够按照公司项目研发规范进行完成功能的优化和研发工作; 4. 配合Leader对各种复杂场景下技术方案设计和技术难点攻关; 5,能够主动调研学习区块链知识; 岗位要求 1、2023届**本科及以上学历,计算机科学与技术、软件工程或相关专业方向; 2、熟悉Java,有扎实的计算机基础,对数据结构.算法基础有深入理解,有ACM等竞赛经验者优先; 3、熟悉面向对象的设计思想,了解软件开发流程,有实际项目经验或互联网公司实习经历者优先; 4、对技术充满热情,有较强的责任心和抗压能力,愿意接受区块链技术开发/TB级别大数据处理开发 过程中面临的各种挑战; 5、有较强的学习能力,有强烈的进取心和责任心,能快速掌握最前沿的技术,有良好的沟通能力和团队协作精神。 6、有学习过或者选修过区块链课题的同学优先!!!
  • 30k-50k 经验5-10年 / 本科
    移动互联网,企业服务 / 不需要融资 / 500-2000人
    岗位职责: 1. 负责复杂业务场景下数据体系构建,赋能业务数字化运营,保障数据的质量和数据生产的稳定性; 2. 负责基于大数据技术平台基础上的数据仓库建设,包括数据模型设计、离线/实时计算、性能优化以及相关技术问题的解决; 3. 负责数据质量、稳定性、数据资产管理等数据治理工作,构建全链路数据质量监控治理体系; 4. 参与数据产品的需求沟通、架构设计、数据开发以及系统优化。 任职要求: 1. 扎实的代码编程能力,具备良好的数据结构基础,熟悉常见设计模式,熟练使用Java/Scala/Python等至少一种语言; 2. 熟练掌握Hadoop生态,包括但不限于Hive/Spark/Flink等一种或几种大数据计算框架; 3. 熟悉数仓原理和实施,有实时数仓、离线数仓设计与开发经验; 4. 熟悉SpringCloud,SpringBoot等常用的开源框架优先 5. 熟悉OLAP平台建设或有过经验、熟悉业务指标设计且熟练掌握OLAP的维度建模设计方法优先 6. 熟悉常见数据挖掘、用户画像、搜索推荐、知识图谱、自然语言理解等相关算法及模型优先
  • 11k-17k 经验在校/应届 / 本科
    游戏,工具类产品 / 不需要融资 / 500-2000人
    职位描述 负责大数据平台和统计后台相关的开发与维护及各业务团队的数据分析工作 岗位要求 1、2023届**本科及以上学历,计算机、统计、数学等相关专业 2、熟悉掌握Hive/SQL,熟悉Hadoop,spark分布式框架,熟悉大数据的离线和实时处理,可以进行海量数据模型的设计,开发,分析 3、熟悉Python,java等任一种编程语言,有回归算法相关知识可优先 4、代码风格良好,数据结构和理论基础扎实 5、善于学习和总结,沟通能力强,有积极进取精神和团队协作精神
  • 金融 / 不需要融资 / 2000人以上
    工作职责: 1、负责数据模型需求和数据应用需求的调研分析,进行数据模型和数据应用的设计、开发、测试、上线等工作; 2、负责建立规范化、稳定可靠的数据体系; 3、负责大数据生命周期管理系统的架构评估和设计 4、负责大数据平台日常监控与维护。 任职资格: 1、本科以上学历,5年以上大数据相关工作经验; 2、拥有基于大数据平台的数据应用和数据仓库设计实施经历,具有优秀的业务分析和洞察能力以及丰富的业务数据应用经验; 3、熟悉Hadoop体系结构、对Hadoop生态系统有较全面了解,熟悉Spark、Hive、Impala、Flink、HDFS、YARN、Kafka等,熟悉部分框架底层源码者优先; 4、精通SQL,能够快速使用SQL实现业务逻辑,熟悉数据库系统,包括Oracle、MySQL、Elasticsearch、HBase等。
  • 金融 / 不需要融资 / 2000人以上
    工作职责: 1、负责数据模型需求和数据应用需求的调研分析,进行数据模型和数据应用的设计、开发、测试、上线等工作; 2、负责建立规范化、稳定可靠的数据体系; 3、负责大数据生命周期管理系统的架构评估和设计 4、负责大数据平台日常监控与维护。 任职资格: 1、本科以上学历,5年以上大数据相关工作经验; 2、拥有基于大数据平台的数据应用和数据仓库设计实施经历,具有优秀的业务分析和洞察能力以及丰富的业务数据应用经验; 3、熟悉Hadoop体系结构、对Hadoop生态系统有较全面了解,熟悉Spark、Hive、Impala、Flink、HDFS、YARN、Kafka等,熟悉部分框架底层源码者优先; 4、精通SQL,能够快速使用SQL实现业务逻辑,熟悉数据库系统,包括Oracle、MySQL、Elasticsearch、HBase等。
  • 15k-20k 经验3-5年 / 大专
    数据服务|咨询 / 未融资 / 50-150人
    大数据开发工程师(数据中台)(JAVA方向) 岗位职责: 1、参加大数据分析平台的设计与开发,解决海量数据面临的挑战;  2、负责在大数据平台源数据层基础上,基于模型运用大数据技术,进行数据清洗、计算,提供稳定可靠的数据。 岗位要求: '1、熟悉Hadoop/Kafka/Hdfs/Hbase/Kudu/Hive/Spark/Impala/Flink等大数据技术以及数据挖掘策略与算法;  2、熟练使用python进行复杂业务逻辑的数据处理工作,具备海量数据处理以及性能优化的能力;  3、熟练使用MySQL、Redis、HBase;   4、思路清晰,具备良好的沟通能力和理解能力,较强的学习能力以及快速解决问题的能力;  5、计算机相关专业,3年以上大数据开发相关经验。
  • 数据服务|咨询 / 未融资 / 50-150人
    岗位职责: 1、负责海量数据离线、实时处理系统的开发建设;  2. 负责大数据平台资源规划、权限控制、运维架构设计,为各产品业务提供稳定、高效、安全的运行环境;  3. 负责大数据数据底层技术研究及开发,技术能力输出、技术引导、技术风险识别;  4. 负责大数据平台建设工作,实践平台战略,包括:平台建设、数据架构实施、数据开发等;  5. 跟踪大数据前沿技术和产品,与业界先进技术保持同步;  6. 跨团队项目协调。 任职要求: 1.大专及以上学历,计算机相关专业,3年及以上大数据架构工作经验,参与实施过1个以上大数据平台项目;  2. 熟练使用Flink,并且对Flink的底层原理有很深的理解,包括Runtime、SQL&Connectors、State、CK等,有结合 Iceberg 应用优先;  3. 熟悉大数据领域生态,如:Spark、Hive、HDFS、ClickHouse、Kylin、ES、Presto、Iceberg;  4. 熟练使用java、python、scala等编程语言,熟练操作linux系统,具备上述工具在linux下的部署实施经验;  5. 具有良好文档编写能力,能输出标准、准确的手册供部门实施人员参考;  6. 良好的团队协作与沟通能力。 备注:有基于CDH平台研发背景者优先
  • 18k-25k·13薪 经验3-5年 / 本科
    IT技术服务|咨询 / 不需要融资 / 2000人以上
    此岗位长期稳定驻场至北京百度ACG AI项目组,介意外包性质和工作地点勿投,谢谢~ 【工作地点】电通创意广场&百度科技园 都会涉及 【工作时间】10:00-19:00 周末双休,弹性工作制 【工作职责】 1、负责百度AI开放平台Web前端研发工作 2、与设计师、产品紧密配合,保证产品具有优质的用户体验与良好的兼容性 【任职要求】 1、4年及以上大型互联网级项目开发经验。 2、熟悉大数据技术栈(Hadoop/Hive/Spark/MapReduce/Kafka/Flink/MongoDB)相关技术,有运维开发经验优先。 3、熟悉Java开发,熟悉数据仓库建模和ETL组件使用,熟悉Linux平台的基础操作。 4、熟悉主流微服务开发框架(springboot、springcloud)、数据库(mysql等)。 5、熟悉容器化技术Docker、Kubernetes,有运维开发经验优先。 6、具有良好的分析问题和解决问题能力,勇于面对挑战性问题。 7、责任心强,具备良好的沟通技能,团队合作能力和承受压力的能力。 8、熟练使用百度产品者加分。
  • 15k-25k·16薪 经验在校/应届 / 本科
    电商平台 / B轮 / 2000人以上
    岗位职责: 1、负责数据仓库与业务需求口径对接和确认工作; 2、参与数据仓库的模型结构设计、负责ETL mapping逻辑映射及开发,管理元数据; 3、负责海量空间数据的清洗、处理工作; 4、参与维护大数据、数仓维护,并能快速高效解决遇到的问题, 保障数仓平台正常稳定运行; 5、完成上级交办的其他工作。 任职要求: 1、2023年应届毕业生,本科及以上学历,计算机、通信、统计学等相关专业优先; 2、熟悉掌握MySQL, hadoop、hive、hbase、MapReduce、Flink、Kafaka、Kylin等大数据相关技术; 3、熟悉数仓维度建模; 4、精通各类SQL,熟悉性能调优。 5、熟悉Python编程,掌握Java/Scala其中至少一种,能够编写脚本解决日常问题; 6、熟悉阿里云dataworks优先。
  • 40k-80k·16薪 经验5-10年 / 本科
    电商 / 不需要融资 / 150-500人
    大数据leader 工作职责: 1.构建从数据采集、数据接入、数据处理到数据统计和服务的完整数据解决方案,实现数据闭环,提升数据价值 2.搭建处理海量数据的大数据平台,能够持续优化并改进现有的技术框架,保证高可用、稳定、低延迟的优质服务体验 3.推动数据治理,规范化和标准化数据的开发、访问和使用 任职要求: 1.本科以上学历,5年以上大数据项目开发经验 2.熟悉大数据平台体系架构,精通离线(Hive,Spark)和实时(Flink,Spark Streaming)数据开发,熟悉Hadoop,Flume,Sqoop,Kafka,ES,Redis等大数据组件和技术 3.有搭建数据开发框架和性能调优经验,能够设计和构建业务复杂、高并发、大数据量的数据处理系统 4.有丰富的数据仓库设计和数据建模经验,有完整指标体系搭建经验的优先 5.有一定的数据治理经验,包括元数据管理,数据标准,数据安全,数据质量等 6.熟练掌握Java,有Scala或Python语言开发经验优先 7. 擅于沟通和解决问题,对于业务可以进行抽象总结,推动并优化业务发展 具备以下这些优先考虑: Hadoop、Spark、Hive、Flink、Kafka、数据中台、数据开发、数据治理、训练平台 数据仓库leader 岗位职责 1. 以数据为依托,结合业务场景,构建数据分析体系,洞察业务机会,驱动业务增长。 2. 负责用户流量方向数据技术体系建设,包括但不限于流量埋点、数据仓库建模、实时数仓开发、数据分析和应用、数据管理和运维。 3. 能够深入业务挖掘应用场景,数据化驱动用户增长、活动运营等,发挥数据的业务价值。 4. 建设学习型数仓团队,完善人才梯队建设,带动团队成长。 5. 关注数据领域的技术变革,积极推动数据技术更新迭代。 任职要求: 岗位基本需求 1. 熟练掌握数据仓库体系架构、数据建模方法、数据治理等知识,有流量方向工作经验者优先。 2. 对数据价值探索充满热情,业务理解和抽象能力佳,能快速分析和理解问题。 3. 拥有积极主动的业务服务工作意识,数据体系规划落地行动力佳。 4. 掌握大数据技术栈,包括Hadoop/Hive/Spark/OLAP引擎等,理工科本科以上学历,七年以上数据领域经验。 5. 思维逻辑清晰,强烈的自驱力和责任感,良好的沟通与协作能力,面对复杂业务问题,可以从业务和技术多角度推进,以终为始。
  • 20k-40k 经验不限 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、 负责电商业务的离线与实时数据仓库的构建; 2、负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3、负责指标体系建设与维护; 4、深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 5、参与大数据应用规划,为数据产品、挖掘团队提供应用指导; 6、参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1、熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
  • 文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、负责大数据研发和治理平台的智能化能力建设; 2、负责大数据平台的元数据仓库的开发与运维工作; 3、探索并实现数据中台的增强型数据管理能力,包括Data Warehouse Automation、Augmented Data Quality、Augmented Data Catalog等; 4、探索大数据智能运维、自动调参、智能权限审批、数据智能异常检测、数据检索与推荐等能力,并应用到数据中台; 5、负责数据中台数据及算法相关的项目及团队管理工作。 职位要求: 1、具备扎实的编码能力和数据结构、算法能力; 2、具备梳理统计基础,熟悉聚类、回归、机器学习、深度学习算法,有机器学习、深度学习工具(Scikit-learn、XGBoost、Tensorflow等)使用经验; 3、熟悉数仓建设及常用数据模型理论,了解大数据理论支持,熟悉Hive、Spark、Flink、HDFS、Hadoop等大数据组件; 4、具备项目、团队管理经验。
  • 20k-30k 经验5-10年 / 本科
    金融 / A轮 / 150-500人
    职责描述: 1、负责组织并参与实时大数据平台和数据中台建设,承担相关大数据平台搭建、研发、架构设计、业务应用等工作; 2、负责设计基于Flink的大数据流式处理框架,构建流批一体的分析引擎和特征生产平台; 3、与数据分析全团队密切合作,设计和实现基于Flink的数据分析平台; 4、负责数据中台的应用包含数据挖掘、数据入湖、数据建模和数仓结构设计、以及数据应用及运维体系建设,保证数据中台的通用性,高稳定性及可靠性; 5、探索大数据分析前沿技术,提供基于数据驱动的分析服务能力。 任职要求: 1、熟练掌握数据库开发,熟悉hadoop及各种大数据流式计算框架,熟悉hive、spark、flink、oracle、kafka,有流式数据处理项目经历; 2、熟练应用java等语言,能够使用spring相关的技术体系(spring mvc、spring boot、spring cloud)框架开发业务应用,能够使用并理解kafka、redis等技术中间件原理; 3、理解数据开发、数据类指标建设的方法论,有过数据类应用系统研发、建设背景的优先; 4、了解微服务、领域驱动设计、事件驱动、DevOps等研发理念; 5、能够熟练使用各种调试、跟踪等分析、开发工具,具备独立解决问题的能力; 6、具备良好的沟通能力、执行能力和团队协作能力,有问题、目标导向的工作理念; 7、对容器技术有应用经验,了解docker、k8s等方面的知识优先 。 8、工作认真踏实、靠谱,思维开放、对技术、业务有好奇心,学习能力强,能够有产品思维、关注用户体验。