• 15k-30k·13薪 经验1-3年 / 本科
    IT技术服务|咨询,专业服务|咨询,软件服务|咨询 / 未融资 / 2000人以上
    Solid and proficient skills in Java & Scala Experience using Git, Maven, Shell scripting, Python  Experience of SQL Server / Oracle /PostGes  Experience in Hadoop/HDFS/Hive/Spark  Software development experience and SDLC, Agile & DevOps,CI/CD
  • 40k-80k·16薪 经验5-10年 / 本科
    电商 / 不需要融资 / 150-500人
    大数据leader 工作职责: 1.构建从数据采集、数据接入、数据处理到数据统计和服务的完整数据解决方案,实现数据闭环,提升数据价值 2.搭建处理海量数据的大数据平台,能够持续优化并改进现有的技术框架,保证高可用、稳定、低延迟的优质服务体验 3.推动数据治理,规范化和标准化数据的开发、访问和使用 任职要求: 1.本科以上学历,5年以上大数据项目开发经验 2.熟悉大数据平台体系架构,精通离线(Hive,Spark)和实时(Flink,Spark Streaming)数据开发,熟悉Hadoop,Flume,Sqoop,Kafka,ES,Redis等大数据组件和技术 3.有搭建数据开发框架和性能调优经验,能够设计和构建业务复杂、高并发、大数据量的数据处理系统 4.有丰富的数据仓库设计和数据建模经验,有完整指标体系搭建经验的优先 5.有一定的数据治理经验,包括元数据管理,数据标准,数据安全,数据质量等 6.熟练掌握Java,有Scala或Python语言开发经验优先 7. 擅于沟通和解决问题,对于业务可以进行抽象总结,推动并优化业务发展 具备以下这些优先考虑: Hadoop、Spark、Hive、Flink、Kafka、数据中台、数据开发、数据治理、训练平台 数据仓库leader 岗位职责 1. 以数据为依托,结合业务场景,构建数据分析体系,洞察业务机会,驱动业务增长。 2. 负责用户流量方向数据技术体系建设,包括但不限于流量埋点、数据仓库建模、实时数仓开发、数据分析和应用、数据管理和运维。 3. 能够深入业务挖掘应用场景,数据化驱动用户增长、活动运营等,发挥数据的业务价值。 4. 建设学习型数仓团队,完善人才梯队建设,带动团队成长。 5. 关注数据领域的技术变革,积极推动数据技术更新迭代。 任职要求: 岗位基本需求 1. 熟练掌握数据仓库体系架构、数据建模方法、数据治理等知识,有流量方向工作经验者优先。 2. 对数据价值探索充满热情,业务理解和抽象能力佳,能快速分析和理解问题。 3. 拥有积极主动的业务服务工作意识,数据体系规划落地行动力佳。 4. 掌握大数据技术栈,包括Hadoop/Hive/Spark/OLAP引擎等,理工科本科以上学历,七年以上数据领域经验。 5. 思维逻辑清晰,强烈的自驱力和责任感,良好的沟通与协作能力,面对复杂业务问题,可以从业务和技术多角度推进,以终为始。
  • 15k-20k 经验3-5年 / 大专
    数据服务|咨询 / 未融资 / 50-150人
    大数据开发工程师(数据中台)(JAVA方向) 岗位职责: 1、参加大数据分析平台的设计与开发,解决海量数据面临的挑战;  2、负责在大数据平台源数据层基础上,基于模型运用大数据技术,进行数据清洗、计算,提供稳定可靠的数据。 岗位要求: '1、熟悉Hadoop/Kafka/Hdfs/Hbase/Kudu/Hive/Spark/Impala/Flink等大数据技术以及数据挖掘策略与算法;  2、熟练使用python进行复杂业务逻辑的数据处理工作,具备海量数据处理以及性能优化的能力;  3、熟练使用MySQL、Redis、HBase;   4、思路清晰,具备良好的沟通能力和理解能力,较强的学习能力以及快速解决问题的能力;  5、计算机相关专业,3年以上大数据开发相关经验。
  • 金融 / 不需要融资 / 2000人以上
    工作职责: 1、负责数据模型需求和数据应用需求的调研分析,进行数据模型和数据应用的设计、开发、测试、上线等工作; 2、负责建立规范化、稳定可靠的数据体系; 3、负责大数据生命周期管理系统的架构评估和设计 4、负责大数据平台日常监控与维护。 任职资格: 1、本科以上学历,5年以上大数据相关工作经验; 2、拥有基于大数据平台的数据应用和数据仓库设计实施经历,具有优秀的业务分析和洞察能力以及丰富的业务数据应用经验; 3、熟悉Hadoop体系结构、对Hadoop生态系统有较全面了解,熟悉Spark、Hive、Impala、Flink、HDFS、YARN、Kafka等,熟悉部分框架底层源码者优先; 4、精通SQL,能够快速使用SQL实现业务逻辑,熟悉数据库系统,包括Oracle、MySQL、Elasticsearch、HBase等。
  • 金融 / 不需要融资 / 2000人以上
    工作职责: 1、负责数据模型需求和数据应用需求的调研分析,进行数据模型和数据应用的设计、开发、测试、上线等工作; 2、负责建立规范化、稳定可靠的数据体系; 3、负责大数据生命周期管理系统的架构评估和设计 4、负责大数据平台日常监控与维护。 任职资格: 1、本科以上学历,5年以上大数据相关工作经验; 2、拥有基于大数据平台的数据应用和数据仓库设计实施经历,具有优秀的业务分析和洞察能力以及丰富的业务数据应用经验; 3、熟悉Hadoop体系结构、对Hadoop生态系统有较全面了解,熟悉Spark、Hive、Impala、Flink、HDFS、YARN、Kafka等,熟悉部分框架底层源码者优先; 4、精通SQL,能够快速使用SQL实现业务逻辑,熟悉数据库系统,包括Oracle、MySQL、Elasticsearch、HBase等。
  • 14k-25k·15薪 经验3-5年 / 本科
    IT技术服务|咨询 / 不需要融资 / 50-150人
    【2002年成立,运营商软件厂商,有自己的产品,非外包岗位,专业从事DNS相关领域、网络安全领域、大数据领域软件产品和服务的高新技术企业】 岗位职责: 1、负责公司大数据相关项目研发工作;(数据量非常大,集群PB级别,日增数据几十T,业务需要熟练使用spark) 2、参与系统架构设计、数据库设计等架构工作; 3、完成团队安排的其他任务。 任职要求: 1、**本科及以上学历<学信网可查>,计算机相关专业,2年左右工作经验;【学历或经验丰富者薪资、经验不受限,可谈】 2、掌握Hadoop、Hbase、Spark、Spark Streaming(精通)、Spark SQL、Sparkcore、Scala等大数据相关知识,熟练使用spark相关组件;有分布式应用软件(hadoop/kafka/redis等)经验; 3、熟练使用svn、git等版本控制工具,熟练使用maven等项目管理工具; 4、深入理解面向对象编程思想,具备扎实的Java编程基础,良好的编码习惯; 5、良好沟通能力和团队协作能力,具有较强的工作责任心,快速学习能力,乐观积极进取。 6、学历或技术方面特别优秀者,薪资、工作年限可议。 【五险一金、13薪+额外年终奖(最高可达16薪)、额外补贴、带薪年假】 上班时间:早9:00-晚6:00,周末双休 公司地址:北京市海淀区静芯园L座楼南三层301室
  • 20k-35k 经验3-5年 / 本科
    金融,数据服务 / 不需要融资 / 2000人以上
    Justification for why this resource is needed. Please include: 1. Big data developer for Java + spark + Hive. 2. To support the insight project for Malaysia and Singapore, ETL jobs, regulatory report and management information report automation. Job description 1.To develop the java/scala/python + spark program to support the Big data project. 2.To support the RegInsight Project 3.To perform fine tuning for programs running on spark platform. 4.To pass all test including unit test, SIT, UAT and PAT for the project. 5.To support the project rollout and its go live. 6.To support the BAU work for RegInsight.
  • 30k-60k 经验3-5年 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动数据中台元数仓建设与分析工作,为数据治理,企业安全,成本优化等输出重要业务价值‘ 2、与中台产研团队紧密配合,可以在日常的使用中总结提炼产品能力并反馈给产研团队,帮助数据中台产品能力和体验不断提升。 职位要求: 1、熟悉数据仓库实施方法论,深入了解数据仓库体系,并支撑过实际业务场景; 2、熟练使用Hadoop及Hive,熟悉SQL,Python和Java等语言; 3、善于沟通,并能结合业务背景注定发掘到可输出的数据价值,具备优秀的技术与业务结合能力; 4、有良好产品sense的同学加分。
  • 30k-60k 经验不限 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动各个业务的数据仓库架构设计、建模和ETL开发 2、参与数据治理工作,提升数据易用性及数据质量,与数据工具团队紧密合作 3、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作 4、总结抽象适用于业务的科学的数据研究方法论,并推进方法论在业务场景的实践 职位要求: 1、精通数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景 2、具备较强的编码能力,熟悉sql,python,hive,spark,kafka,flink中的多项,有至少TB以上级大数据处理经验 3、熟练掌握批计算相关技术栈,了解流计算相关技术,有HTAP/HSAP相关实践经验优先 4、善于沟通,具备优秀的技术与业务结合能力 5、有较好的业务和数据sense
  • 30k-60k 经验不限 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动各个业务的数据仓库架构设计、建模和ETL开发; 2、参与数据治理工作,提升数据易用性及数据质量,与数据工具团队紧密合作; 3、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 4、总结抽象适用于业务的科学的数据研究方法论,并推进方法论在业务场景的实践。 职位要求: 1、精通数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、具备较强的编码能力,熟悉sql,python,hive,spark,kafka,flink中的多项,有至少TB以上级大数据处理经验; 3、熟练掌握批计算相关技术栈,了解流计算相关技术,有HTAP/HSAP相关实践经验优先; 4、善于沟通,具备优秀的技术与业务结合能力; 5、有较好的业务和数据sense。
  • 25k-50k 经验不限 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、打造领先的数据智能平台,通过在线数据分析、实时数据流、数据仓库等方式整理用户数据,建设用户分析、智能运营等场景化数据智能解决方案; 2、打造业界领先的存储、计算等分布式系统,为海量数据和大规模业务系统提供可靠的基础设施。 职位要求: 1、熟悉多项大数据领域的开源框架,比如:Hadoop, Hive, Presto, Storm, Spark, Kafka, HBase, Redis, RocksDB, ElasticSearch, Druid, etc.; 2、强悍的编码和 troubleshooting 能力; 3、乐于挑战没有明显答案的问题,对新技术有强烈的学习热情。
  • 30k-60k 经验3-5年 / 本科
    文娱丨内容 / D轮及以上 / 2000人以上
    职位职责:团队介绍:基础架构 Observerability Infrastructure 可观测性基础设施团队 负责 (1) 自研海量时序数据库、调用链路、日志系统 (2) 一站式可观测性平台包括自定义大盘、智能报警和智能监控产品、归因自愈、链路排障分析.由此推动线上稳定性保障、故障诊断、容量管理和服务治理等能力构建。1、负责面向日志服务的大数据平台 建设 & 设计;2、为大数据日志场景 的全生命周期提供服务,覆盖数据产生,传输,建模,存储,统计分析,可视化,离线消费的全流程;3、打造下一代时序索引存储引擎。职位要求:1、熟悉Linux系统、常用Linux命令,熟练掌握Java/Go/Python/cpp 任意一种语言; 有强悍的编码能力,生产环境快速 trouble-shooting能力,对新技术有强烈的学习热情;2、熟悉Mysql或至少一种关系型数据库,具有一定SQL书写功底、优化经验;3、熟悉batch/实时计算领域包括hadoop、spark、flink等分布式框架优先; 4、熟悉至少一项大数据处理/分析相关的工具/框架,e.g. Hadoop, Mapreduce, Hive, Storm, Spark, kylin,scribe, kafka, hbase, canal,sqoop etc;5、对于索引服务 Elasticsearch & Lucene & Solr 二次开发&应用 &调优 加分; 6、参与过业界先进的监控系统(比如 CAT, Apache SkyWalking) 或者擅长 故障分析和排查解决问题优先;7、熟悉Servicemesh /Istio/Envoy 部署 & 开发 优先考虑;8、参与过业界先进的监控系统,或者擅长故障分析和排查解决问题优先。
  • 文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动产品的数据处理,在分布式计算平台基础上建立高效、实时的数据 pipeline; 2、负责推荐系统、广告系统的数据分析,发现模式与规律,为实验解释、系统改进提供数据支持; 3、负责 Hadoop,Spark 等大数据基础设施和平台的改进,解决大规模生产环境集群可用性和性能优化问题。 职位要求: 1、本科及以上学历,计算机相关专业; 2、热爱计算机科学和互联网技术,优秀的编码能力,乐于快速学习和尝试新技术、新工具; 3、对数据敏感,掌握量化分析方法,善于从数据中发现问题,提出假设并使用数据进行验证; 4、对至少一项分布式计算平台有使用经验,例如 Hadoop,Spark,Hive,Storm,Kafka 等; 5、有参与开源项目对社区有贡献的经历,有互联网公司实习经历,有大数据处理经验者优先。
  • 15k-25k·15薪 经验1-3年 / 本科
    IT技术服务|咨询 / 不需要融资 / 50-150人
    岗位职责: 负责公司大数据相关项目研发工作; 任职要求:(数据量非常大,集群PB级别,日增数据几十T,业务需要熟练使用spark) 1、**本科及以上学历,计算机相关专业,3年左右工作经验; 2、掌握hadoop、hbase、spark、MR等大数据相关知识,熟练使用spark相关组件; 3、熟练使用svn、git等版本控制工具,熟练使用maven等项目管理工具; 4、深入理解面向对象编程思想,具备扎实的Java编程基础,良好的编码习惯; 5、良好沟通能力和团队协作能力,具有较强的工作责任心,快速学习能力,乐观积极进取。
  • 30k-50k 经验不限 / 本科
    区块链 / 上市公司 / 2000人以上
    大数据开发工程师(浏览器  岗位职责:  1、制定数据仓库设计与开发规范,推动落地;  2、设计并实现链上全域业务(地址信息,defi业务信息,标签)的数据仓库模型;  3、重点建设链上标签体系和特征工程;  4、数据治理相关的规划和建设,提高数仓数据质量;  5、与合作部门共同建设实时数仓和落地应用;  6、日常告警监控运维。  任职要求:  1、大学本科及以上学历,计算机、软件、信息等相关专业;  2、相对丰富的数据开发或数据仓库经验;  3、精通Hive Sql;  4、熟悉数据仓库建模、ETL过程、ETL和BI工具、技术和开发流程,一定的调优经验;  5、熟悉常用的shell命令,掌握java语言,能够开发udf/udtf等简单程序者优先;  6、熟悉阿里云大数据产品MaxCompute、DataWorks、Flink等经验优先;  7、熟悉AWS大数据产品经验优先;  8,了解机器学习(决策树、随机森林、聚类、逻辑回归)者优先