• 18k-35k·14薪 经验5-10年 / 本科
    生活服务,旅游|出行 / 上市公司 / 150-500人
    岗位职责 : 1、数据仓库和数据处理‌:负责大数据平台的数据仓库、数据治理和数据模型的设计与开发工作。进行日常数据报表开发,理解业务需求,发挥数据价值‌。 2‌、数据服务开发‌:负责离线和实时数据服务的设计、开发、性能调优和效果优化。构建和维护数据管道,处理ETL过程,确保数据质量和准确性‌。 3、技术研究和应用‌:参与相关项目的数据需求的实现,设计和编码工作。参与开发过程中相关技术的研究和验证‌。 ‌4、平台运维和质量管理‌:负责大数据平台的数据及相关的应用开发、调优及维护。完成日常数据质量的监控,参与大数据平台的日常运维工作‌。 5、针对数据一致性、准确性、及时性,制定数据管理与治理机制,提升数据易用性、可用性及稳定性; 任职要求 : 1、本科及以上学历,计算机相关专业,3-5年以上数据开发经验; 2、具备至少一个完整的大数据平台和BI系统实施经验,熟知平台建设各环节工作,包括数据采集、数据落地、仓库建设、数据平台搭建、数据应用产品开发 3、熟悉基于推荐系统的数据仓库建设方法论,有数仓模型设计及ETL开发经验;有数据仓库分层架构设定经验者优先; 4、熟悉Hadoop生态相关技术,如Hive、HDFS、Impala、Spark、Presto、Flink、Hudi、Elasticsearch、HBase、Druid、Kylin等,有基于分布式数据存储与计算平台应用开发经验,有较为系统的海量数据性能处理经验; 5、熟悉java、scala、python等语言,熟悉微服务,分布式架构,熟悉springcloud,springboot等技术开发; 6、熟悉数据仓库原理,有离线数仓、实时计算、数据挖掘、ETL、用户画像、数据可视化等设计与开发经验; 7、熟悉MySQL、PostgreSQL、NoSQL等数据库中至少一种数据中心建设方案,可以进行产品的独立部署、高可用架构和性能优化,熟悉开源社区解决方案; 8、熟悉阿里云大数据组件E-MapReduce、Dataworks、MaxCompute和国际AWS的EMR相关数据产品等,市场常见BI产品(superset、FineBI、神策数据)等相关组件者优先; 9、较强的学习能力和技术钻研能力、有自我驱动意识,对数据采集、数据治理、数据开发、数据分析、数据建模、算法等有深刻认识和实战经验。 期待您的加入哟,我们为您准备丰厚福利待遇: 【法定福利】:公司按国家规定购买五险一金+商业保险(员工本人及子女商业保险)+带薪年假; 【节日关怀】:节日福利礼品,以及节日礼金; 【公司福利】: 机场及高铁的贵宾服务(龙腾卡权益)+年度员工健康体检+平安360服务(在线问诊、VIP挂号及重疾紧急入院服务)+年度2次免费洁牙服务 公司提供咖啡、零食、下午茶 员工活动、旅游及团建,不定期举办聚餐、唱K、电竞赛、篮球赛、拓展、旅游、生日Party等 【学习与培训】:助力职业发展与提升,内外训双引擎发力助你高速发展 【晋升机会】:公司设立良好的晋升机制和广阔的发展空间。
  • 18k-22k·13薪 经验5-10年 / 本科
    企业服务,金融 / 上市公司 / 2000人以上
    (一)岗位职责 1、负责数据中台管理、数据仓库及数据集市需求分析及开发; 2、负责公司大数据平台(以Hadoop技术生态为核心)的系统开发,以及报表平台建设和报表需求分析; 3、负责数据中台的运维及性能调优; 4、参与供应商实施进度管理,交付质量管控等; 5、部门负责人交办的其他工作。 (二)任职资格 1、***本科及以上学历; 2、具有5年以上大数据平台、数据仓库、ETL等数据开发经验; 3、有数据建模项目经验优先,具有基于CDH/Spark/Hive/ES/MongoDB等分布式系统的大数据应用开发经验优先; 4、熟悉Spark、Hive、Kafka、Flume、Storm、Kudu、Impala等大数据技术, 至少精通其中两项,熟悉HQL、Shell脚本编写以及HIVE、SPARK自定义用户函数编写; 5、做事踏实,责任心强,条理清楚,善于解决问题并学习总结,有良好的团队协作意识和沟通协调能力 学历:学信网**本科+现场面试 备注:持有工业和信息化部人才交流中心颁发的可信软件开发工程师证书的候选人同等条件下将优先录用
  • 18k-25k·13薪 经验3-5年 / 本科
    数据服务|咨询 / A轮 / 50-150人
    岗位职责: 1、负责基于Hadoop、Spark、Flink平台的离线/实时数据处理、数据计算、数据开发; 2、负责数据中台建设开发、数据治理、分析、处理、编码、拉通等工作; 3、负责数据中台的高可用性、高可扩展性、高并发的持续优化; 4、负责基于现有数据中台的迭代优化工作。 5、技术栈:Hadoop、Spark、Hive、HBase、Phoenix、Java、Spring Boot、ZooKeeper、Kettle 等 任职要求: 1、本科及以上学历,计算机相关专业; 2、对Hadoop、Hive、HBase、Yarn、Kafka、Spark、Flink等分布式开源项目及其工作原理有深入的了解; 3、有数据中台实际开发经验、较强的日常故障诊断和性能调优能力; 4、熟练使用 Hive、MySQL 等数据库并具有SQL优化能力; 5、对数据敏感,有较强的逻辑分析能力,对大数据处理和分析技术有丰富的经验和强烈热情; 6、有机器学习、数据分析、NLP 等相关工作经验优先; 7、性格开朗,善于交流,有良好的团队合作精神和协调沟通能力。
  • 15k-30k 经验3-5年 / 本科
    软件开发 / 不需要融资 / 50-150人
    工作内容 基于数据仓库在销售,交付,售后以及CRM领域进行数据开发与分析;设计维护不同层级的数据表; 开发维护数据应用,对数据pipeline进行优化,维护报表层数据,校验数据准确性,监控数据任务的资源分配以及运行情况 基于Spark和Flink构建ETLpipeline 基于Kafka,Spark构建实时数据应用 与核心业务部门沟通,根据业务需求创建对应的数据表,对核心表的查询进行调优 要求 三年以上数据开发经验 熟练掌握SparkSQL,了解HDFS,Hive,Vertica 熟练掌握Postgresql,Mysql的相关特性,了解MongoDB的相关特性 熟练掌握Scala,Python,Shell,了解Java 有后端开发经验(SpringBoot,FastAPI),Docker,K8S经验者优先
  • 9k-16k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责 1、理解保险相关业务需求,负责存储程序、数据采集、加工、清洗以及实时数据计算的开发及相应优化工作; 2、参与数据模型血缘关系梳理及设计工作。 3、参与需求分析,并完成相应需求、设计文档的编写; 4、针对用户数据库开展的软件安装、配置优化、备份策略选择及实施、数据恢复、数据迁移、故障排除、预防性巡检等数据运维工作。 任职要求 1、计算机相关专业本科以上学历,数据开发工作经验三年以上,有保险行业数据开发工作经验优先考虑; 2、掌握数据库知识,较强的SQL/ETL开发能力,及数据模型设计能力; 3、熟悉Oracle或MySQL数据库;了解Hadoop生态圈大数据技术,如Hive,Hbase,Spark等,掌握阿里DataWorks、Quick BI、DataV等工具的使用。 4、熟练掌握Java/Python/Scala等至少一门编程语言; 5、有较强的学习能,能吃苦耐劳,执行能力强,敢于挑战,能承受一定的工作压力。具备较强的问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感。
  • 20k-30k 经验3-5年 / 本科
    数据服务,移动互联网 / 不需要融资 / 150-500人
    职位描述: 1、负责公司业务数据大数据处理应用的研发与维护工作,为数据治理、集群优化、成本优化等输出重要业务价值; 2、与中台团队紧密配合,可以在日常的使用中总结提炼产品能力并反馈给产研团队,帮助数据中台产品能力和体验不断提升。 职位要求: 1、掌握大数据相关组件架构知识,具备开发、调优能力,如Flink、Hive、GreenPlum、Spark、Presto等; 2、掌握数据库理论知识,精通数据结构知识及数据库性能优化方法; 3、出色的大数据开发经验,如 Flink, Spark,Mapreduce 等等。 4、熟悉至少一个流处理框架(如 SparkStreaming、Storm或Flink); 5、丰富的 OLAP 系统开发经验。 6、熟悉敏捷开发、DevOps开发过程,具备良好的软件工程素养,熟悉Git等开发、构建、版本控制工具; 7、具备实际的⼤数据业务3年以上开发经验; 8、积极主动,良好的团队合作精神,能吸收新技术和实践的能力。 9、能够独立和负责任地在指定的项目上工作。
  • 2k-3k 经验在校/应届 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    1.学习能力强,积极主动。 2.沟通能力强,有较好的协作能力。 3.熟练掌握sql,有数据库实际操作经验。 4.熟练操作linux系统。 请务必注意,只招聘24年毕业的同学!如果有时间,面试通过后即可来实习;也可以办理完手续,期末完成后来实习。需要实习至少6个月以上。能快速到岗实习,且实习时间持续半年以上的同学优先。
  • 15k-30k 经验3-5年 / 本科
    数据服务,人工智能 / 上市公司 / 2000人以上
    "1、**本科以上学历,3年以上工作经验; 2、熟悉flink/spark/hadoop/hbase/hive等分布式计算技术,熟悉其运行机制和体系结构; 3、三年以上大型数据仓库架构和建模经验,熟悉大型互联网企业仓库架构解决方案者优先; 4、有一定的数据分析和挖掘能力,能从海量数据提炼核心结果,及时发现和分析其中隐含的变化和问题; 5、能够通过数据化运营发现、分析问题和优化流程,推动数据处理流程自动化,提升团队运转效率; 6、思路清晰,对数据敏感,有良好的沟通表达能力和跨团队协调能力,乐于寻求挑战和突破自我;" 参与构建SaaS领域流批一体计算引擎、湖仓一体计算引擎构建,支撑公司核心业务实时/离线统一的应用场景,并针对重难点问题进行技术攻关 工作地址
  • 20k-25k 经验1-3年 / 本科
    其他 / 未融资 / 150-500人
    职责描述: 1、参与企业级实时计算的架构设计与研发,并理解业务的本质需求,设计和构建适应公司业务发展特点的实时数据体系; 2、负责配合运维团队对大数据平台架构进行优化,及时发现性能瓶颈; 3、负责与大数据相关项目技术方案编写。 任职要求: 1、计算机专业,大学本科及以上学历; 2、熟悉flink,storm,spark等,拥有实时大数据处理和开发经验; 3、两年以上实时数据开发及数据应用经验,熟练使用JAVA,SCALA语言其中一种,有良好的工程能力和工程管理思维; 4、有金融机构、科技公司工作经验优先。
  • 25k-45k 经验3-5年 / 本科
    ISK
    企业服务 / 未融资 / 150-500人
    工作职责 1、负责大数据平台数据仓库、数据治理、数据模型等相关设计与开发工作; 2、负责日常数据报表开发和统计分析工作,理解并抽象业务需求,发挥数据价值; 3、负责离线和实时数据服务的设计、开发、性能调优和效果优化; 4、完成日常数据质量的监控,跟踪处理各类数据质量问题; 5、参与大数据平台的日常运维工作。 工作要求 1,本科毕业3年及以上,计算机、数学、金融等相关专业; 2、3年以上大数据平台开发经验;熟悉大数据hadoop平台及生态,熟练掌握spark、kafka、flume、flink等技术;有一定的数据敏感度,对技术的学习和研究充满热情。 3、熟悉hive、hbase、ES、oracle、mysql等数据库其中两种以上,拥有较好的数据仓库设计和建模能力;有数据治理相关经验者尤佳; 4、认真负责,具有团队合作精神,良好的沟通、协调及快速高效学习的能力。 某券商职位
  • 13k-18k·13薪 经验1-3年 / 本科
    移动互联网,数据服务 / 未融资 / 50-150人
    外派网易, 需要能接受短期出差的 ,做完项目回网易办公福利:网易食堂免费包三餐,免费网易班车,节日福利、各类假期同网易正式员工一样1. 负责公司商业化客户项目技术支持工作,对客户使用有数中台产品问题进行解答。2. 对于客户在有数中台上的任务进行错误排查及性能调优。3. 收集、跟进并解决用户在大数据场景下遇到的问题。4. 配合产品和开发团队,整理用户需求,推进产品迭代。职位要求1. 具备扎实的Java/scala语言基础;2. 熟悉Hadoop生态圈常用功能组件,如HDFS、YARN、Hive、Spark、Impala、Flink、ELK等;3. 熟练使用Hive,Spark、Flink等大数据组件。4. 熟练掌握SQL语言,掌握Oracle、mysql、Postgresql等一种或多种关系型数据库使用,有一定的SQL调优经验;5. 熟练使用Linux系统,至少熟悉perl/shell/python中的一种脚本语言;
  • 20k-40k 经验3-5年 / 本科
    移动互联网,金融 / 上市公司 / 2000人以上
    岗位职责: 1、负责日常大数据类的需求分析,评估数据需求的技术可行性,输出需求规格说明书。 2、负责基于大数据平台的数据采集、数据应用的设计、开发、测试和上线。 3、参与数据中台规划、制定并完善开发规范、标准和流程。 4、参与业务部门的数据分析工作,为业务部门提供经营决策依据,输出分析报告。 5、梳理业务应用场景,洞察业务痛点,为业务部门提供综合性解决方案。 6、负责各业务板块经营专题分析及其他重点分析工作的开展及落地应用。 任职资格: 1、计算机、数据等相关专业,大学本科以上,具备优秀的沟通表达能力,有自我驱动能力,团队合作意识佳。 2、2年以上开发工作经验,1年以上需求分析、数据分析、产品经理或系统规划工作经验。 3、大数据、互联网、通讯行业、金融行业工作经验优先。 4、熟练掌握SQL或者JAVA开发技能,可独立进行开发,熟悉各种系统分析、设计文档的格式和编制要求。 5、至少掌握Python,Scala,R等一种以上常用的数据开发技能,可独立撰写数据分析报告。
  • 18k-30k 经验5-10年 / 本科
    金融 / 不需要融资 / 500-2000人
    岗位职责: 1、负责大数据管理平台的建设、数据挖掘,数据清洗、数据处理流程的设计和代码开发,撰写相关文档; 2、负责解决大数据平台建设过程中的技术难点和性能调优工作; 3、参与数据中台建设,完善数据体系建设及应用服务能力,推动数据场景服务落地; 4、参与大数据平台的容量规划、持续交付、业务监控、应急响应,保证平台正常运行。 任职要求: 1、具有5年以上开发经验,3年以上大数据开发经验,熟悉大数据、数据仓库,分布式架构技术理论,具有大数据系统架构设计和实战经验; 2、具备良好的业务抽象能力,针对具体的业务对话场景,能采用合适高效的知识库构建方法来满足需求。熟悉大数据平台架构,熟悉主流MPP数据库GuassDB、TD、等数据库中一种,熟练运用SQL程序语言;或熟悉基于Hadoop、Hive、Spark等大数据组件的ETL开发方法与工具。熟悉分布式系统原理,对存储、离线计算、实时计算中的一项或多项有深入的理解和认识,有大型分布式系统架构、开发、调优; 3、有较好的学习能力、团队协作精神,认真细心,有强烈的责任心,爱岗敬业,有较高抗压能力,有较好的工作稳定性; 4、真诚热情、责任心强、实事求是、自信心强、尽心尽责、认真仔细、勤奋好学。
  • 10k-12k 经验不限 / 硕士
    其他 / 上市公司 / 150-500人
    岗位职责: 1.参与华为云Hadoop大数据平台调优和运维; 2.负责大数据组项目开发、交付工作; 3.负责跟踪与确定大数据技术方向与技术路线选型,指导并落实; 4.按照规范的软件开发流程,完成软件的需求、设计、编码和测试工作,具有规范的开发文档写作能力。 岗位要求: 1.熟悉 Spark、mapreduce、Kafka、Hive、ZooKeeper等hadoop生态系统组件; 2.使用Java、shell或者scala等编程语言并能够进行实际开发; 3.有大规模高并发分布式系统开发经验,有良好的系统工程化能力; 4.硕士及以上学历,计算机等相关专业毕业; 5.具备Hadoop生态组件培训经验者,可优先考虑; 6.具备华为云大数据运维、开发经验优先。
  • 教育 / 上市公司 / 2000人以上
    "岗位职责: 1. 负责公司整体数据架构设计和规划,协调各方面资源推动落地实施 2. 针对各种业务增长和业务需求,制定实施技术方案,解决业务问题 3. 参与数据仓库和数据平台的架构规划、模型设计、平台设计,输出相关设计文档 4. 负责公司数据中台的设计和研发,制定数据架构规范,指导团队落地 5. 跟踪行业动态,引入新的技术组件,推广新技术应用 岗位要求: 1. 本科及以上学历,5 年及以上大数据数仓和平台架构实际工作经验 2. 熟悉 hadoop 大数据生态和常用组件,例如:Hive\MR\sqoop\Spark\Flink\hudi\Iceberg 3. 对海量数据计算处理、性能调优、计算任务优化有深入研究,精通 Hive Sql 计算优化 4. 精通数据仓库模型设计方法,同时具备实际经验,对数据模型具有深刻见解 5. 跟踪、监控、维护及优化数据模型,确保数据模型被有效使用 6. 负责制定企业数据中台数据规范、管理规范、数据标准、技术管理流程等 7. 优先考虑:主导或参与数据中台,数据仓库,独立负责完成相关模块;熟悉 python、java 至少一种语言; 加分项: 1. 可以快速学习掌握新技术 2. 良好的沟通能力和团队合作精神 3. 开源工具社区开发经验 4. 具备英文文档阅读能力"