-
岗位职责: 1、负责大数据相关技术研究,为公司业务的安全、运营、推广提供数据和报表支持; 2、负责对Google Analytics、Google Tag Manager、FireBase 数据进行采集和存储 3、负责对公司B2C、C2C电商平台数据库进行同步存储到Google BigQuery 4、基于Google BigQuery开发公司数据仓库和大数据平台,根据需求实现监控、分析、报表相关功能研发 任职要求: 1、计算机相关专业,本科以上学历;3-5年大数据开发经验; 2、精通java/python/scala,良好的计算机编程素养; 3、熟练Google BigQuery开发; 4、熟悉elasticsearch使用,对es集群有一定的维护经验; 5、熟悉linux,有丰富的shell脚本经验; 6、熟练掌握mysql,有postgresql的使用经验优先; 7、思路敏捷清晰,良好的表达能力和理解能力,并有一定学习和创新能力。 8、有BI 项目开发经验者优先。
-
岗位职责 1、 负责公司大数据平台、产品的设计与架构,并带领研发团队完成落地工作 2、 了解大数据前沿技术发展趋势,完善大数据基础架构体系,稳步提升平台、产品的效率和稳定性 任职要求 1、 本科以上学历,5年以上开发经验 2、 有数据集成、数据治理、数据安全、数据质量、数据目录等平台类研发经验者优先 3、 对主流开源大数据技术,如Hadoop、Spark、Flink、Hbase、Kafka、Clickhouse、Doris等,有深入研究及应用开发经验者优先 4、 熟练掌握Java技术体系,能熟练使用Spring Boot、Dubbo、Redis、Netty等开源框架 5、 对分布式系统架构设计模式有较深入了解,具备解决分布式系统负载均衡、一致性保障、高可用等问题的能力 6、 了解docker、k8s等容器化技术 7、 具备良好的沟通协作能力、学习总结能力、问题抽想象力
-
岗位职责1、参与公司各产品线数据收集、集成、传输、清洗、落地数仓;2、参与构建数据开发平台,高效支撑数据任务开发,赋能数据能力,保障数据质量;3、参与构建可靠的数据服务,支撑公司各产品数据功能和服务;4、负责系统的代码维护、迭代更新,保证任务质量和交付及时性;5、负责编写相关的技术文档、单元测试,对产品质量负责。岗位要求1、本科及以上学历,具备扎实的计算机基础和编程能力;2、熟悉 Git/GitHub,通信协议 TCP/HTTP 及 RESTful 标准,理解JVM工作原理;3、3年以上 Java 开发经验,1年及以上大数据开发经验,对数据敏感,具有一定的数据问题排查经验;4、了解大数据计算平台架构和产品组件原理和应用场景,如 Spark, Hadoop, Hive, HBase等;5、熟练使用 Spring Boot, MyBatis, Hibernate, Spring Cloud 等常用开发技术。
-
职责描述 1. 负责公司大数据基础平台、海量数据分布式存储与计算平台、以及数仓平台底层架构设计与研发 2. 负责实时计算平台基础架构设计、部署、监控及优化升级 3. 充分理解公司各业务对大数据平台的基建需求,支撑公司数据中台体系建设 4. 深入研究行业内大数据技术发展动态,对既有平台提出更有解决方案并推动实施落地 任职要求 1. 计算机相关专业,本科及以上学历,熟练掌握Java、Scala、Python等语言 2. 精通hadoop、hive、spark、kafka、iceberg、hudi、dolphinscheduler等技术原理及其生态圈,有二次开发经验者优先 3. 熟悉大数据集群,有大规模数据集群稳定性保障及调优经验,较强的故障诊断能力,能快速定位与解决问题 4. 熟悉Java Web相关框架,如Spring Boot、MySQL等 5. 5年以上大数据平台开发经验,有数据集成、数据开发、即席查询、任务调度、计算引擎等开发经验优先 6. 具备良好的抗压能力与责任感
-
岗位职责 1、主导数据治理实施,如:业务探查、数据盘点、数据质量规则梳理、数据标准整理等; 2、负责数据仓库架构设计、建模和ETL开发,构建可扩展的数据仓库和分析解决方案; 3、理解并合理抽象业务数据需求,做通用和系统性的支持; 4、带领团队完成数据相关需求分析和模型设计、和宽表开发,保证目标顺利完成; 5、具备文档编写能力,能够完成项目相关文档的编写与交付。 任职资格 1、本科及以上学历,计算机或者数学等相关专业,具备3年以上大数据相关工作经验,能接受一定时间的出差; 2、熟悉MySQL、Oracle,熟悉SQL开发、复杂SQL优化,熟练掌握Java、Scala开发语言; 3、熟练掌握大数据开发工具的使用(hive、spark、flink、kafka、dorisdb等),具有0-1数据类项目实战经验; 4、深入理解DW,BI相关的知识,包括:ETL、数据仓库、OLAP、多维数据模型等; 5、有参与过用户行为分析、流量分析、用户画像等数据应用开发经验; 6、有主导数据中台、数据湖或大型数仓建设实施相关经验; 7、具有较强的业务理解能力,良好的沟通协调能力,思路敏捷清晰,有责任心及抗压能力,有强烈的自驱力,并有良好的团队协作精神。
-
岗位职责: 1、负责数据平台设计,需求的实现,范围包括不限于基于离线/流式计算技术的数据分析、数据服务等相关需求。 2、负责大数据相关解决方案的设计文档撰写。 3、与团队紧密合作,深刻理解需求并提出合适的数据工程解决方案。 任职要求: 1、计算机及其相关专业,本科及以上学历,3年以上大数据开发经验。 2、熟悉Linux系统,具有扎实的SQL功底。 3、熟练使用Java\Python\Scala等开发语言,有独立的代码实现能力。 4、熟练使用Hive、Hbase、Spark进行离线及实时的数据处理。 5、熟练使用Flume、Kafka、Hadoop、Kylin、OpenTSBD等大数据技术。 6、思路敏捷清晰,良好的表达能力和理解能力,并有一定学习和创新能力。 7、有过海量数据处理者优先。
-
岗位职责: 1. 负责大数据平台架构设计,包括数据可视化,数据集成,数据建模开发等; 2. 熟悉Hadoop或Spark大数据生态技术产品,例如Sprak、HDFS、HBase、Hive等;熟悉CDH大数据平台架构优先考虑; 3. 精通流式计算和批量计算框架之一,如Apache Spark、Spark streaming、Hadoop等,并具有1个或者以上项目经验 4. 熟悉至少一种主流ETL开发工具,如DataX、Oracle GoldenGate等 5. 熟悉至少两种主流报表工具:Fine BI/Tableau/PowerBI等; 6. 精通数据库的开发设计,Spark SQL脚本的编写优化; 任职资格: 1. 本科及以上学历,计算机/数学/统计学专业背景优先,有财务项目背景优先; 2. 3年以上相关工作经验,具备大数据平台的设计与实施经验者优先; 3. 熟悉Hadoop/Hive、Spark架构者优先; 4. 能够接受全国范围内长期出差;
-
职责描述 1.充分理解各业务对大数据平台的需求,完成平台基础架构设计与落地,支撑公司数据中台体系建设; 2.设计并落地高扩展、高性能、高可用且易用的大数据平台; 3.负责大数据平台的基础维护、监控、功能设计及性能调优; 4.研究行业内大数据技术发展动态,对既有平台提出更优解决方案并实施落地 任职要求 1.计算机相关专业,本科及以上学历,熟练掌握Java、Scala语言; 2.三年以上大数据平台开发经验,有数据集成/数据开发/即席查询/任务调度/计算引擎等开发经验优先; 3.掌握常用的大数据组件,如hadoop、dolphinscheduler、spark、iceberg等,熟悉其原理且有二次开发经验者优先; 4.熟悉大数据集群,有大数据集群稳定性保障及调优经验优先; 5.熟悉Java Web相关框架,如Spring Boot、MySQL等; 6.有较强的定位问题和coding能力,能保证质量的完成项目的开发与迭代,具有很强的责任感
-
岗位职责: 1、负责大数据采集、存储、计算、分析等场景的通用架构设计和开发 2、负责流式数据的实时传递、清洗、转换和计算(实时统计、分析等)的设计和开发 3、负责以上各种架构平台及相关基础技术组件的稳定性 4、数据接口开发 岗位要求: 1、扎实的Java开发功底,有丰富的并发编程经验 2、熟悉Hadoop、Spark、Flink、Kafka、Presto、ES、Hive、Flume等,熟悉原理源码、有二次开发优先 3、有参与构建海量数据存储、离线/实时计算、实时查询,大数据平台、BI平台的经验优先
-
1. 负责企业内部数据的收集 过滤 清洗和分析 2. 根据各部门需求建立自动报表系统 职位要求: 1. 计算机相关专业本科及以上学历,1年以上数据分析工作经验 2. 精通Python和至少一种关系型数据库 3. 理解数据处理和呈现相关技术和实现方法 4. 对大数据相关技术有浓厚兴趣,愿意持续钻研 5. 了解Google大数据套件体系优先(Google Tag Manager, Google Analytics, BigTable, Data Studio)
-
岗位职责: 1. 负责大数据采集、存储、计算、分析等场景的通用架构设计和开发; 2. 负责流式数据的实时传递、清洗、转换和计算(实时统计、分析等)的设计和开发; 3. 负责大数据相关框架/工具/中间件的设计和开发; 4. 负责以上各种架构平台及相关基础技术组件的稳定性保障及源码级的bug修复; 5. 负责大数据相关解决方案的设计文档撰写。 任职要求: 1. 本科以上学历,计算机相关专业; 2. 五年以上大数据平台相关开发及架构设计经验; 3. 深入使用Java,深入理解并熟练使用Java类库及框架,如多线程、并发处理、I/O与网络通讯; 4. 对Java虚拟机有较深了解,有运行态JVM分析及调优的实际经验; 5. 熟悉Linux系统,具备Shell、Python等脚本开发能力者优先; 6. 熟悉并使用过各种大数据相关框架或组件优先,如Kafka、Storm/JStorm、Hadoop/Spark、Hive、HBase、kylin、opentsdb、redis、flume等,具备源代码级问题解决和集群优化改造能力者优先; 7. 具备丰富的数据处理和数据仓库建模的项目实践经验者优先; 8. 具有良好的语言表达和文档撰写能力,学习能力强,喜欢研究开源新技术,有团队观念,具备独立解决问题的能力; 9. 有一年以上大数据团队带领经验优先。
-
岗位职责: 1.参与美的智能风控中心的建设 2.参与优化集群/组件计算性能 3.负责挖掘和分析海量的准入、交易、支付等场景的风险事件,构建亿级的OLAP引擎和特征工程,在事前、事中、事后给业务护驾保航 4.调研业内领先的大数据技术解决方案,结合实际应用场景进行创新应用试验和业务落地 任职资格: 1、本科及以上学历,计算机、通信等相关专业,8年以上工作经验; 2、深入理解大数据生态圈,有扎实的数据结构和算法基础; 3、熟练掌握java编程语言 Java,深入理解jvm; 4、有大数据相关分布式系统(Hadoop/Spark/Flink/clickhouse/es/druid/presto)的使用和应用优化经验,参与过大数据平台开发的优先; 5、对高并发、高可用、高性能、大数据处理有过实际项目经验者优先; 6、有良好的业务 Sense,对数据业务场景非常敏感,能够横向协同、跨团队整合资源,形成完整的方案解决业务/产品的问题。
-
岗位职责: 1.参与美的智能风控中心的建设 2.参与优化集群/组件计算性能 3.负责挖掘和分析海量的准入、交易、支付等场景的风险事件,构建亿级的OLAP引擎和特征工程,在事前、事中、事后给业务护驾保航 4.调研业内领先的大数据技术解决方案,结合实际应用场景进行创新应用试验和业务落地 任职资格: 1、本科及以上学历,计算机、通信等相关专业,两年以上工作经验; 2、深入理解大数据生态圈,有扎实的数据结构和算法基础; 3、熟练掌握java编程语言 Java,深入理解jvm; 4、有大数据相关分布式系统(Hadoop/Spark/Flink/clickhouse/es/druid/presto)的使用和应用优化经验,参与过大数据平台开发的优先; 5、对高并发、高可用、高性能、大数据处理有过实际项目经验者优先; 6、有良好的业务 Sense,对数据业务场景非常敏感,能够横向协同、跨团队整合资源,形成完整的方案解决业务/产品的问题。
-
工作职责: 1、负责数据模型需求和数据应用需求的调研分析,进行数据模型和数据应用的设计、开发、测试、上线等工作; 2、负责建立规范化、稳定可靠的数据体系; 3、负责大数据生命周期管理系统的架构评估和设计 4、负责大数据平台日常监控与维护 任职资格: 1、本科以上学历,3年以上大数据相关工作经验; 2、拥有基于大数据平台的数据应用和数据仓库设计实施经历,具有优秀的业务分析和洞察能力以及丰富的业务数据应用经验; 3、熟悉Hadoop体系结构、对Hadoop生态系统有较全面了解,熟悉Spark、Hive、Impala、Flink、HDFS、YARN、Kafka等,熟悉部分框架底层源码者优先; 4、精通SQL,能够快速使用SQL实现业务逻辑,熟悉数据库系统,包括Oracle、MySQL、Elasticsearch、HBase等。
-
工作职责: 1、负责数据模型需求和数据应用需求的调研分析,进行数据模型和数据应用的设计、开发、测试、上线等工作; 2、负责建立规范化、稳定可靠的数据体系; 3、负责大数据生命周期管理系统的架构评估和设计 4、负责大数据平台日常监控与维护 任职资格: 1、本科以上学历,3年以上大数据相关工作经验; 2、拥有基于大数据平台的数据应用和数据仓库设计实施经历,具有优秀的业务分析和洞察能力以及丰富的业务数据应用经验; 3、熟悉Hadoop体系结构、对Hadoop生态系统有较全面了解,熟悉Spark、Hive、Impala、Flink、HDFS、YARN、Kafka等,熟悉部分框架底层源码者优先; 4、精通SQL,能够快速使用SQL实现业务逻辑,熟悉数据库系统,包括Oracle、MySQL、Elasticsearch、HBase等。 工作地址