-
1.负责公司的离线数仓和实时数仓的设计、建模和开 发,参与数据模型评审; 2. 负责数据仓库建设,离线任务和实时任务开发,海 量数据下的性能调优,以及复杂业务场景下的需求交 付; 3. 参与制定离线和实时大数据处理流程,负责数据模 型的性能优化,提供统一、可靠的离线和实时数据服 务; 4. 参与大数据平台相关管理工作,如数据开发规 范、优化数据链路、数据质量及稳定性保障等建设; 5. 通过数据仓库的建设和治理,沉淀数据仓库建设标 准,能够针对业务场景探索提供大数据解决方案; 任职要求 计算机相关专业,本科及以上学历; 2.3年以上数据仓库或大数据开发,丰富的离线或者 实时数据体系建设经验; 3. 熟悉Linux平台,精通Java/Python等至少一门语 言,熟练掌握Hive/Hadoop/Spark/Flink/HBase等 大数据研发工具; 4.了解各种不同类型数据库的内部原理,如mysql,es, mongodb, hive, hbase等; 5.熟练掌握一门或多门编程语言,并有大型项目建设 经验者优先,重点考察Java、Python;熟悉Linux系 统常规shell处理命令,灵活运用shel做的文本处理和 系统操作; 6.熟悉数据流调度的常用方法,并有相关产品的使用 7. 精通数据建模及ETL设计开发,对数据仓库、数据 平台、数据分析等有深刻理解,具备丰富的海量数据 加工处理和优化经验; 8. 能根据业务需求进行高效的数据建模和逻辑抽象, 输出合理的数据建设解决方案;
-
1、分析大监督数字化转型及信息化现状及发展趋势,评估业务及技术现状; 2、负责大监督业务战略规划、咨询、方案设计,形成业务发展规划、业务解决方案,并支持产品化研发、人才培养等工作; 3、开展大监督数字化转型业务需求调研,进行现状分析、方案设计等工作; 4、进行售前支持,协助进行市场开拓,与销售人员、产品专家密切合作,制定有效的售前方案。 1、硕士及以上学历,计算机、财务管理、企业管理等专业,40岁以下,5年以上工作经验; 2、在大型企业集团、咨询机构等大监督、数字化转型项目的咨询、规划、实施工作担任总监及以上职务,在风控、监督领域具备较强影响力者优先; 3、具备良好的沟通能力和团队合作精神、良好的团队协作能力、较强的承压能力; 4、具有前瞻性思维、敏锐的感知与洞察力、信息收集分析能力、报告撰写能力。
-
岗位职责: 1. 负责分布式大数据平台架构建设、数据建模和数据应用后端开发; 2. 负责大数据相关组件OLAP引擎、实时计算,文件存储等相关研究和开发; 3. 负责大数据系统及组件的性能、效率、稳定性分析与优化。 岗位要求: 1. 熟悉Hadoop/Kafka/Presto/Kudu等大数据技术和组件,有3年以上大数据组件的使用和二次开发经验; 2. 具备扎实的计算机基础,熟悉分布式系统开发,熟悉云原生技术; 3. 精通Java开发语言,具有良好的编程开发能力; 4. 对新技术敏感,有一定独立分析,技术研究能力,具有良好的团队合作精神; 5. 能够深刻理解业务,善于利用技术实现相关业务价值; 6. 具备一定云原生技术经验(kubernetes ,Docker)者优先。
-
职责描述: 1. 负责分布式大数据平台架构建设、数据建模和数据应用后端开发。 2. 负责大数据相关组件OLAP引擎、实时计算,文件存储等相关研究和开发。 3. 负责大数据系统及组件的性能、效率、稳定性分析与优化。 任职要求: 1. 熟悉Hadoop/Kafka/Presto/Kudu等大数据技术和组件,有5-7年大数据组件的使用和二次开发经验。 2. 具备扎实的计算机基础,熟悉分布式系统开发,熟悉云原生技术。 3. 精通Java开发语言,具有良好的编程开发能力。 4. 对新技术敏感,有一定独立分析,技术研究能力,具有良好的团队合作精神。 5. 能够深刻理解业务,善于利用技术实现相关业务价值。 6. 具备一定云原生技术经验(kubernetes ,Docker)者优先
-
岗位职责: 1、在数仓负责人带领下,针对BI,算法,数据产品的需求,负责公司多业务数据仓库建设与模型设计,制定和落实数据仓库规范以及数据治理工作; 2、进行ETL设计,数据集市建设,落地及后续的运维; 3、负责各条业务线的数据整合方案设计及日志规范,数据分析指标体系建设及元数据管理; 4、稽查和监控数据质量,数据报表系统及相关数据产品的研发和数据需求的沟通及数据开发项目管理。 岗位要求: 1、掌握数据仓库(DW)商业智能(BI)理论知识,具备2年以上数据仓库建设经验,有数据中台、数据治理呼吁等相关经验优先; 2、精通SQL,熟悉mapreduce原理,有hive调优经验,具备一定的python和java开发能力,有Hadoop, Spark, Flink等大数据开发相关经验优先 3、具有高度的责任感,思路清晰,有良好的沟通能力; 4、本科以上学历,计算机、信息管理等相关专业
-
大数据开发工程师(浏览器 岗位职责: 1、制定数据仓库设计与开发规范,推动落地; 2、设计并实现链上全域业务(地址信息,defi业务信息,标签)的数据仓库模型; 3、重点建设链上标签体系和特征工程; 4、数据治理相关的规划和建设,提高数仓数据质量; 5、与合作部门共同建设实时数仓和落地应用; 6、日常告警监控运维。 任职要求: 1、大学本科及以上学历,计算机、软件、信息等相关专业; 2、相对丰富的数据开发或数据仓库经验; 3、精通Hive Sql; 4、熟悉数据仓库建模、ETL过程、ETL和BI工具、技术和开发流程,一定的调优经验; 5、熟悉常用的shell命令,掌握java语言,能够开发udf/udtf等简单程序者优先; 6、熟悉阿里云大数据产品MaxCompute、DataWorks、Flink等经验优先; 7、熟悉AWS大数据产品经验优先; 8,了解机器学习(决策树、随机森林、聚类、逻辑回归)者优先
-
职位职责: 1、 负责电商、生活服务、直播、抖音等业务的离线与实时数据仓库的构建; 2、负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3、负责指标体系建设与维护; 4、深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 5、参与大数据应用规划,为数据产品、挖掘团队提供应用指导; 6、参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1、熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
-
职位职责: 1. 负责抖音直播业务的离线与实时数据仓库的构建; 2. 负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3. 负责指标体系建设与维护; 4. 深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 5. 参与大数据应用规划,为数据产品、挖掘团队提供应用指导; 6. 参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1. 熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2. 熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 3. 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
-
岗位职责: 1、负责部署和维护内部大数据系统,如:Hadoop、EleasticSearch、ClickHouse等; 2、负责日志系统的维护和优化; 3、负责大数据分析平台的规划与设计工作; 4、负责大数据相关开发工作,如数据处理、数仓设计等工作; 5、负责进行数据抽取、清洗、数据接口服务等; 6、深入理解大数据平台架构、发现并解决重大故障及性能瓶颈,打造一流的大数据平台; 任职要求: 1、本科以上学历,计算机或相关专业; 2、3年以上大数据平台的运维相关经验,精于容量规划、架构设计、性能优化; 3、具备一定的开发能力,精通一门以上脚语言(Shell/Perl/Python等),有Java 和 Scala 基础尤佳; 4、对Hadoop原理有深刻认识,具备相关产品(MapReduce、HDFS、Hbase、Spark、Flume、Zookeeper、ES、Kafka)的应用经验,具备底层Hadoop集群实际搭建及运维经验; 5、精通Hadoop、Spark等相关生态圈系统的搭建、管理、配置优化; 6、有大规模OLTP、OLAP数据仓库建设经验都优先; 7、良好中文沟通能力; 8、拥有英语或日语能力尤佳。
-
岗位职责: 1、Hadoop大数据平台架构及组件的优化; 2、数据分析平台的开发和优化; 3、数据展示系统的开发和优化; 4、大数据集群的监控、管理、性能优化; 5、数据计算性能瓶颈的定位及优化。 这样的你是我们的理想型: 1、国家**本科及以上学历; 2、熟练使用C/C++/Java; 3、熟练掌握计算机数据结构和算法; 4、熟悉Hadoop架构,有大数据、分布式存储及计算等相关经验者优先。
-
岗位职责: 1. 大数据组件开发。 2. 基于Python 体系下的数据质量引擎开发; 3. 基于Java及Linkis开源框架的质量引擎开发; 4. 大数据资产应用的开发、部署、调优; 5. 数据稽核引擎开发,数据共享交换能力对接。 任职要求: 1. 本科及以上学历,计算机相关专业; 2. 3年以上互联网或软件行业工作经验,熟悉Linux环境;熟悉Linux和Python开发; 3. 熟悉Spring,Spring boot,Spring Cloud等框架、熟悉Eclipse或IntelliJ IDEA开发工具等使用 以下满足其一即可: 4. 熟悉Hadoop,MapReduce,Hbase,Flink等大数据部署、运维、开发; 5. 熟悉数据治理理论概念、架构,有元数据、数据质量、数据标准、主数据等相关数据治理经验; 6. 有分布式相关项目(分布式存储/分布式计算/高性能并行计算/分布式cache)经验; 7. 对数据库的架构、扩展特点非常熟悉,能熟练进行SQL优化、集群部署、数据同步等。
-
岗位职责 : • 负责流批一体数仓规划、建设与维护以及OLAP建设 • 基于公司海量数据进行实时/离线等数据开发工作,包括但不限于数据清洗、数据治理、业务画像数据开发 • 保证大规模的离线、实时任务的正常平稳运行和相关优化工作 • 负责相关线上ETL任务的线上问题定位排查 • 负责基于Flink的相关Connector/LookUp组件优化和二次开发,以及Flink SQL 算子性能定制开发等 职位描述: • 熟悉主流开源大数据工具的使用和调优,包括但不限于Hadoop、ClickHouse、Kafka、HBase、Redis等 • 熟悉数据建模和数据报表的设计工作,能较好的归纳业务逻辑,设计出合理的数据和计算逻辑 • 有大数据处理分析经验,熟悉Flink/Spark/Hadoop等大数据处理引擎的原理和使用,有相关调优经验更优 • 有java开发相关经验,熟悉shell/scala/python/go等不少于2种语言的使用,掌握JVM、并发编程、网络编程等技术,熟悉JVM相关性能问题调优。
-
大数据开发工程师,西安 岗位职责: 1.负责Hadoop管理平台/数据应用平台/图数据库的开发和维护; 2.负责Hadoop内核问题分析,定位,修改及开源社区的动态跟踪; 任职要求: 1.本科及以上学历,3年及以上工作经验; 2.精通Java/Scala/Python/C/C++/JavaScript/JSP中的一种或多种; 3.有完整的项目开发经验,系统核心模块看护经验者优先; 4.有大数据Hadoop/HBase/Flume/Kafka/Flink/Hive/Spark/ES等开源大数据技术相关经验者优先。
-
岗位职责: 1、基于业界常用的大数据开源组件,设计和构建云原生的大数据处理平台。 2、 提供统一的异构数据源接入集成,数据离线、实时计算,元数据管理和数据服务等全链路智能数据构建与管理的大数据能力,为公司现有和未来业务赋能。 3、基于大数据技术,配合产品经理优化现有业务中对数据处理、存储和查询等需求的流程及性能优化。 4、 持续对大数据系统技术架构进行优化,降低成本,提升系统的性能和用户体验,打造面向未来的批流一体的计算和存储。 岗位要求: 1、计算机、通信、数学等相关专业,具备良好的计算机技术基础。 2、熟悉java/c++/python/go等至少一种编程语言,具备扎实的数据结构和算法基础。 3、熟悉主流数据库,熟练运用SQL,并熟练运用Python进行ETL开发; 4、了解数据仓库OLAP,熟悉多维分析优先,及了解数据分析、数据挖掘常用算法; 5、熟悉多个大数据领域内的开源框架,如Flink/Spark/HDFS/Hive/Kafka/ElasticSearch/ClickHouse/RocksDB等; 6、具备良好的沟通表达和自我学习能力,崇尚数据说话; 7、有PB级数据处理经验加分。
-
任职资格: 1.有B2B行业经验,对大数据(更优)、互联网、ERP、SaaS领域有了解 2.有过至少5人以上的团队管理能力; 3.较强的跨团队写作,推进,资源整合能力,同各区销售团队较好的合作; 4.快速学习、敏感度强、乐于分享、优秀的沟通能力; 工作内容 1.带领8-10人团队进行针对性的线索获取和商机挖掘和培育; 2.数据来源于公司数据库、各区域市场拓展的线下数据、团队主动开发等; 3.进行线索管理、培育过程监控直至转化效果的评估; 4.依据公司战略及市场部门的OKR,合理进行本部门的任务分解,触达团队成员,帮助销售赢得更多高质量订单; 5.建立健全商机拓展团队的人员培养机制,及部门制度、考核、流程等,释放团队最大潜能; 6.在业务层面上,能够运用一定的方法论和技巧,对团队成员进行良性输出。