-
岗位职责: 1. 负责大数据项目的开发与维护,参与项目需求分析和设计; 2. 负责数据采集、处理、存储、分析和可视化等大数据技术的研究和应用; 3. 负责数据仓库的设计和实施,以及数据挖掘、机器学习算法的应用; 4. 协助团队完成数据处理流程的优化和调试,提高数据处理效率; 5. 参与编写技术文档,提供数据处理和分析报告; 6. 负责对大数据平台的技术支持和问题解决。 任职要求: 1. 本科及以上学历,计算机、数学、统计等相关专业; 3年以上数据分析相关工作经验; 2. 熟悉 Hadoop、Spark、Hive、HBase 等大数据技术,有实际项目经验者优先; 3. 精通SQL,至少熟练运用一种数据分析编程软件:R、Python、java等,了解主流BI工具; 4. 具备一定的数据挖掘、机器学习算法知识,有实际应用经验者优先; 5、熟悉阿里大数据开发治理平台,并有一定的使用经验者优先; 6. 对数据敏感,具备良好的逻辑思维能力和分析能力; 7. 具备良好的团队合作精神和沟通能力,具有较强的学习能力和抗压能力。
-
任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
-
岗位职责: 1.大数据新技术规划、调研、选型及推广落地。 2.负责大数据组件内核开发优化,推进组件容器化,进行组件二次开发与适配等工作。 3.日常负责大数据框架组件的性能优化,稳定性保障,异常监控及线上问题对接解决。 4.参与平台功能研发,提供业务系统化的解决方案。 任职标准: 1.至少6年以上相关经验,有扎实的计算机编程基础,精通java/scala,熟悉jvm的原理和调优。 2.精通spark/hive/flink组件原理和内核优化,有超大规模数据计算的架构设计和优化经验。 3.掌握大数据行业趋势,熟悉Kubernetes/Docker,有组件容器化相关经验。 4.具备较强的问题解决能力,能独立分析和攻坚复杂的技术难题。 5.有公有云使用经验者优先。 6.有良好的服务意识、沟通能力和团队协作精神。 此岗位base深圳南京都可~
-
岗位职责: 1. 参与公司分布式实时计算引擎的开发设计工作,满足毫秒级延迟、百万级吞吐的处理要求。 2. 参与实时计算管理平台的开发设计工作,为公司提供统一的实时应用开发管理平台和服务,提升应用开发的效率,降低运维成本。 3. 参与公司核心实时业务系统的架构设计,包括实时推荐/实时报表/实时数据交换等核心业务。 任职资格 1.计算机相关专业硕士,3年以上大数据开发相关经关经验 2.要求熟悉Flink/Spark等分布式处理引擎,熟练使用kafka/rocketmq等消息中间件。 3. 精通java/scala等编程语言,精通数据结构和算法。 4. 对技术有热情,通过技术和团队合作来解决业务上的挑战。
-
30k-50k·15薪 经验3-5年 / 本科社交媒体 / 上市公司 / 2000人以上职位描述: 1. 负责微博搜索、智搜相关业务功能、策略算法、数据处理等开发工作; 2. 支持微博搜索、智搜相关相关模块,包括线上搜索引擎、语义搜索、搜索推荐、实时数据流、离线数据处理; 3. 参与搜索和智搜架构开发,包括对策略体系和架构体系的设计、开发、优化、调整,提升系统整体性能和可扩展性; 4. 负责搜索和智搜相关日志统计、大数据处理等用户行为分析工作,支持产品、业务、技术的规划和落地; 任职资格: 1. 熟练掌握如下程序开发技术之一,并有实际工作经验:linux下c\c++程序开发技术;linux下python程序开发技术;hive SQL;hive、hadoop、mr、spark等大数据工具; 2. 熟悉基础的数据结构和算法,程序设计开发中能够合理考虑性能问题,对系统架构设计有丰富的经验,能够给出合理的设计方案; 3. 有过搜索引擎、推荐、广告等相关系统设计、开发经验者优先; 4. 三年以上工作经验; 5. 良好的沟通能力,良好的团队合作精神;
-
岗位职责: 1.大数据新技术规划、调研、选型及推广落地。 2.负责大数据组件内核开发优化,推进组件容器化,进行组件二次开发与适配等工作。 3.日常负责大数据框架组件的性能优化,参与稳定性保障,异常监控及线上问题对接解决。 4.参与平台功能研发,支持提供业务系统化的解决方案。 任职标准: 1.至少6年以上相关经验,有扎实的计算机编程基础,精通java/scala,熟悉jvm的原理和调优。 2.熟悉spark/hive组件原理和应用,精通spark内核相关知识和技术,有较大规模RSS生产实施经验。 3.了解大数据行业趋势,熟悉Kubernetes/Docker,有组件容器化相关经验。 4.具备较强的问题解决能力,能独立分析和攻坚复杂的技术难题。 5.有AWS/GCP/阿里云等云平台使用经验者优先。 6.有良好的服务意识、沟通能力和团队协作精神。
-
岗位职责: 1.负责红旗车型项目车端数据埋点设计/开发、云端数据解析、数据管理体系建设 2.负责红旗车联网企业级数据中台的平台架构设计与建设,在平台内的数据的接入、解析、存储、服务、应用 3.负责红旗车型研发各领域内的数据分析、挖掘工作,为产品的设计、迭代提供数据支撑 4.负责红旗各车型车载DMS/OMS产品的自主算法开发、算法集成、产品测试 5.负责车载语音前端降噪、语音识别、自然语言处理、语音合成等算法设计、开发、测试集成 6.主导AI大数据研究与业务开发、技术选型、风险把控、关键节点评审 7.促进团队技术进步与创新,参与公司技术研发体系的搭建 任职要求: 1.学历要求:**大学本科及以上学历,英语CET-4及以上 2.工作经验:具有6年及以上车联网/大数据/算法开发领域工作经验,特别优秀者可适当放宽 3.其他: ① 计算机、数学类、信息技术类、模式识别、车辆工程等相关专业优先 ② 至少具备其中2项技术栈: 1) 掌握C++,Python、SQL等编程语言,熟悉Linux开发环境 2) 熟悉Tensorflow或Pytorch至少一个深度学习框架 3) 熟悉Hadoop、Hive、Spark、Flink、Kafka等大数据技术使用经验 4) 熟悉MQTT、HTTP、Websocket等物联网协议,具备车载嵌入式开发经验优先 ③ 良好的团队合作精神和沟通能力,善于学习新知识,主动性强,有责任心 ④ 有相关汽车领域工作经验者优先
-
高级组长(需要管理经验): 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备5年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。 高级骨干: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备5年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。
-
职位职责: 1、负责大数据方向相关数据内容,数据产品的测试和质量保障; 2、根据需求文档、设计文档分析测试点、确定测试范围、制定测试方案和策略、编写测试计划及用例; 3、根据业务逻辑编写测试SQL脚本,独立完成项目中数据指标,服务的测试,保证数据质量和稳定性; 4、负责规划、设计、实施监控每日数据产品的质量情况,提前检测发现数据的异常; 5、编写自动化测试脚本提升测试效率。 职位要求: 1、计算机及软件相关专业本科以上学历; 2、3年以上大数据相关平台、产品、应用测试经验, 有Hadoop、hbsae、Oracle等大规模数据监控,处理测试经验者优先; 3、精通一门脚本语言,Python 或 shell,解决复杂问题和编写自动测试工具和系统的能力; 4、熟悉常见软件测试流程、方法、系统,有敏捷团队经验者尤佳; 5、参与测试效果评估和软件质量核查,通过测试相关流程、策略、方法和工具等创新,提升测试的质量和效率; 6、对互联网质量保证领域有强烈的兴趣,有互联网或数据测试开发经验优先; 7、有性能、安全、白盒测试等专业测试领域经验者优先,能主动进行技术钻研; 8、性格开朗乐观,积极主动,善于沟通,具有很强团队协作能力。
-
工作职责: 1、负责集团数据管理体系的规划及建设,从整个体系流程、制度、工具、平台等所有能力上保障公司数据相关工作的稳定、安全、可靠、合规。 2、负责现有大数据工具平台的规划建设、架构设计,并在工作中根据业务发展不断提升团队、平台的水平和效率。 3、基于数据驱动,统筹公司级数据产品、数据治理和数据资产管理等相关工作,为业务提供数据价值。 4、负责团队部门的日常技术管理工作以及部门人员的统筹规划,加强团队成员培养和技能提升。 5、深入了解业务,对平台酒店、零售大数据进行分析,寻找潜在的生意机会,并实现新增收益; 岗位要求: 1、**本科及以上学历,985/211学历,计算机/软件工程相关专业毕业,至少5年以上大数据管理经验; 2、熟练掌握数据体系建设的各个环节,深入理解数据质量管理、数据标准管理、企业级数据建模、主数据管理等方法。 3、熟悉大数据生态Hadoop、Hive、HBase、Spark、Storm、Flink等开源平台。 4、具备数据方案和架构设计能力-非PPT架构。 5、具有较强的技术管理能力与实践经验。
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
-
岗位职责: 1.深入理解业务,根据业务进行数据建模并实施建设业务数仓; 2.参与数据相关项目的架构设计、需求评审、技术攻坚及优化; 3.负责企业级大数据平台的研发工作;包括数据存储、数据集成、数据开发、数据资产、数据治理等; 4.负责建立数据领域的研发管理、代码开发、质量安全等相关标准规范并推广实施; 5.跨团队/部门协作,系统分析并解决各类大数据平台相关的运行或数据问题;参与数据平台产品的日常运维和技术支持工作。 岗位要求: 1.计算机、数学、统计、数据挖掘等相关专业,***大学本科及以上学历,3年以上大数据分析与挖掘项目经验; 2.精通java/python/php等至少一种开发语言; 3.深入理解hadoop生态圈,精通Hive、Spark、Flink、Presto、Airflow、Clickhouse、Elasticsearch、Kafka、Flume等常用大数据组件; 4.精通Hive SQL或Spark-sql,可根据业务对SQL进行梳理优化; 5.精通数据仓库生命周期及各类建模理论,对数据分析、挖掘、建模及数据质量监控有实际的项目经验者; 6.任心强,有担当,有良好的编码习惯,遵守团队开发规范和代码规范,良好的逻辑思维能力,具有很强的分析问题和解决问题的能力、团队协作能力和沟通能力; 7.有企业级大数据应用项目经验优先。