-
职位职责: 1、参与海量的数据资源处理与整合,服务隐私与安全等多种场景应用; 2、基于Hive/Flink等平台建设离线数据仓库,实时数仓; 3、善于理解并合理抽象业务需求,发挥数据价值,精通数据分析和数据模型开发的技术解决方案; 4、不断创新,推动建设画像平台,血缘平台等数据基建,持续扩展平台的支撑场景和应用范围。 职位要求: 1、熟悉多项大数据处理/分析相关的工具/框架,e.g. Hadoop、Mapreduce、 Hive、Storm、Spark、 Flink etc; 2、熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 3、优秀的理解沟通能力,能快速理解业务背景,强的业务和数据理解能力,对数据敏感,崇尚数据说话,深信数据在驱动业务、支撑决策上的价值; 4、具备扎实的数据结构和算法基础,熟悉至少一门编程语言,包括但不限于Java、Python、Go等; 5、对新技术有强烈的学习热情,了解业界技术发展动向; 加分项: 1、参与过画像平台、数据血缘、特征工程等数据建设; 2、对隐私合规领域有相关经验。
-
职位职责: 1、负责网络基础业务的数据开发、数仓建模工作; 2、负责网络基础业务的数据分析、挖掘工作; 3、参与网络基础数据治理工作,提升数据易用性与数据质量; 4、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、本科及以上学历,计算机、通信、统计、数学等相关专业; 2、熟悉 Hive/Spark/Flink 等分布式计算框架,熟悉大数据的离线和实时处理技术; 3、熟悉常用的数据建模理论,可独立把控数据仓库的各层级设计; 4、有丰富的数据开发经验,对数据处理、数据建模、数据治理等有深刻认识和实战经验; 5、具有优秀的逻辑思维能力、很强的数据分析和解决问题能力; 6、有数据中心网络业务背景者优先。
-
岗位职责: 1.负责公司管理数据中心的设计与开发,确保数据的准确性、完整性和可用性。 2.负责数据ETL流程的开发和维护,确保数据的及时更新和准确性。 3.与数据分析师、业务团队紧密合作,理解业务需求,提供数据支持。 4.监控数据平台性能,及时发现并解决潜在问题,保证系统的稳定性和可靠性。 5.参与数据治理工作,确保数据质量和安全。 任职要求: 1.计算机科学、信息技术或相关专业硕士及以上学历。 2.3年以上数据开发相关工作经验。精通SQL,熟悉至少一种数据处理和编程语言,如Python、Java等。 3.熟悉大数据技术栈,如Hadoop、Spark等,有相关开发经验者优先。 4.具备良好的业务理解能力,能够独立分析和解决问题。 5.具有良好的团队合作精神和沟通能力,能够适应快节奏的工作环境。
-
岗位职责: 1、负责大数据设备部署、hadoop、MPPDB等常见商用平台的搭建、应用以及运维; 2、负责海量数据下精准营销平台流计算、实时计算的设计开发; 3、负责海量数据下可视化模块开发,依据业务需求和方案开发可视化品; 4、负责海量用户行为分析和预测,以及专家模型、分布式算法模型在精准营销方面的实现和应用等。 任职条件: 1、大学本科及以上学历,计算机、金融科技、应用数学、人工智能等相关专业,具有3年以上大数据相关工作经验; 2、精通至少一种编程语言,Java、Scala、Python; 3、熟悉hadoop、mppdb、hive、hbase、zookeeper、hue等中的多个,或者有相关工作经验优先; 4、熟悉spark streaming、storm、flink、redis、es中的多个,或者有相关工作经验优先; 5、熟悉spark mllib/GraphX、图计算、mahout中的多个,或者有相关工作经验优先; 6、具备数据挖掘、数据分析、机器学习知识背景,拥有反欺诈系统、推荐系统、精准营销、信息检索等方面的工作经验优先。
-
工作职责: 1、负责公司级的通用数据平台和分析型产品数据建设 2、面向PB级超大规模数据问题,每天处理千亿增量的用户行为数据; 3、为大数据的全生命周期提供服务,覆盖数据产生,传输,建模,统计分析,实验评估,可视化的全流程; 4、负责流量线数据建设。包括埋点,流量分流实时数仓,离线数仓的建设。保障业务需求承接,数据质量,稳定性。有流量策略,流量平台建设经验优先。 工作要求: 1. 本科及以上学历,3年及以上大数据开发经验,丰富的实时或离线数据体系建设经验。 2. 熟悉Spark/Hadoop/Flink/ES/ClickHouse/Doris等大数据生态技术栈,具备海量数据开发和调优能力 3. 掌握数据仓库、ETL开发相关技术; 4. 熟悉Java、Scala、Python等开发语言中的一种或几种 5. 很强的学习、分析和解决问题能力,良好的团队意识和协作精神,有较强的沟通能力。
-
岗位职责: 1. 大数据组件开发。 2. 基于Python 体系下的数据质量引擎开发; 3. 基于Java及Linkis开源框架的质量引擎开发; 4. 大数据资产应用的开发、部署、调优; 5. 数据稽核引擎开发,数据共享交换能力对接。 任职要求: 1. 本科及以上学历,计算机相关专业; 2. 3年以上互联网或软件行业工作经验,熟悉Linux环境;熟悉Linux和Python开发; 3. 熟悉Spring,Spring boot,Spring Cloud等框架、熟悉Eclipse或IntelliJ IDEA开发工具等使用 以下满足其一即可: 4. 熟悉Hadoop,MapReduce,Hbase,Flink等大数据部署、运维、开发; 5. 熟悉数据治理理论概念、架构,有元数据、数据质量、数据标准、主数据等相关数据治理经验; 6. 有分布式相关项目(分布式存储/分布式计算/高性能并行计算/分布式cache)经验; 7. 对数据库的架构、扩展特点非常熟悉,能熟练进行SQL优化、集群部署、数据同步等。
-
岗位职责: 负责大数据平台的技术方案设计、推动大数据平台的架构落地并持续完善、同时负责信贷大数据相关应用的开发及实施 岗位要求: 1)本科及以上学历,5年以上相关工作经验,35周岁以下,XX大学XX学院若写成XX大学视为简历造假; 2)具备DW/BI架构体系的建设经历并熟悉Hadoop生态圈; 3)熟悉了解shell、java、python、sql等计算机技术知识,具备极强的数据挖掘和分析能力。 4)具备金融或科技行业大数据项目开发经验者优先。
-
工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
-
工作职责: 负责搜狐视频商业化的数据平台建设工作,包括: 1.负责数据平台、数据治理系统设计与搭建; 2.负责数据仓库建设、ETL开发、工作流任务优化以及解决相关技术问题; 3.负责行为日志、推荐策略和商业广告数据业务需求对接、数据分析与任务开发。 职位要求: 1.**本科及以上学历,计算机或相关专业优先;3年以上大数据开发、数据分析与处理经验,熟悉互联网产品运营和商业业务; 2.精通Scala/Java语言开发,熟悉Shell、Python等脚本开发,熟悉Linux系统; 3.熟悉大数据生态,精通Hadoop、Kafka、Spark、Flink技术,完成离线或实时大数据仓库设计与开发; 4.掌握数据建模理论,精通SQL开发与性能调优,熟练使用Hive、Doris等数据库组件; 5.有大型数据平台实际建设经验,在数据采集、数据开发、数据分析、数据建模等方面有深刻认识和实践经验; 6.有复杂业务系统的抽象设计能力,能独立对接业务需求和解决业务与技术问题; 7.具有良好的逻辑思维、表达和沟通能力,具备良好的团队合作精神,有较强的承压能力和工作责任心。
-
任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
-
工作内容: 1、负责公司大数据平台的开发、调优以及日常管理维护工作; 2、负责Hadoop生态圈的建设和兼顾日常数据采集、管理维护和监控; 3、能够独立或参与需求文档、设计文档的编写,满足质量要求。 任职要求: 1、本科或以上学历,计算机相关专业,2年以上大数据项目开发经验; 2、具有Hadoop/Spark开发与应用经验,有较大规模的项目经历; 3、熟悉hbase、hive、spark、kafka、flink等相关工具,有实际的项目经验; 4、熟悉java,熟练使用python, shell等脚本语言,有基于Hadoop平台开发经验者优先。
-
岗位职责 1、设计、开发和维护企业级大数据平台和解决方案,包括数据采集、数据存储、数据处理和数据分析等。 2、使用Flink等流式计算引擎,实现实时数据处理和流式分析,提供实时的业务洞察和决策支持。 3、针对OLAP需求,设计和实现数据立方体、多维数据模型和数据聚合查询,以支持复杂的联机分析处理。 4、编写高效且可扩展的大数据处理和分析代码,提高数据处理和分析的效率和质量。 5、与数据科学团队合作,开发和实现数据处理和分析的需求和解决方案。 6、进行数据模型设计和数据架构优化,提高数据存储和计算的性能和可扩展性。 7、负责数据质量和数据安全的管理和监控,确保数据的合规性和机密性。 8、研究和探索新的大数据技术和解决方案,以不断提高大数据处理和分析的效率和质量。 9、建立和维护技术文档和标准,确保大数据开发的规范和一致性。 任职要求 1、本科及以上学历,计算机科学、软件工程或相关领域。 2、3年以上大数据开发经验,熟悉大数据技术栈和工具,如Hadoop、Spark、Kafka、Hive等。 3、熟悉流式计算引擎Flink,具备在实时数据处理和流式分析方面的经验。 4、了解OLAP(联机分析处理)的概念和技术,具备数据立方体和多维数据模型的设计和开发经验。 5、熟练掌握编程语言,如Java、Python或Scala,具备良好的编码和调试能力。 6、熟悉大数据处理和分析的各种技术和工具,如数据流处理、批处理、数据仓库等。 7、具备良好的数据库和SQL技能,熟悉关系型数据库和NoSQL数据库。 8、具备良好的沟通和团队合作能力,能够与不同背景和专业的人合作,解决技术和业务问题。 9、具备较强的学习能力和自我驱动能力,热爱技术研究和创新。 10、有较好的英文阅读和写作能力,能够阅读和编写英文技术文档。 必备条件 1、在Flink和流式计算领域有深入的研究和实践经验。 2、在OLAP(联机分析处理)领域有相关项目经验。 3、有大数据架构设计和优化经验,能够提供有效的解决方案和建议。 4、具备数据挖掘和机器学习的基础知识和经验。
-
岗位职责: 1、负责私域电商业务的离线和实时数据仓库建设,搭建和完善各业务模块的数据指标和报表体系; 2、负责私域电商业务相关的数据分析工作,配合数据产品经理,进行产品和运营核心策略的分析建模; 并协助搭建用户画像体系; 3、跨团队沟通和协作,确保项目顺利推进。 岗位要求: 1、2年及以上大数据项目架构/开发/调优经验,具有电商行业数据平台数据架构和开发工作经验优先; 2、熟悉数据治理、数据质量管理体系,有实际业务落地经验优先; 3、熟悉常见的算法和数据结构,熟练设计数据模型、ETL设计、Cube多维建模、OLAP开发等; 4、熟练使用大数据处理框架(Hadoop/Hive/Spark/Kylin)相关技术; 5、熟悉流式计算引擎,对相关框架(Kafka/Storm/SparkStreaming/Flink)熟悉了解,有实际应用经验优先; 6、熟悉Linux/Unix系统,精通至少一门编程语言PHP/Python/Java等;熟悉TDW优先; 7、沟通主动,有较强的工作激情和抗压能力,能组织协同团队开发
-
岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等; 技能要求: 1.计算机相关专业本科及以上学历 ; 2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构; 4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
-
岗位职责 1、负责Finereport报表开发; 2、负责Finereport与外部系统的接口交互开发; 3、依据开发详细设计,负责数据仓库报表设计,报表设计代码开发; 4、负责帆软PC端、移动端报表产品的开发、调优、测试与上线、发版工作; 5、配合上级进行技术决策,进行技术风险评估,确保报表产品稳定性强、响应性能优秀、用户体验友好; 任职条件 1、计算机、电子信息学科相关专业,大学本科及以上学历;5年以上帆软报表开发经验; 2、精通Fine Report,FineBI产品设计,熟悉帆软报表产品的性能调优,有移动端报表开发经验和有FCRP证书者优先; 3、熟练运用ETL工具,了解各种ETL工具的优缺点,依据需求合理选择ETL工具; 4、具有报表平台以及服务器的运维技能; 5、熟练使用SqlServer,MySql等关系数据库,有SQL优化经验,会编写复杂的存储过程和自定义方法; 6、逻辑思维能力较强,具有良好的学习能力、团队协作能力和沟通能力; 7、能够积极创新,乐于面对挑战,负责敬业,具有高度的责任心及团队精神,执行力强; 8、有软件开发经验优先;