-
工作职责: 1、负责基于业务和数据的理解,搭建企业级数仓模型体系,构建离线数据模型; 2、负责构建各业务主题及用户主题,并合理抽象不同业务,做较通用和系统性的支持; 3、负责制定统一的数据规范,维护数据字典,负责数据质量及元数据的监控,提升数据资产质量; 4、负责不断探索行业数仓解决方案,提升数仓服务能力; 5、领导交办的其他工作。 任职资格: 1、***硕士研究生及以上学历,经济、金融、财务、管理、法学、统计、计算机、信息管理、自动化、工程管理、数学等相关专业,具备1年以上相关岗位工作经验者学历可适当放宽专业要求学历可放宽至***本科,年龄不超过35岁; 2、精通至少一种数据分析语言,如SQL; 3、良好的业务理解能力,能快速将业务问题转化成数据开发; 4、通过证券从业资格考试; 5、具有高度的责任心和良好的团队合作精神,工作积极主动、有韧性,能够适应较强的工作强度和工作压力。
-
1、具备从事常态化数据提取、统计、清理、分析等工作,支撑整个运营体系朝精细化方向发展; 2、具备结合业务数据的理解进行深入分析,挖掘目标数据进行数据画像,并输出专项分析结果并给予建议辅助涉及数据应用业务场景并持续改进; 3、具备一定的数据分析能力,了解常见的统计、机器学习算法模型,有丰富的数据分析、挖掘、清洗和建模的经验; 4、根据业务侧需求进行数仓模型设计并进行PB级别的数据作业开发 5、参与公司日常调度任务的监控和数据质量的监控 6、参与公司数仓建设的设计与优化,代码优化等 7、承担大数据服务组件的维护,能持续优化现有技术,提供优质服务体验
-
【岗位职责】 1、参与广告业务平台的数据治理工作; 2、负责业务数据问题处理,离线任务数据统计; 3、 负责广告平台数仓建设,包括数据采集,基于 hive、spark、flinksql 作业开发,任务调度; 【任职要求】 1、本科及以上学历,计算机相关专业毕业,5年以上大数据开发经验, 能够熟练使用 Java 语言编程,具有良好的编程习惯,熟悉 Linux 系统的使用和常用命令、熟悉 Shell 脚本的编写; 2、熟悉 Hadoop 框架、Hadoop 集群的搭建、HDFS 读写过程、shuffle 工作机制、Yarn 的运行机制、Yarn 调度器、SecondaryNameNode 工作机制、Hadoop 的优化、数据倾斜问题的解决; 3、熟悉 Hive 架构,Hive 数仓建模、Hql、窗口函数、系统时间函数、复杂集合类型的使用和 Hive 的优化; 4、熟悉 Flume 日志采集系统框架的搭建、Flume 架构的组成,掌握自定义 Flume 拦截器、两种 Selector 的使用、Flume 监控器、FileChannel 的优化、HDFS Sink 小文件的处理; 5、掌握 Flink DataStream API 和 FlinkTableAPI 的使用,熟悉 Flink 基本架构和工作原理、开窗、EventTime、Ingestion Time、ProcessingTime 的使用场景、WaterMark 工作原理、Flink 状态管理编程、Flink 状态一致性 和检查点的使用、了解 ExactlyOnce 语义的原理,理解 Flink CEP; 6、熟练使用 Azkaban、DolphinsSheduler 实现任务的调度,能够设置任务报警,了解基本调度原理; 7、熟悉 Zookeeper 的使用、了解 Zookeeper 底层选举算法机制、掌握常用的 Zookeeper 命令的使用;
-
职位描述: 1、根据业务需求,负责公司大数据分析相关业务的设计与开发,涉及数据处理的不同环节,包括:采集,存储,清洗等; 2、负责公司大数据平台数据的存储优化、维护及建模等工作; 3、支撑日常业务需求数据的提取及产品化。 职位要求: 1、本科及以上学历,计算机或者数学等相关专业毕业,2年以上工作经验对数据处理、数据分析等有深刻认识和实战经验; 2、熟悉Hive SQL语言,熟悉shell, python等脚本语言 3、有hadoop、spark、flink等大数据平台的使用经验 4、有数据仓库建设、商业数据分析、增长项目经验 5、java/scala至少熟练使用一种 6、熟练掌握Hadoop及Map-Reduce应用开发,熟练掌握HBase、Hive、spark等大数据开发工具 7、熟悉至少一种实时计算引擎 Storm, Spark Streaming, Flink, 对hadoop生态其他组件有一定了解,比如 HBase, hadoop, Hive等 8、熟悉Hadoop/Spark/Hive/HBase等大数据工具,主导过大型数据平台建设者优先; 9、思路清晰,具备良好的主动沟通能力和团队协作精神,能快速理解、消化各种需求,并落实为具体的开发工作; 10、有阿里云相关应用开发经验者优先。
-
该岗位外派到光大证券,地址在新闸路1508号静安总部2 楼,要求学信网本科学历,最好有证券行业经验,感兴趣欢迎投递简历 工作内容: 1、对新客户指标数据进行探查及分析 ,寻找新客户的可用指标或标签 ,协助进行模型 设计; 2、对客户行为进行分析 ,寻找可疑线索 ,协助进行可疑监测指标设计 ; 3、对同一客户相关数据的数据质量进行探查分析 ,并出具相关报告 ,协助设计可视化 产品; 4、全面风险涉及的业务树基础数据的探查和核实 ,协助进行相关方案的设计 ; 5、全面风险报告涉及的指标的探查和验证 ,协助进行指标相关方案的设计 ; 6、财富条线绩效等相关项目中指标和数据梳理 ,协助进行相关方案的设计 ; 7、上级交办的其他事项 。 任职要求: 1、掌握数据分析和建模工具 ,掌握SQL语言,掌握python或R语言,掌握BI工具; 2、熟悉证券公司业务和证券公司数据 ; 3、有过证券行业项目 (风险、反洗钱、营销等)经验优先; 4、具有较强数据处理和逻辑分析能力 ;具有较强的数据敏感性 ;工作积极主动,细致缜密,责任心 5、本科及以上学历 ,有三年以上开发工作经验
-
岗位职责 1.具有良好的编程习惯和文档撰写能力,有一定的架构设计和软件设计经验,具有独立研发和解决问题的能力; 2.协助业务方梳理业务需求,提供业务规划方案、提供架构设计方案,并能根据方案驱动上下游团队执行落地; 3.对系统稳定性和潜在问题高度敏感,主动发现潜在风险,并积极推动落地解决; 4.负责攻克高并发、高稳定性、海量数据处理、业务模型复杂等带来的各种挑战及技术难关; 任职要求 1.本科或以上学历,扎实的计算机专业基础,包括算法和数据结构,操作系统,计算机网络,计算机体系结构,数据库等; 2.JAVA 基础扎实,理解 IO 、多线程、集合等基础框架,对 JVM 原理和调优等有一定的了解和实践经验; 3.熟练掌握Spring/Spring Boot/Spring Cloud/MyBatis/MyBatis-plus等主流的开发框架以及常用的微服务组件,并对其核心思想、实现原理有一定认知; 4.熟练JAVA NIO编程,对Netty、Mina框架有过研究,并在实际项目中用到; 5.熟悉Linux系统和常见命令,熟练使用MySQL、Oracle等常用关系型数据库,熟悉SQL性能调优,具有优秀的数据建模能力和数据库分库分表设计能力; 6.熟练ElasticSearch、Lucene、Memcache、Redis、ShardingSphere、Apollo、RocketMQ等常用开源软件,有实际开发经验,掌握HTTP、TCP等协议,对性能调优、故障处理等有较强的分析和处理能力; 7.熟悉Spark、Kafka、Hbase、Hive、Clickhouse、Fink等大数据技术并且有大数据离线、实时处理相关经验者优先; 8.熟悉常用设计模式,有Docker,Kubernetes等技术相关使用经验者优先,有物流行业相关经验优先; 9.具备优秀的逻辑思维能力,善于分析问题和解决问题,注重代码质量,有良好的自我驱动能力,工作严谨,责任感强,有协作精神;
-
【岗位职责】 负责物流运输行业基于Hadoop、Spark等生态系统的大数据平台的搭建、开发、管理、监控和性能调优; 负责ETL、数据仓库的搭建及画像系统构建; 利用Hadoop、Spark等大数据技术对海量数据进行预处理,支持预测模型、算法等工程化实现; 负责BI分析、数据统计分析、流式计算 【职位要求】 计算机相关专业,**本科或以上学历,5年以上大数据相关工作经验; 熟悉Linux系统,熟练掌握Scala、Java语言,良好的编程习惯; 熟练使用Hadoop生态圈主流技术和产品,如HBase、Hive、Flink、Spark,Kafka,Zookeeper、Yarn等,对Spark分布式计算的底层原理有深度理解; 熟悉ETL全流程,包括任务调度; 熟练掌握数据仓库设计、数据开发工作,能够根据业务设计并开发数据仓库; 【加分项】: 开源贡献者优先,Github项目优秀项目者; 了解机器学习、深度学习、运筹优化; 有过画像系统开发经验; 使用过DataSphereStudio、DolphinScheduler等工具; 熟悉Python,能进行数据爬取; 从事过供应链、物流等相关行业开发工作;
-
职位描述: 1.负责对接各个基础数据源:建立一套标准流程来清洗、转换原始标签数据;打通各数据源的标签并建立连接,如品牌标签 2.负责对接图像识别接口,整合处理各模型识别的服装标签数据 2.负责公司产品数据业务的流程设计、技术研发,以及推动数据上线和不断迭代优化 职位要求: 1.本科以上学历,至少1年以上数据处理经验 2.精通python、pandas,有良好的代码风格 3.熟悉mysql、redis等数据库,有一定性能优化经验 3.有很强的业务系统架构和设计经验 4.有docker、k8s使用经验者优先
-
岗位职责及要求: 1、本科及以上学历,3年以上数据平台或数据仓库开发经验; 2、熟练掌握Java、Scala、Golang中的至少一种开发语言,熟悉Python和Shell开发; 3、熟练掌握SQL,掌握SQL优化技巧,具备复杂SQL的调优能力; 4、熟练使用HDFS、Hive,Spark,Flink,HBase,Kafka等分布式计算系统 5、具备数据研发工具(数据抽取、数据加工、数据资产管理等)使用经验,如阿里云的dataworks/dataphin或行业同类型的工具产品; 6、具备to B项目服务经验,能接受一定程度的出差; 7、熟悉数据仓库层次模型和数据集市理论,有TB级数据仓库使用经验优先; 8、熟悉Doris、Greenplum、ClickHouse等MPP数据库及其性能优化优先; 9、较好的业务理解、洞察和沟通能力,熟悉烟草、电力行业业务优先; 10、具备数据团队管理经验优先;
-
1. 实现国家重点项目中的数据采集、传输、存储、计算、分析、可视化、数据治理等产品; 2. 参与大数据AI系统的数据中台设计和研发工作,为知识图谱、人物建模、搜索推荐提供高质量数据、灵活可扩展的处理流程以及直观易用的数据界面; 3. 全球多语言技术数据的抓取/补全; 4. 数据正确性/完整性自动化检查; 5. 自动抓取入库流程框架开发; 6. 数据统计框架开发; 7. 数据文档撰写。 【岗位要求】 1. 本科及以上学历,计算机/数学相关方向专业,3年以上工作经验; 2. 熟悉至少一种图数据库操作;有知识图谱、数据中台研发经验者优先; 3. 编程能力过硬,掌握至少一门强类型后端语言,如java、golang等; 4. 熟悉一种或多种主流开源大数据平台组件,如Flume、Kafka、Hadoop、Hive、Spark、Flink等; 5. 有公有云大数据平台产品研发经验优先; 6. 有数据清洗、数据处理、数据自动化监测经历优先; 7. 良好的团队合作, 较强的沟通能力、学习能力,对解决具有挑战性问题充满激情; 8. 具有较强的分析和解决问题的能力,具备较强的问题和业务抽象能力。
-
1. 负责大数据相关平台的搭建、开发、维护、优化; 2. 负责大数据相关推荐系统/广告系统的研发,相关算法研发; 3. 负责数据ETL开发; 4. 负责数据处理、数据建模、模型选取与优化、模型验证等工作; 5. 负责实现与支持业务部门的数据分析需求。 职位要求: 1. 计算机、电子及相关专业,硕士以上学历; 2. 4年及以上开发经验,2年及以上大数据系统研发经验; 3. 熟悉并掌握大数据生态相关组件(Hadoop生态、Spark、Flink、Airflow等); 4. ETL流程设计能力;数据挖掘及建模能力; 5. 扎实的编程能力,熟练掌握 Java/Scala/Python等编程语言中的一种; 6. 工作积极主动,出色的沟通能力,责任心强,具备良好的团队合作精神,较强的分析问题、解决问题的能力; 7. 流利的英语沟通和书写能力; 8. 有互联网行业工作经验优先; 加分项: 1. 推荐系统 / 广告系统 工作经验; 2. 机器学习相关背景和经验; 3. 创新能力,专利/论文等; 公司介绍: 三星电子中国研究院是三星电子在华投资设立的具有独立法人资格的研发机构,是具备博士后工作站运营资质、聚集了600人研发团队,并由国家批准认定的软件企业。研究院专注于人工智能、5G/6G通信技术研究和标准化等前沿技术,也积极进行商用化的开发、推动先进技术在三星产品中的商用化落地,提升三星电子产品的竞争力。 新时代,新机遇。三星电子中国研究院希望把握人工智能、5G/6G与IoT技术发展的时代机遇,凝聚海内外计算机、电子及通信领域的优秀人才,坚守“做中国人民喜爱的企业,贡献于中国社会的企业”的承诺,与您一起携手共赢、创造未来! 真诚欢迎您的加入! ※ 请应聘者在应聘过程中对现公司、 前公司的商业秘密进行保密 ※ 请应聘者确认您投递的简历不包含现公司、前公司的商业秘密
-
岗位职责 1. 参与公司数据仓库的建设,包括数据建模、数据仓库设计的实现和维护; 2. 负责重点业务的数据支持,指标体系建设,构建数据分析体系和数据集市; 3. 基于数据的一致性、时效性、准确性的要求不断提高数据仓库的质量; 4. 负责各类分析报表和BI产品的数据仓库建设支持; 5. 负责数据平台建设,提供数据接口。 岗位要求 1. 本科及以上学历,3年及以上工作经验,深入理解常用的数据建模理论,有数据仓库建设和数据治理的相关经验; 2. 熟练使用SQL实现海量数据ETL加工处理,有离线或实时计算开发经验; 3. 熟悉以下一种或多种开发语言,Java、scala、Python、Shell: 4. 熟悉hive、spark、flink、clickhouse、impala、hbase、tidb、dolphinschedeler等一种或多种技术,熟悉emr、oceanus优先; 5. 熟悉Java开发以及Spring/Springmvc/Mybatis等技术框架优先。
-
1.**学历,学信可查 2.六年以上工作经验 3.熟悉flink、spark、hive 4.有银行经验为加分项
-
1. 负责数据仓库及BI项目的系统与业务系统的接口设计和确认工作; 2. 协助设计数据仓库的模型结构、ETL流程及mapping逻辑;负责应用分析模块的模型和展现设计 3. 实现大数据分析计算需求,支持海量数据挖掘 任职资格: 1. 精通至少一种主流关系数据库,精通SQL编程; 2. 2年以上大数据相关工作经验,熟悉Hive/Spark/Flink/PG以及云数仓Maxcompute中的一种或多种 3. 熟悉主流数仓建模理论,2年以上DW/BI项目实施和开发经验; 4. 具备良好的数据分析能力和学习能力; 5. 有金融数据仓库、数据挖掘、互联网行业项目经验优先。
-
工作职责: 1、深入理解数据,基于海量数据,结合业务,建立、评估、持续优化数据模型; 2、构建优化标签体系建设,产出各类实体标签,并推动标签在指标统计、用户分析、客群扩展、智能营销等场景的落地,驱动业务增长; 3、统一数据标准,建立标签的评估机制和监控体系,持续改进标签的准确性、覆盖率、实时性等; 任职要求: 1、本科及以上学历,计算机相关专业,有从零到一搭建数据框架经验; 2、熟练掌握至少一种编程语言: Scala/Java/Python等,熟悉Linux系统及常用Shell命令; 3、熟练掌握常见的Hadoop、Hive、Spark、Presto、Flink等实时和离线大数据处理工具; 5. 熟悉用户画像/标签体系建立过程,有大规模用户画像/标签实践经验,用户画像/标签系统开发工作优先; 6. 良好的沟通表达能力和团队合作精神,有一定的组织协调能力,学习能力强有责任心,不断挑战自己。