-
岗位职责: 1. 负责数据库的管控平面的功能开发、平台运维和稳定性保障,为数据库的管控平面负责; 2. 参与包括RDS数据库的智能化管控平台研发及管理,包括数据库生产/释放、变配、账户管理、高可用、容灾、备份、审计、优化等一整套数据库生命周期管控及服务相关系统的研发工作; 3. 参与从用户侧到到后端资源侧,数据链路,控制链路,性能日志采集,审计,检索,分析等一整套分布式系统的研发,提供全球领先的数据库服务; 4. 利用云原生,基于K8S、Docker、云上ECS/神龙、云盘、VPC等云原生技术与数据库技术结合,给用户提供优质体验、高性价比、安全可靠、易用、高性能的云数据库服务。 5. 通过产品化、智能化方式管控阿里云和阿里巴巴经济体的大规模分布式实例集群,并支撑集团业务需求,为双十一等大促场景提供稳定,顺滑的体验。 能力要求: 1. 至少熟悉Java/Python/Go语言的一种或多种,理解该语言涉及的基础框架,对于使用过的框架能够了解其原理和机制; 2. 熟悉linux内核基本原理,常用工具和命令,较好的诊断调优技能; 3. 熟练掌握多线程等高并发系统编程和优化技能;熟悉分布式系统的设计和应用,熟悉分布式、缓存、消息等机制;能对分布式常用技术进行合理应用,解决问题; 4. 快速学习能力,较强的团队沟通和协作能力,较强的自我驱动能力; 5. 【加分】熟悉Kubernetes/OpenStack/CloudFoundry等开源云平台,熟悉Docker容器技术,熟悉Hadoop/Spark/Storm等数据分析平台,具有丰富经验或者深入研究过源码的优先; 6. 【加分】熟悉MySQL/SQLServer/PG等关系型数据库,熟悉RDS等开源数据库、队列产品,并了解其原理或有运维经验的优先; 7. 【加分】有大规模互联网产品研发经验,有云厂商IaaS或者PaaS产品开发或管控经验的优先; 8. 【加分】通过阿里云数据库ACA或ACP认证者优先考虑。
-
岗位职责: 负责数据库产品的产品测试工作 1. 负责数据库管控服务及管控核心API服务测试,数据库管控产品的功能是管理数据库服务的生命周期,保证数据库数据库服务的高可用, 2. 参与互联网软件产品测试的全流程,包括参与需求分析、设计评审,制定测试计划,设计和执行测试用例,进行缺陷跟踪定位,协助开发工程师解决问题等 3. 能够独立执行项目测试,包括制定测试计划,分配测试资源,构建测试环境,执行集成测试,回归测试等 4. 保证被测系统的质量,并通过测试流程和方法创新,努力提升研发的质量和效率 5. 对产品、流程提出持续性改进意见 能力要求: 1. 计算机或其他相关专业,本科及以上学历 2. 熟悉Java/Python/Go等至少一种编程语言 3. 至少2年以上软件开发、自动化测试工作经验 4. 有性能、安全、白盒测试、效能改进等专业测试领域经验者优先 5. 具备云数据库、网络、大数据处理、分布式系统等业务领域测试经验者优先 6. 熟悉Linux操作系统,具备大规模管控平台、运维平台研发经验者优先,具备可观测与 AIOps/MLOps/DataOps 开发经验者优先 7. 精通测试流程和测试用例设计方法,能主动进行技术钻研 8. 具备很强的逻辑思维能力和较高的分析、处理问题的能力 9. 善于团队合作,能够快速适应变化,以结果和行动为准则,努力追求成功
-
职位职责: 1、负责网络基础业务的数据开发、数仓建模工作; 2、负责网络基础业务的数据分析、挖掘工作; 3、参与网络基础数据治理工作,提升数据易用性与数据质量; 4、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、本科及以上学历,计算机、通信、统计、数学等相关专业; 2、熟悉 Hive/Spark/Flink 等分布式计算框架,熟悉大数据的离线和实时处理技术; 3、熟悉常用的数据建模理论,可独立把控数据仓库的各层级设计; 4、有丰富的数据开发经验,对数据处理、数据建模、数据治理等有深刻认识和实战经验; 5、具有优秀的逻辑思维能力、很强的数据分析和解决问题能力; 6、有数据中心网络业务背景者优先。
-
任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
-
职位描述 1.负责对公和对私客户中心(画像)的数据开发; 2.根据业务需求对客户中心数据进行逻辑加工; 3.在理解原加工逻辑的基础上,对已有系统的存储过程在新平台(ODPS)上进行重写,并对结果进行核对,保证翻译准确性; 4.在理解原加工逻辑的基础上,根据实际需求调整逻辑,对存储过程进行优化; 5.协助客户中心处理相关问题及编写汇报材料等。 职位条件 1.具有3年及以上系统开发经验,计算机、软件工程、通信、电子、信息、自动化、控制工程等相关专业; 2.熟悉MySQL、DB2等数据库及ETL过程,熟练使用SQL; 3.具有较好的规划、沟通、理解和抗压能力; 4.熟练使用QuickBI者优先;熟悉ODPS平台或MaxCompute者优先。
-
职位职责: 1、负责字节跳动抖音业务数据仓库的开发与优化; 2、基于Hive/Flink等平台建设数据仓库,实时数仓建设; 3、负责数据模型的设计,etl实施,etl性能优化以及相关技术问题的解决; 4、负责面向业务的olap,报表,数据提取工具等开发工作。 职位要求: 1、熟悉大数据相关技术:Kafka/Flink/Hadoop/Druid/HBase/Hive 等; 2、熟练使用 Java、Go、Python语言中的一种或者多种; 3、具备数据库系统理论知识,掌握主流数据库管理和应用,精通SQL; 4、了解统计以及数据挖掘、机器学习、人工智能技术,会使用关联分析、分类预测、聚类分析等常用分析方法; 5、有高性能分布式平台开发经验,有电商行业经验优先。
-
工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
-
工作职责: 1、参与自研数据库产品的研发。 2、负责核心模块的设计与编码。 3、项目相关设计开发文档的整理与编写。 4、与业务部门人员沟通,协助完成产品需求分析与设计。 5、配合测试工程师进行系统测试,解决bug。 6、新技术调研,可用性分析。 职位要求: 1、本科及以上学历,3年以上linux下c/c++软件开发经验,编程基础良好。 2、熟悉linux下进程间通信,线程,socket等编程概念。 3、熟悉PostgreSQL、MySQL、Oracle等数据库内核原理,熟练使用SQL语句。 4、熟悉至少一种源代码管理系统。 5、良好的团队合作精神和沟通协调能力,良好的学习能力和理解能力,可以书写和阅读技术文档。 6、有较强的分析和解决问题能力,能独立面对一些困难和挑战,责任心强,并能够承受工作压力。
-
岗位职责: 1. 负责大数据实时、离线、异构数据的同步和传输生态的研发,提供灵活高效的接入能力; 2. 负责大数据接入组件的性能、效率、稳定性分析与优化。 任职要求: 1. 熟悉Flume/DataX/Logkit/Kafka等大数据接入技术和相关组件,有1年以上大数据接入研发经验; 2. 具备扎实的计算机基础,熟悉分布式系统研发,有云原生技术经验优先; 3. 精通Java/Scala研发语言,具有良好的编程研发能力; 4. 能够深刻理解业务,善于利用技术实现相关业务价值;
-
职位描述 1.服务全行数字化改革,推进全行公共基础数据建设,包括监管报送、财务、风险等专项集市和零售、对公、小企业、同业等领域主题集市建设; 2.推动数据中台内数据的时效性提升、口径及时更新,保证数据准确; 3.负责对接行内上下游系统,协助行内业务部门开发,调整数据集市模型底层逻辑,优化存储过程和数据处理逻辑等; 4.编写相关应用系统的各类技术文档; 5.参与各类项目投产实施、生产维护等。 职位条件 1.3年及以上数据开发经验; 2.精通数据仓库各类建模理论,以及数据仓库数据层级关系;熟悉业界主流数据仓库模型设计方案,有丰富的分布式计算平台模型架构经验; 3.熟练使用SQL语言,至少掌握一种主流关系型数据库的日常操作,如MySQL、Oracle、DB2等,熟悉主流的Key-Value存储系统; 4.熟悉Linux操作系统,了解分布式应用部署环境,以及svn、eclipse、maven等工具使用; 5.了解分布式数据库的原理和特点,熟悉Postgre、ODPS者优先。
-
岗位职责: 1. 深入理解公司的核心业务,为决策层评估业务价值、进行业务决策等提供数据支撑; 2. 数据研发:负责跨境电商的各类数据体系建设,包括市场数据、运营、供应链、财务等,参与数据治理并沉淀业务数据资产; 3. 数据挖掘:基于海量数据日志,结合业务场景挖掘数据价值,指导产品迭代。 任职要求: 1. 3年以上数仓建设经验; 2. 对hadoop、hive、阿里云maxcompute等大数据系统深入理解; 3. 有JAVA基础,具备UDF及接口服务相关开发经验; 4. 有flink、spark等实时数据架构经验加分; 5. 有类olap,clickhouse、druid、时序数据等相关经验加分。 公司福利: 1、工作弹性打卡(30分钟区间),环境优雅舒适,提供下午茶及丰富的团建旅游活动 2、入职缴纳六险一金,公积金缴存比例12%,试用期全额薪酬,表现优异可提前转正 3、专职导师带教,配备顾问团队提供专职技能与管理培训,关注每一位员工的成长 4、 年度按季提供4次调薪机会,始终保持高效、平等、坦诚、透明的工作文化 5、按需提供交通、租房、团建等多项补贴,部分岗位配备苹果Macbook air,入职即享
-
1、熟悉掌握Mysql、DB2、Oracle或者Sqlserver等数据库之一; 2、熟悉掌握大数据平台hiveCDH或者阿里云MaxCompute等平台之一 3、熟悉掌握SQL、SPARK语言,写过大量数据处理脚本或者存储过程,懂得进行SQL语句调优。 4、熟悉银行相关业务,做过银行数据仓库或者公司数据集市、零售数据集市、反洗钱数据集市或者EAST等监管报送数据集市项目。 5.学信网可查本科,工作年限3年以上。
-
岗位职责: 1、 负责数据产品需求分析、数据建模,主导完成相关设计及编码; 2、 完善现有数据产品,优化现有产品数据体系; 3、 深入理解业务需求,能从数据角度推动业务发展,开发相应数据产品及工具。 岗位要求 1. 计算机、数据等相关专业本科以上学历; 2. 熟悉数据仓库和数据集市的框架结构,具备数据仓库与数据集市的架构设计能力; 3. 熟悉SQL,熟悉Oracle、MySQL等关系型数据库的优先; 4. 熟悉HiveSQL/MapReduce/Spark等数据开发技术; 5. 有一定的Java/python开发能力,熟悉linux/Shell的优先; 6. 对实时flink一定基础的优先; 7. 沟通与交流能力强,业务理解能力强,具有一定的业务建模能力的优先; 8.实习4个月以上,每周出勤至少4天。
-
岗位职责: 1、负责数据安全平台产品开发及其相关实时/离线数仓体系建设; 2、负责数安平台产品开发与系统设计工作,包括需求分析、设计编码、测试运维、文档撰写、技术支持等; 3、负责攻克平台技术难题、对突发问题及时响应并解决。 任职要求: 1、精通Java语言,有强悍的ownership及trouble-shooting能力,对netty,juc,jvm,io模型等有较深理解; 2、乐于挑战没有明显答案的问题,对新技术有强烈的学习热情,有PB级别数据处理经验加分; 3、有low latency(包括spark-streaming、flink、kafka等)实时流处理经验,有实时数仓开发经验者优先; 4、精通Linux文件系统、内核、Linux性能调优、TCP/IP、DNS、HTTP等协议,有良好的网络方面的知识储备; 5、精通starrocks、es相关技术,具有丰富的开发、性能优化实战经验; 6、熟悉Spring、SpringBoot、SpringCloud、mybatis等开源框架,热爱开源技术; 7、精通Pg、Mysql等关系型数据库的使用,熟练掌握SQL语句,熟悉数据库设计与性能调优; 8、有python开发经验者优先考虑;大数据开发经验者优先考虑; 9、熟悉k8s、微服务概念者优先考虑;参与过网络安全项目者优先考虑。
-
工作职责: 1)、数据ETL工作; 2)、参与数据产品设计工作:数据分析挖掘:与医疗业务专家配合,承担数据仓库构建、模型构建、数据标签、知识库、画像分析等相关数据产品等设计工作; 3)、数据挖掘分析工作; 4)、数据产品研发工作。 任职要求: 1)、具有深厚的统计学、数据挖掘等相关知识,熟悉数据仓库和数据挖掘的相关技术,精通建模方法并有过独立的建模实践; 2)、熟悉软件产品研发流程:精通SAS,R,SPSS等统计分析软件,具有海量数据挖掘、分析相关项目实施经验,参加过完整的数据挖掘项目并有成功案例; 3)、精通Kettle、pentaho等工具的使用或开发; 4)、熟悉Python、TIDB、关系型数据库、大数据Hadoop生态编程及数据库操作者优先录用。