-
工作职责 1. 数据面性能测试工具(spate)研发; 2. LR-GW 研发; 3. EP-GW 研发; 4. L4LB-GW 研发。 任职要求 1. 熟悉Linux操作系统下C/C++开发,能运行常见工具定位调试问题代码; 2. 熟悉Linux内核网络协议栈,有内核开发经验; 3. 熟悉路由器/交换机工作原理,熟悉NAT、VPN、负载均衡、SDN、NFV、Overlay等网络技术; 4. 熟悉Openstack/Cloudstack等云平台,有OVS/OVS-DPDK等开发经验者优先; 5. 熟悉DPDK、VPP等,有用户态协议栈开发经验者优先; 6. 良好的沟通与团队协作能力。
-
职位职责: 1、参与字节跳动搜索业务离线和实时数据仓库建设工作; 2、参与数据ETL流程的优化并解决海量数据ETL相关技术问题; 3、参与复杂数据链路依赖和多元数据内容生态下的数据治理工作; 4、背靠字节跳动强大的中台架构和产品体系,在业务快速落地数据解决方案。 职位要求: 1、精通数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、具备较强的编码能力,熟悉sql,python,hive,spark,kafka,flink中的多项,有TB以上大数据处理经验; 3、对数据敏感,认真细致,善于从数据中发现疑点; 4、善于沟通,具备优秀的技术与业务结合能力。
-
职位职责: 1、负责字节跳动各业务直播数据的汇聚与接入; 2、负责直播数据平台数据链路建设和数据开发规范建设; 3、建设数据质量体系,形成完整的数据监控和数据校验机制; 4、负责直播相关数据需求的开发,能独立设计方案、把控需求、拆解细化并实施。 职位要求: 1、熟练运用Python、Java、Scala、Go等至少一门语言,对数据结构和算法设计有较为深刻的理解; 2、熟悉MySQL/postgresql/MariaDB等至少一类数据库,熟悉常见的NoSQL存储; 3、熟悉Hive数据仓库设计,了解数据仓库模型及思想、维度建模思想; 4、丰富的大数据技术经验,熟练掌控至少2种大数据技术,包括不限于Hadoop、HBase、Spark、Kafka、Storm、Flink等; 5、具有良好服务意识与数据sence,团队意识和协作精神; 6、较强的内外沟通能力,有数仓开发经验者优先。
-
地点:武汉 岗位职责: 1、负责产品的研发工作,主要负责后台编写,包含部分算法编写、性能优化,保证平台安全、稳定、快速运行。 2、负责产品的数据模型设计以及相应接口的开发工作。 3、参与系统的需求调研和需求分析,及系统上线协助,并承担部分交付责任。 4、配合前端进行前后端联调。 任职要求: 1、计算机相关专业硕士及以上学历, 3年以上JAVA开发经验; 2、有数据控制技术、机密容器研发经验优先。 3、有隐私计算、联邦学习,隐语、Fate隐私计算开源框架、区块链等相关技术研发和应用经验优先。 4、具备良好的面向对象编程经验,深入理解OO、AOP思想,具有较强的分析设计能力,熟悉常用设计模式。 5、精通Spring、Mybatis、JPA等开源框架并熟悉其实现原理,熟悉SpringCloud等微服务框架。有两年及以上的Spring实际项目开发经验。 6、熟练使用linux操作系统,熟悉云原生架构技术Docker、K8S等。 7、熟悉SQL编写,至少掌握mysql、sqlserver、oracle的一种; 8、熟悉Tomcat、nginx等web服务器。 9、熟悉websocket,grpc等相关通信协议。 10、熟悉C/C++、python优先。
-
岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等; 技能要求: 1.计算机相关专业本科及以上学历 ; 2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构; 4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
-
岗位职责: 1、负责电商财务域数据模型调研、设计、开发工作,与业务部门紧密配合,提供数据支持 2、负责电商财务域数据运营&治理工作,保障数据质量 3、参与电商财务域数据体系化建设,提升数据服务稳定性 任职要求: 1、计算机相关专业,大学本科及以上学历,5年以上大数据开发相关工作经验 2、熟悉大数据相关组件(如Hive、Spark、Flink、Kafka等),具备编写、优化复杂SQL的能力 3、有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题 4、熟悉Python/Java/Scala/Shell其中一种语言 5、具备电商领域业务开发经验优先;具备财务领域业务开发经验优先 6、负责过数据平台或数据仓库设计优先;有带团队经验优先。
-
岗位职责 1.数据质量监控:负责监控金融信贷相关业务域数仓数据的准确性、一致性和完整性,确保数据质量符合业务需 求。 2.数据质量测试:设计并执行数据质量测试用例,验证数据计算逻辑、数据转换规则和数据存储的正确性 3.数据质量问题跟踪:跟踪测试中发现的数据质量问题,协调研发团队进行问题修复,并验证修复效果. 4.数据质量工具开发:参与数据质量管理平台的功能设计与开发,提升数据质量测试的自动化水平。 岗位任职要求 1.学历要求:本科及以上学历,计算机科学、软件工程、数据科学或相关专业。 2.工作经验:3年以上数据测试或数据质量测试经验,有金融信贷行业经验者优先。 3.大厂背景:具有阿里、腾讯、字节跳动、百度等大厂数据测试或数据质量测试经验者优先,。 4.技术能力: a).熟悉大数据技术栈(如Hadoop、Spark、Hive、Flink等)。 b).熟悉数据质量监控工具(如Apache Griffin、Great Expectations等)。 c).具备一定的编程能力(如Python、Java、SaL等),能够编写自动化测试脚本。 d).熟悉数据治理相关工具(如数据血缘、元数据管理等)者优先。 5.业务理解:对金融信贷业务有深入理解,能够根据业务需求设计数据质量测试方案 6.问题解决能力:具备较强的逻辑思维和问题解决能力,能够快速定位数据质量问题的根本原因。 7.沟通协作:具备良好的沟通能力和团队协作精神,能够与研发、业务团队高效协作。 加分项 1.有金融信贷行业数据质量测试经验者优先。 2.熟悉金融行业数据标准和监管要求者优先。 3.具备数据治理或数据资产管理经验者优先。
-
工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
-
岗位职责: 1、负责公司数据平台系统的后台功能开发 2、负责汇总、监控内部用户反馈,持续改善用户反馈体验与效率; 3、从用户视角协助产品体验优化。 任职资格: 1、本科及以上学历,拥有 3 年以上后台研发经验 2、具备扎实的编码能力,掌握 Java/Python/Go 开发语言之一,熟练使用 SQL 进行数据访问 3、有大型后台系统开发经验或者 BI 系统开发经验 加分项: 1、有 BI 工具开发经验优先 2、熟悉 AWS、ALIYUN 等云厂商,有 Kubernetes、Docker 等云原生经验优先 3、熟悉大数据开源组件的架构和技术原理,具备Hadoop、Spark、Flink、DataX、DolphinScheduler等平台的开发和使用经验;
-
职位描述: 1、负责数据库架构设计及实施,保证数据库服务的高可用; 2、制定并优化数据库监控策略,提早发现并解决数据库可能出现的问题; 3、建立完善的数据库及备份运维和管理流程,数据库维护管理体系; 4、负责数据库运维过程中的问题排查及快速解决问题。 5、跟踪调研数据库领域的新技术新产品,根据业务发展需求设计解决方案。 职位要求: 1、3 年以上 DBA 相关工作经验(MySQL、Oracle、PostgreSQL 等),互联网工作经验更佳。 2、深入了解 mysql postgresql mongodb oracle 等其中一项主流关系型数据库体系架构; 3、精通 MySQL 高可用方案,灾备方案。能够独立设计并实施数据库高可用架构方案。 4、熟悉 MySQL 高并发,有丰富的故障处理和性能优化经验。熟悉常用的监控工具。 5、熟悉存储相关服务,如分布式系统、ES、redis cluster、fastdfs、gfs等。 6、有大规模 MySQL 、Redis、MongoDB等数据库运维经验者优先。 7、较强的学习能力,良好的沟通能力,熟悉部门间协调及优秀的工作推动能力,工作积极主动,有服务意识和团队协作精神。
-
职位描述: 1. 从事深交所大数据组测试工作,可能承担中小型项目测试负责人角色,负责整个项目测试工作; 2. 参与需求评审,负责测试需求分析、测试计划制定、测试用例设计、测试执行和测试报告输出; 3. 积极参与到测试各个环节,与开发、需求等部门人员进行沟通保证测试输入和输出的正确性; 4. 能够独立完成项目功能测试、性能测试和联调测试等,保证测试项目质量和进度; 5. 分析并推送测试中的问题解决,开发测试脚本和工具,有效提升产品测试效率。 任职要求: 1. ***计算机及相关专业本科及以上学历; 2. 具有5年及以上测试工作经验,精通测试流程和测试方法; 3. 熟悉SQL语言,能编写复杂的SQL脚本; 4. 熟悉linux常用命令,能独立进行测试环境搭建及维护; 5. 有数据仓库ETL及作业调度系统相关测试经验; 6. 工作积极主动,执行能力强,努力推进问题解决; 7. 了解大数据技术及相关组件,如Greenplum、Hadoop、Kakfa、Flink等优先考虑。
-
岗位职责: 1、负责职能域数据模型调研、设计、开发工作; 2、参与数据治理工作; 3、参与数据体系化建设,提升数据服务稳定性和数据质量。 任职要求: 1、计算机相关专业,大学本科及以上学历,3年以上大数据开发相关工作经验; 2、熟悉大数据相关组件(如Hive、MapReduce、Flink、Kafka等),具备编写、优化复杂SQL的能力; 3、有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4、熟悉Python/Java/Shell其中一种语言; 5、负责过数据平台或数据仓库设计优先。
-
工作职责 1、负责数据中心机房基础设施系统分析、优化、风险评估和管理 (供配电、暖通、动环监控等); 2、负责响应数据中心电气/暖通系统相关的事件及应急故障处理,实现IDC变更、故障等运行风险可控; 3、现场运维工作优化,制定/梳理平安IDC运维管理制度、操作手册、应急管理流程和操作预案; 4、负责数据中心的能效优化工作,实现数据中心的高效运行; 5、参与数据中心基础设施建设、综合测试、评估和项目验收等工作; 6、负责数据中心本地运营团队基础设施一线运维人才能力培养; 7、 完成上级交办的其他工作。 任职要求 1、本科及以上学历,制冷、电力、电气等相关专业优先; 2、具备2年以上数据中心电气或暖通系统运维管理经验,对数据中心的供配电设备(UPS、高压直流、发电机等关键设备)和供配电系统的原理、故障处理等均有深刻理解,具备现场和远程指挥电气或暖通系统故障应急抢修的能力; 3、熟悉数据中心管理的各项标准; 4、熟悉IT设备对供电的需求特性,熟悉数据中心基础设施建设架构、主要设备的运行特点和性能指标; 5、具备数据中心电气或暖通系统调整、维修、故障处理方案的安全评估及审核能力。
-
工作职责: 1、充分理解业务需求及痛点,利用数据挖掘、数据分析、机器学习等技术挖掘业务价值,解决业务需求; 2、负责风控、定价等板块具体的数据挖掘项目,包括但不限于数据加工、数据分析、特征工程、构建模型等工作,并就对应项目阶段性成果进行汇报与分享,为业务发展提供支持; 3、参与构建用户全生命周期营销管理,构建以用户运营为核心的高质量的标签体系; 4、与业务团队构建良好的合作关系,积极沟通交流,推动合作项目成功。 任职资格: 1、3年以上数据分析/数据挖掘/机器学习等相关领域经验;**本科或以上学历;熟悉保险业务优先考虑; 2、熟练使用Python/Scala/Java中一门或多门语言;熟悉Spark/Hadoop/Hive等大数据处理技术,有阿里大数据生态Maxcompute、Dataworks、PAI项目经验的优先考虑;熟练使用Sql进行数据处理; 3、熟悉机器学习基本理论、数据分析常用方法论等相关理论知识,了解概率论与统计学基础; 4、有多类数据挖掘项目的实施落地经验,全链路打通并工程化部署,且能不断优化,进而产生业务效果; 5、自我驱动,能主动深入了解业务,适应业务变化;有良好的个人表达和组织沟通能力,推进项目开展。
-
【必备技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 【重要技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 4、3年左右开发经验。