-
工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
-
岗位职责 1.数据质量监控:负责监控金融信贷相关业务域数仓数据的准确性、一致性和完整性,确保数据质量符合业务需 求。 2.数据质量测试:设计并执行数据质量测试用例,验证数据计算逻辑、数据转换规则和数据存储的正确性 3.数据质量问题跟踪:跟踪测试中发现的数据质量问题,协调研发团队进行问题修复,并验证修复效果. 4.数据质量工具开发:参与数据质量管理平台的功能设计与开发,提升数据质量测试的自动化水平。 岗位任职要求 1.学历要求:本科及以上学历,计算机科学、软件工程、数据科学或相关专业。 2.工作经验:3年以上数据测试或数据质量测试经验,有金融信贷行业经验者优先。 3.大厂背景:具有阿里、腾讯、字节跳动、百度等大厂数据测试或数据质量测试经验者优先,。 4.技术能力: a).熟悉大数据技术栈(如Hadoop、Spark、Hive、Flink等)。 b).熟悉数据质量监控工具(如Apache Griffin、Great Expectations等)。 c).具备一定的编程能力(如Python、Java、SaL等),能够编写自动化测试脚本。 d).熟悉数据治理相关工具(如数据血缘、元数据管理等)者优先。 5.业务理解:对金融信贷业务有深入理解,能够根据业务需求设计数据质量测试方案 6.问题解决能力:具备较强的逻辑思维和问题解决能力,能够快速定位数据质量问题的根本原因。 7.沟通协作:具备良好的沟通能力和团队协作精神,能够与研发、业务团队高效协作。 加分项 1.有金融信贷行业数据质量测试经验者优先。 2.熟悉金融行业数据标准和监管要求者优先。 3.具备数据治理或数据资产管理经验者优先。
-
职位职责: 1、负责抖音电商数据治理工作,包括不限于成本、质量、效率,提升数据易用性、安全性及稳定性; 2、深入理解数据业务,发现并总结数据研发、数据成本、数据质量、数据安全等方面数据问题,提炼数据治理方法论,推动数据治理方法实施; 3、孵化并持续迭代优化数据治理产品,以系统化、智能化能力高效支撑数据业务快速发展。 职位要求: 1、熟练使用SQL、Python、Java等工具进行大型数据分析及建模; 2、熟练使用Hadoop、Hive、Spark、Flink等组件进行大数据场景数据开发; 3、有较强的逻辑分析、沟通及工作推进能力,具备优秀的技术与业务结合能力; 4、对数据治理有一定的实践经验,有良好业务意识,对数据业务场景敏感,能够横向协同、跨团队整合资源,形成完整的方案解决业务/产品的问题; 5、有良好数据治理产品经验者、有实时数据研发经验者优先。
-
职位职责: 1、负责即时零售业务的离线与实时数据仓库的构建; 2、负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3、负责指标体系建设与维护; 4、深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 5、参与大数据应用规划,为数据产品、挖掘团队提供应用指导; 6、参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1、熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
-
招商银行项目(周末双休、七小时工作制度 8:30-12:00;14:00-17:30.节假日正常休息、加班有加班费、福利优);需要**本科学历。 岗位职责(注*:现场面试) 1)参与产品的需求分析,负责测试计划以及方案的制定、案例设计、测试执行、缺陷跟踪处理以及测试报告的编写工作,定期汇报项目进展情况; 2)根据项目测试需要,使用自动化测试框架、平台及工具,开发自动化测试用例,涉及接口测试自动化及界面测试自动化; 3)参与所负责产品的文档编写、自动化框架以及知识库建设等工作。 岗位要求 1)本科及以上学历; 2)熟悉测试理论及测试用例设计、白盒黑盒测试技能; 3)3年以上测试工作经验,能独立承担大型项目的测试工作。2年以上自动化测试经验,掌握常见自动化测试工具和自动化测试框架,具备测试团队管理经验者优先; 4)掌握Java/C#/Python中至少一种语言,熟悉MySQL/Oracle/SQL Server/DB2中至少一种关系型数据库; 5)责任心强,有良好的合作精神,有较强的学习能力和沟通协调能力; 6)具备以下一种或多种条件者优先考虑: a.有web端或手机APP测试经验 b.有自动化测试实施经验; d.熟悉金融或者企业财务相关的业务,有参与金融系统测试经验者优先。 福利: 1、入职购买六险一金(公司全额购买商业险可用于门诊医疗报销) 2、1-2个月年终奖金,根据入职时间来计算(多数员工可拿到超过一个月薪资年终奖); 3、转正员工每季度享有600元额外季度奖金;节假日:端午,中秋,春节,年后开工利是分别有300元现金福利; 4、入职满一年可享有5天带薪年假;法定节假日放假安排; 5、入职满一年有调薪调级别机会;工作表现优异者有机会转为总行内部员工; 6、团队每月1-2次下午茶活动,不定期聚餐安排,每年公司会组织一次外出团建旅游活动; 7、办公环境优良,加班有加班费(全额工资为计算基数,加班不超过晚上10点,平日加班为时薪1.5倍,周末加班为日薪2倍,周末加班也可优先选择调休,管理人性化)。
-
面试形式:现场1轮笔试,线上1轮面试 (有自动化测试经验者优先) 可接受非计算机专业 岗位要求: 1、本科及以上学历,计算机相关专业、金融行业背景优先。 2、具有 2年以上计算机软件测试经验;5 个以上中型项目测试经验,具备测试案例设计的能力,或具有同等项目经验。 (有自动化测试经验者优先) 3、熟悉常用数据库如 SQL Server、Cracle 或 DB2 常用操作。 4、熟悉常用操作系统如 OindCOs Server、AIX 等的日常操作。 5、熟悉Python、C/C++或 Java 等开发语言,有Python编程能力。 6、具有扎实的网络基础知识。 岗位福利: 1、入职购买六险一金(公司全额购买商业险可用于门诊医疗报销) 2、13薪,根据入职时间来计算 3、转正员工每季度享额外季度奖金; 节假日:端午,中秋、春节,年后开工利有现金福利; 4、带薪年假;法定节假日放假安排; 5、入职满一年有调薪调级别机会; 工作表现优异者有机会转为总行内部员工; 6、每月有1-2次月度福利 7、办公环境优良,加班有法定加班费 (平日加班为时薪1.5倍,周末加班为日薪2倍,周末加班也可优先选择调休,管理人性化)。
-
工作职责 1.负责自动驾驶数据平台、仿真平台、标注平台、训练平台及相关工具链的架构设计和研发工作,打造符合前瞻、量产智驾技术研发需要的数据闭环 2.负责大规模、可伸缩计算集群系统的解决方案的设计和搭建,以及核心技术的研究、开发和优化,负责平台长期运维支持和架构优化 3.负责自动驾驶软件系统框架架构设计和开发,与硬件、算法和测试团队合作,持续集成并优化自动驾驶系统 4.负责量产车型的数据驱动影子模式、数据记录等车端功能设计、系统架构和开发 工作要求 1.学历要求:**本科及以上学历,英语CET-4及以上, 2.工作经验:具有6年及以上相关工作经验,特别优秀者可适当放宽 3.其他: ① 计算机科学与技术、软件工程专业、自动化控制专业、人工智能等相关专业优先 ② 满足以下条件之一: 1)熟悉软件开发流程、具备扎实的算法和数据结构、算法、操作系统、网络、数据库等知识 2)熟悉几何、计算机图形学、动态系统建模等理论和方法 3)精通C/C++/Go/Python/nodejs一种或多种编程语言,熟悉HTML/CSS/React/REST 4)熟悉Linux/RTOS环境下开发与调试,有嵌入式操作系统和实时操作系统的内核或驱动开发经验,有多进程多线程、中间件、计算机视觉应用(OpenCV)、CUDA、TensorRT等开发经验优先 5)有丰富的Gin/Pylons/Django Web框架开发经验 6)熟悉PyTorch,TensorFlow,TensorRT等深度学习框架,有模型训练、调优相关经验 7)熟悉Spark/K8S相关技术,有相关开发经验,有过海量数据系统开发经验优先,有过集群系统开发、部署和优化经验优先 8)熟悉软件开发流程以及DevOps完整流程,熟悉DevOps相关系统原理,有相关工具和使用经验、如Jenkins,Argo, K8S,Docker,Kubernetes等 ③ 工作认真负责,具有良好的团队合作能力、沟通协调能力和学习能力 ④ 有Tier 1或主机厂相关工作经验优先
-
工作职责: 1.负责商业化服务端相关内容的质量保证工作及测试管理体系的建设和管控; 2.负责产品测试全流程,包括需求分析,设计评审,代码走查,制定测试计划,质量风险分析等,保证产品高质量交付; 3.负责关键技术专项建设,解决测试过程中的复杂技术问题,发掘并研发能够提升服务质量和测试效率的工具; 4.根据业务线需求,定制测试方案,完成测试工具的代码编写,进行自动化测试以及性能测试等; 5.有测试工作规划能力,组织产品/项目的测试实施工作,监督测试的进展和完成情况,及时沟通解决测试问题,确保测试目标的达成。 任职资格: 1.*****本科及以上学历,计算机或软件工程相关专业; 2.5年以上服务端开发或测试经验,熟悉软件测试流程和测试用例设计方法,3年以上团队管理经验; 3.有大中型互联网服务端测试经验,对常见服务端架构有一定的了解; 4.有良好的编程能力(熟悉Java/Python/JavaScript/Shell等脚本编程中至少一种); 5.扎实的软件开发或测试技术,具备自动化测试、性能测试、兼容性测试、安全测试等专业知识和经验; 6.有丰富的测试管理经验,能很快掌握新业务,擅长技能辅导,善于学习总结。
-
岗位优势: 该岗位采用前沿的远程办公模式,您可以不受城市和交通的困扰,选择心仪的宜居地,脱离一线城市的压力,快乐生活舒适工作,欢迎全国各地优秀人才投递~ 岗位描述: 1、负责产品模块的测试方案制定、策略分析、用例设计、测试执行、风险评估等工作; 2、独立负责产品模块的质量保障工作,包含功能、性能、安全、兼容、自动化等方面; 3、可独立开发或选择合适的测试工具,提高个人团队的工作效率; 4、分析项目团队内流程实践中存在的问题,提出有效可行的改进措施,并推动实施。 岗位要求: 1、必须本科及以上学历(不符勿投),理工科等专业,至少3年以上测试开发经验,有大厂背景优先; 2、精通测试流程,熟悉测试用例设计方法,能深入分析产品需求,能深入分析开发设计并给出合理建议; 3、精通java 或 python等编程语言一门; 4、有测试工具平台开发、性能测试、持续集成经验者优先; 有大数据、高并发测试经验、高可用测试经验优先; 5、出色的推动能力,很强的学习能力和定位问题,分析、解决问题能力; 6、有金融相关测试经验优先。
-
"职位描述: 1、负责保险业务风险管理,包含但不限于保险产品赔付率分析、逆选择及欺诈风险特征和模式梳理 2、基于大数据与机器学习、数据挖掘等方法构建风险识别模型,支撑保险业务全流程生命周期的风险管理与风险洞察; 3、建设公司内外的数据合作流程和规范,探索、建设及接入保险相关的风险画像及风险模型; 4、深入理解业务,探索业务经营和业务创新的需求洞察,并进行技术预研; 职位要求: 1.本科及以上学历;计算机、数学、统计精算等相关专业背景,至少熟悉一门编程语言(python,SAS,R等); 2.有2年以上金融风控数据分析与建模经验、对金融业务的风险有比较深刻的理解,熟悉大数据建模方法和风控策略体系构建方法; 3.熟悉常用的特征工程、机器学习和数据挖掘相关算法,熟悉spark,hadoop等大数据平台优先; 4.有保险定价、核保、核赔、医疗健康业务的从业经验者优先;有对外大数据合作及联合建模经验者优先; 5.沟通协调能力强,性格开朗客观,积极主动,有较强的业务理解能力、抗压能力及主动性; 6.有一定的产品经理意识、与技术方向的独立思考及规划能力。"
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
岗位职责: 1.承担建设基于Hadoop/Spark生态的大数据离线/实时处理平台; 2.参与业务数据.生产日志的抽取.转储.检索等相关工作; 3.跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。 任职要求: 1.3年以上计算机.统计.数学等相关本科或以上学历; 2.掌握Hadoop.HBae.Hive.Kafka.Flume.Spark等大数据技术; 3.掌握数据挖掘,python,机器学习经验者优先; 4.有较强的学习能力,勤奋踏实,责任心强,有较强的沟通协调能力,有一定创新能力;
-
工作职责 1、负责大数据相关系统的开发、测试、部署及上线工作,参与代码评审,确保开发质量; 2、参与业务部门临时数据分析需求,合作开展专项数据分析工作; 3、协助运营人员处理生产问题并提供技术支持,解答业务部门反馈的数据问题及各类咨询; 4、参与公司数据分析需求调研、评估、系统分析及架构设计工作。 任职要求 1、本科及以上学历,计算机、数学、统计学、管理信息类相关专业; 2、熟悉关系型数据库如Oracle、Postgresql等的使用、可熟练编写SQL实现业务逻辑,了解SQL性能调优; 3、熟悉Hadoop生态圈组件,包括但不限于Hive、Spark、HBase、Kylin、Flink、ES、Kafka等; 4、具备良好数据分析及处理能力,熟悉常见的数据处理工具,如ETL、BI工具、Python等; 5、具有较强的责任心和服务意识,良好问题分析及处理能力。
-
岗位职责: 1.负责ETL相关开发工作,深度参与数据仓库的建设与优化,保障数据存储的高效性与稳定性,支撑公司战略级数据项目的落地。 2.主导复杂数据处理流程的开发与优化,基于 Python 编写高性能的数据处理脚本,结合 spark、pandas、duckdb等进行大规模数据清洗、转换与分析,实现数据挖掘与机器学习模型开发,推动数据价值的深度挖掘。 3.设计和维护基于 Airflow 的工作流调度系统,实现数据处理任务的自动化调度与监控,确保数据处理任务按时、准确执行,提升数据开发与运维效率。 4.与业务部门紧密协作,深入理解业务需求,将业务逻辑转化为数据解决方案,通过数据驱动业务决策,助力业务增长。 5.研究大数据领域的前沿技术,持续优化数据开发技术栈与流程。 任职资格: 1.具备 3 年及以上大数据开发相关工作经验,拥有丰富的大数据项目实战经验,能够独立承担复杂数据开发任务。 2.熟练掌握 Python 编程,具备基于 Python 的大数据开发工作经验,能够运用 Python 进行高效的数据处理与算法实现。 3.熟悉数仓建设方法论 1)熟悉etl分层建设方法 2)熟悉主题建设方法,能独立抽象主题,建设主题,并且物理化和性能调优 3)熟悉常用的BI系统建设方法,理解实现原理,理解各个工具使用场景 4.精通大数据开发相关技术栈,包括但不限于 Hadoop、Spark、Hive 等,能够熟练运用这些技术进行数据处理与分析。 5.熟练掌握 Airflow,能够基于 Airflow 进行工作流设计、调度与监控;熟练使用相关技术进行数据处理与分析并能够运用其实现常见的数据挖掘与机器学习算法。 6.熟练掌握sql和调优。 7.熟练掌握python。 加分项 1.具备统计学、数学建模等相关知识,能够运用统计方法进行数据分析与模型构建。 2.有分布式系统开发、数据可视化开发经验者优先。 薪资待遇 ****,我们提供具有竞争力的薪酬体系与广阔的职业发展空间,期待优秀的你加入!
-
1、负责车联网大数据标准化接入、整车产品体验洞察、整车健康监测平台等数据应用平台的设计、开发及优化,保障数据应用服务的稳定性与可用性 2、负责车联网大数据的离线、实时数据仓库建设,负责数据的生产、建模、应用及质量体系建设 3、搭建面向数据驱动整车产品闭环的数据指标体系和BI平台 4、负责车联网数据质量、数据资产、数据治理相关的开发工作,提升数据质量及易用性 5、积极探索大数据及人工智能技术的深度应用,并落地到智能网联产品业务 1.工作经验:5年以上数据仓库经验,具备优秀的数据架构和业务抽象能力,参与过中、大型数据仓库从0到1建设的优先,具有智能网联汽车、数据治理、埋点相关经验优先 2.其他: ①、掌握大数据生态技术栈,深入了解数据平台、BI、画像、分析等方向中的一项或多项 ②、熟练使用Hadoop生态相关技术并有相关实践经验,包括Hdfs、Mapreduce、Hive、Hbase、Spark、Kafka、Flink、StarRocks等,具备海量数据加工处理(ETL)相关经验 ③、深入了解常用的数据建模理论,具有丰富的实际模型设计及ETL开发经验,可独立把控数据仓库各层级的设计,有数据治理相关经验者优先 ④、对数据敏感,有较强的逻辑分析能力,有丰富的数据处理和分析经验,有复杂业务和算法的数据平台建设经验优先 ⑤、工作认真、负责、仔细,有良好的团队合作精神,良好的分析及沟通能力
热门职位


