-
岗位职责: 1、负责挖掘与分析各类业务数据建立用户画像,并通过算法模型提升风控和反欺诈能力,以数据动风险决策,并提升决策效率; 2、挖掘业务需求,基于对机器学习的理解,定义不同场景下的数据解决方案,并选择有效的算法解决可能遇到的数据、场景相关问题,提升模型的性能和稳定性; 3、配合开发人员和大数据工程师完成模型的上线运行,并进行模型的监控、维护和调整; 4、跟踪模型或方案产生的业务影响,与各业务部门紧密合作,推动数据化决策。 任职资格: 1、**本科及以上学历,统计学、数学、经济学、金融等相关专业,并在数据挖掘相关工作上有1-3年工作经验,金融信贷行业的工作经验更佳。 2、扎实的机器学习和数据挖掘理论和技术基础; 3、有一定的PYTHON 和 SQL使用能力,熟悉常用数据统计、分析和建模方法; 4、较好的团队合作精神和沟通能力; 5、优秀的分析问题和解决问题的能力,对解决具有挑战性的问题充满激情; 6、有一定英文沟通能力。
-
职位职责: 1、风险挖掘及监控:充分理解业务风控需求,建立业务风险监控体系,通过监测、挖掘业务安全和体验数据异常,分析定位问题; 2、策略优化:以数据分析为基础,发现潜在风险,进行策略调优,与产品研发及其他运营团队协作,提升挖掘和联动效率; 3、风险管理:对挖掘到的风险进行定性定量分析,给出有效风控建议,跟进流转处置情况,并关注风险解决效果。 职位要求: 1、本科及以上学历,有数据挖掘和分析相关经验优先; 2、曾负责风险、欺诈、商业/市场的量化分析,且曾产出量化分析报告; 3、有风控相关团队管理经验,包括建立风控体系、制定策略方案和推动方案落地; 4、熟练的SQL数据处理能力,熟练使用至少一种专业分析工具,如SAS、Python等。
-
职位职责: 1、通过数据分析、特征挖掘、逻辑推理等方法,还原互联网风险事件链路,主导风险案事件分析; 2、通过风险分析提炼风险规律与特征,实现风险数据标准化沉淀,从而推动业务逻辑优化、防控规则、模型与数据产品的升级; 3、深入了解风控业务,总结案事件分析的方法论,并推动产品化沉淀。 职位要求: 1、统计、数学、计算机等类数据专业毕业,熟练使用SQL,数据意识强; 2、熟悉互联网数据与风控业务,2年以上互联网风控策略或案件分析工作经验; 3、逻辑思维能力强,好奇心强,善于钻研与挖掘; 4、沟通协同能力强,善于寻求不同资源完成工作。
-
1、根据业务需求进行需求分析、完成 BTL 教据建模、模型开发等工作,与应用、测试良好的沟通完成需求迭代; 2、模型分析,与存汇款、大教据平台等核心系统保持教据同步完整性及教据准确性; 3、快速完成生产问题排查与解决。 4、熟练掌握 SQL 语法,具备 SqI 调优能力,良好的教据库技术背景,能基于大教据平台进行教据建模及数据开发等工作。 5、良好的 ETL 处理能力,熟悉 Hadoop 、 Hive 、 vertica 、Sparksq;任务调度、 Linux 、 Shell 等相关技术栈,优秀的开发实战、性能优化能力。 6、对教据敏感,能在日常工作中对大教据进行教据分析、教据核验、教据治理优先。 7、熟悉银行存汇款等核心系统的业务及教据库模型优先。有较好的文档写作能力; 8、有较强的机行力;有较好的团队意识、适应能力、具有良好的沟通协调能力;抗压能力较强;
-
工作职责: 1、充分理解业务需求及痛点,利用数据挖掘、数据分析、机器学习等技术挖掘业务价值,解决业务需求; 2、负责风控、定价等板块具体的数据挖掘项目,包括但不限于数据加工、数据分析、特征工程、构建模型等工作,并就对应项目阶段性成果进行汇报与分享,为业务发展提供支持; 3、参与构建用户全生命周期营销管理,构建以用户运营为核心的高质量的标签体系; 4、与业务团队构建良好的合作关系,积极沟通交流,推动合作项目成功。 任职资格: 1、3年以上数据分析/数据挖掘/机器学习等相关领域经验;**本科或以上学历;熟悉保险业务优先考虑; 2、熟练使用Python/Scala/Java中一门或多门语言;熟悉Spark/Hadoop/Hive等大数据处理技术,有阿里大数据生态Maxcompute、Dataworks、PAI项目经验的优先考虑;熟练使用Sql进行数据处理; 3、熟悉机器学习基本理论、数据分析常用方法论等相关理论知识,了解概率论与统计学基础; 4、有多类数据挖掘项目的实施落地经验,全链路打通并工程化部署,且能不断优化,进而产生业务效果; 5、自我驱动,能主动深入了解业务,适应业务变化;有良好的个人表达和组织沟通能力,推进项目开展。
-
岗位职责: 负责设计和维护数据仓库架构,支持业务线包括但不限于Things to do、Mobility和酒店业务。 深入了解各业务线,通过数据分析支持业务决策和策略制定。 构建和优化数据模型,确保数据准确性和可靠性。 独立处理和优化复杂的数据集,改进数据质量和处理流程。 与业务团队和技术团队紧密合作,确保数据解决方案满足业务需求。 编写技术文档和维护数据仓库的数据字典。 职位要求: 拥有5年以上数据仓库领域的工作经验。 精通SQL和数据库技术,有实际操作大型数据库的经验。 具备扎实的数据模型构建经验,能够独立设计和优化复杂的数据模型。 对数据质量和底层数据处理具有丰富的经验,能够有效解决数据问题。 熟悉dbt的应用,有实际使用经验者优先。 具备良好的分析思维和问题解决能力,能够独立完成项目。 良好的沟通和团队合作能力,能够与不同背景的团队成员有效沟通。
-
【岗位职责】 1、应用前沿和经典算法,将算法应用在部门业务数据上,挖掘数据价值,提升人工效能,包括但不限于(LLM、NLP、图像识别等各方面); 2、分析各项影响业务提能增效的因素、各项业务细节,结合业务方向,给出可落地的整体的开发优化方案; 3、与产品/运营等配合,推进优化方案落地执行,带来业务的实际效率提升; 【岗位要求】 1、本科及以上学历,理工科专业背景者优先考虑,2年以上数据分析相关工作经验; 2、较强的逻辑思维能力、数据敏感度,擅长利用数据发现问题及解决问题; 3、熟练掌握基本的机器学习挖掘模型,对数据挖掘的理解不仅限于模型的应用,能把各类算法融合应用,并有相应的项目落地经验; 4、熟悉深度学习模型框架优先,限于tensorflow/pytorch/keras之一,掌握基本的nlp、cv算法应用能力,如文本分类,聚类,图像分类等。 5、扎实的工程能力,熟悉SQL,ES等主流数仓工具的使用,善于应用python等技术进行数据清洗,掌握模型开发、量化、部署能力; 6、较好的主动性和分享精神,良好的沟通和协作能力。
-
电力行业算法工程师(Base 武汉) 薪资范围:25-40K 1、机器学习/深度学习相关人工智能算法,在能源互联网产品/业务中的应用研究: 2、负责处理数据,需要进行一定量的信息检索、数据挖掘、并输出分析报告 3、电力负荷预测、新能源功率预测等算法研发及迭代; 4、负责业务指标的快速分析,复杂业务问题拆解及原因追溯,具备成型的数据分析方法论,数据分析报告撰写的能力; 5、负责将业务问题转化数学建模,具备业务模型的构建及调优的经验; 6、对常用的机器学习/深度学习算法有深入理解,例如: LR、SVM、XGBOOST、ANN、RNN、CNN等; 7、至少能熟练使用一门编程语言例如python、C++等; 8、偶尔出差 【公司简介】 武汉艾碳专注服务于电网企业AI智能化转型,基于电网业务数据,通过定制算法模型以及大模型,帮助电网企业高效智能的定位、分析、解决业务问题。 公司凭借完全自主知识产权的基于计算机视觉的非结构数据抽取技术、电力行业的自然语言处理技术以及知识图谱等人工智能技术,开发了针对电力行业的产品和技术。同时,公司还研发了具有自主可控性的多源情报数据处理智能平台,已经成功为湖北电力、湖南电力、河南电力、福建电力等企业提供了服务。 2024年经济下行环境下,公司逆势上行,业务增长率超过40%+ 目前公司在武汉,上海,福州,吉林都有团队及office,超过60多项国际,国内技术专利,荣获ICDAR全球大赛**,3项核心技术美国限制出口的封锁技术。 【其他】 上班时间:9:00-18:00 双休,入职缴纳六险一金,年终奖。
-
【公司严格审查学历及工作履历,请确保您的简历与实际情况相符】 岗位职责: 1、从事保险业务数据平台中的ETL、数据分析、数据处理、前&后端等相关功能开发及运维; 2、负责所属模块的的需求分析、详细设计、代码开发、单元测试及运维文档编写等相关工作; 3、定期性能调优、优化调度性能及资源利用率,保证平台稳定高效; 职位要求: 1、本科学历学信网可查且毕业满3年及以上,有保险行业系统开发经验(Java/ETL/数据开发(BI、数仓、数据挖掘)等皆可); 2、有较强的SQL、HiveSQL能力,熟悉oracle、mysql、OceanBase,具备关系型、分布式数据库设计和开发经验; 3、熟知数据仓库设计理念、设计方法,能够熟练使用ETL工具Kettle,能够进行其ETL优化及解决相关技术问题; 4、精通大数据开发及运维相关技术:CDH、Kafka、Storm、hdfs、Hive等 ; 5、掌握Java编程语言,熟悉Java API开发; 6、熟悉Hadoop生态系统组件(如HDFS、YARN、MapReduce、Hive、HBase、Spark、Kafka等)的部署和管理,具备高效的问题诊断和解决能力; 7、熟悉SpringMVC、Springboot、CXF、Spring、MyBatis等开源框架、熟悉Kafka、Redis等中间件,有大型分布式、高并发项目设计开发经验; 8、熟练掌握Redis等缓存数据库的使用,掌握高并发数据写入的数据库结构设计与方法; 9、熟练使用Nginx,熟悉Linux操作系统,熟练使用Shell、Python等脚本语言; 10、熟练使用BI工具SmartBI,能够利用其生成报表、仪表盘等数据可视化内容; 11、了解JSP、JavaScript、Bootstrap、EasyUI等前端开发技术及框架; 12、熟悉保险核心业务、以及有ECIF、CCH、CEM、CRM、CDH等保险业务系统开发及运维工作经验者优先; 13、工作认真负责、积极主动、有良好的沟通能力及团队合作精神; 14、合适者待遇可谈。
-
岗位描述 1、面向飞猪各行业业务场景,将业务问题转化成数据问题,构建数据链路并进行分析挖掘,设计合适的分析和算法解决方案(包括专题分析、统计建模、机器学习等)支撑下游业务经营决策,并协同产品沉淀数据科学产品能力化 2、参与到飞猪各行业团队合作中,利用数据科学来帮助业务/技术做出数据驱动的优化提升,通过指标体系定义、探索性数据分析、建模分析,准确描述业务或系统现状,快速发现和定位问题与优化点 3、研究旅游行业生态,深入理解酒店、交通各行业商业逻辑,主动探索挖掘发现业务机会点 岗位要求 1、从事数据分析/数据挖掘领域工作至少1年以上,数据敏感、逻辑清晰,有良好的数理统计及数据工程能力 2、具备场景数字化能力,熟悉数据科学作业流程,包括指标体系定义、数据清洗ETL、数据分析挖掘、数据可视化与展示等,部分或全部环节有实战经验 3、掌握离线大数据开发技术,如Hive、Spark,灵活运用SQL实现海量数据ETL加工处理 4、掌握一门或多门编程语言优先,如Java、Python、shell等,能自主撰写高性能UDF等;熟悉常用的实时数据处理技术者优先,如Flink、Storm、Spark Streaming等 5、熟悉基本的数据分析、机器学习知识与算法 6、良好的语言沟通与表达能力和自我驱动力
-
岗位职责: 1、掌握项目具体数据需求,分析数据源系统,确定所需源数据的数据结构、统计口径、数据下发方式、数据下发频率等特性,确定数据映射关系,数据含义,构建数据模型 2、协助ETL工程师完成模型落地以及调度开发 3、了解大数据平台整体规划,针对银行业内的数据存储、平台资源、业务需求,使用模型设计软件构建全行级数据体系的数据模型 4、在数据资产管理平台中维护系统表清单、表结构、表类型、数据字典、数据映射关系 5、研究银行业的建模思路、方法和落地方式,结合行内现有数据模型、业务逻辑等,开展各项主题研究分析根据行内的模型规划,制定具体标准、流程设计以及实施方案,并推动实施 6、参与数据挖掘及数据产品研发的规划、设计及实施。包括数据准备、数据分析、数据建模、模型优化、算法应用等工作。 招聘条件: 1、211/985硕士及以上学历,年龄35周岁及以下; 2、具备3年及以上银行、大数据分析、IT公司从事金融行业数据挖掘相关工作经验; 3、作为核心团队成员参与过金融数据分析或数据仓库项目,有项目管理经验者优先考虑; 4、熟悉数据仓库模型设计方法论,并有实际的模型设计经验,具备大数据模型建设能力 熟悉大数据、数据仓库、数据治理等行业技术发展趋势 5、熟悉金融行业基本知识,熟悉银行基本业务体系 6、熟悉高斯DB相关技术,熟悉MPP数据库、关系型数据库技术,具有丰富的SQL语言经验会使用至少一种模型设计软件(PD、ERWIN等) 7、具有较强的逻辑分析能力,同时对新知识、新事物具有强烈的钻研精神,思路清晰、思维缜密,有良好的团队合作能力。
-
岗位职责: 1.根据数据需求及开发规范进行SQL存储过程编写。 2.完成行内的数据加工、提取要求 3.进行ETL的设计、开发及测试工作。 任职要求: 1.有较强的数据和业务结合能力,主动思考能力。 2.有较好的sql编程能力,能够进行复杂sql的编写。 3.有一定sql调优能力,能够独自解决相关问题。 4.了解Shell脚本开发,python脚本。 5.了解基本的linux相关知识。 6.需具备至少一种主流关系型数据库(Oracle、DB2、Mysql)熟练应用能力,且熟练掌握SQL语言,有实际工作经验者优先。 7.有银行类信息化项目经验者优先考虑。 8.熟悉数据仓库及相关建模知识和工具,对BI、数据挖掘等相关知识有深入经验者优先。 9.大专及以上学历,计算机、通信等相关专业,1年以上工作经验。 10、积极乐观,责任心强,工作认真细致岗位职责.
-
岗位职责: 1、围绕卡中心网络银行部经营重点,负责渠道获客、产品营销、产品推荐、广告推荐、搜索排序等主要经营场景的分析建模工作,支持客群细分、价值体系、线上客户运营等重点项目; 2、基于各种数据分析方法及机器学习算法,从全局视野主动挖掘和探索业务经营趋势,挖掘潜在问题点和优化点,推进专项决策落地; 3、结合网银经营分析需求,研究大数据领域前沿数据挖掘技术,并引入投入实际应用; 4、负责数据挖掘项目方案制定、项目实施落地及优化等。 任职资格: 1、计算机、数学及统计学等相关专业硕士及以上学历,有数据挖掘领域具备丰富的项目经验者优先; 2、熟悉常用算法(如分类、回归、聚类、关联规则等)及其原理,对机器学习、深度学习算法有深入了解; 3、丰富的算法(分类器,推荐系统,运筹优化等)应用场景项目经验,有管理经验者优先考虑; 4、熟练掌握SQL,至少掌握python,scala,java等一种以上常用数据挖掘编程语言; 5、较强的逻辑思维能力、数据敏感度,擅长利用数据发现问题及解决问题; 6、较强的沟通表达能力及良好的团队协助能力,能够承受压力。
-
【岗位职责】 负责数字营销数据全流程处理(采集/分析/建模),支持用户增长、渠道归因及ROI优化。 运用机器学习/统计学方法挖掘用户行为规律,驱动营销策略与产品迭代。 构建并优化数据模型,提升数据挖掘效率和营销ROI。 探索前沿数据技术(如AI/大模型),推动技术落地应用。 协同产研团队,推动数据成果转化为业务价值。 【任职要求】 学历:本科+5年经验,计算机/数学/统计等相关专业。 经验:大型互联网公司数字营销数据挖掘经验优先。 技能:精通Python/R或其他数据分析编程语言,扎实算法基础(分类/回归/AB实验等)。 熟悉数据挖掘全流程(特征工程/模型调优/业务落地)。 能力:强数据敏感度、逻辑分析及跨部门协作能力。 特质:对数据科学/人工智能有热情,适应快节奏。 【加分项】 头部大厂(阿里/腾讯/字节等)或独角兽企业经验。 操盘过:全域营销洞察、千万级流量AB实验、数据产品(决策沙盒/预警系统)。 【你将参与】 618/双11等万亿级流量项目,驱动千亿GMV决策。 构建人货场数据智能匹配体系。 与VP级业务负责人共创行业白皮书级报告。
-
职责描述: 1.参与数据仓库架构与数据开发,设计ETL流程、日志等数据 2.负毒数据平台相关数据工作,如研发、质量、保障与实施落地 3.参与实时数据流的数据处理、查询统计和分析预测等计算 4.日常数据监控以及数据预警,异常数据解读挖掘,并与业务沟通解决方案 5.管理数据类项目并如期实施交付 任职要求: 1.从事数据仓库领域工作1-3年或3年以上,实际参与模型设计及ETL开发经验,能独立完成相关的开发工作 2.做过2年以上bi项目经验 3.sql 精通 4. etl工具精通至少1种(ssis) 加分项: 1.会dax优先 2.精通ADF优先