-
职位职责: 1、负责字节跳动相关产品线(抖音、头条等)风控方向的数据产品开发; 2、负责数据质量,数据安全,元数据的监控,整合; 3、面向超大规模数据问题,每天处理千亿增量的用户数据; 4、设计和实现高并发关键数据服务,用数据衡量产品并驱动产品演进。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力; 2、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 3、熟悉Kafka/Flink/HBase/Doris 等实时计算引擎的开发和使用优先; 4、有大规模实时数据平台落地经验者优先。
-
工作职责: 1、负责海外风控流程相关业务,完成系统设计、研发、迭代 2、协助业务需求分析,将业务需求拆分成独立的业务功能,并独立负责相关的开发等工作 3、参与项目/系统架构设计,优化,协助解决项目开发过程中的问题 任职要求: 1、计算机或相关专业本科以上学历,3年左右系统开发经验 2、熟练使用Golang/Python等至少一种编程语言 3、精通SQL,熟练使用Mysql、Mongo、Kafka和Redis等中间件 4、熟悉主流的微服务架构方案 5、了解大数据相关技术 6、有独立分析、解决问题的能力和经验
-
职位职责: 1、负责营销风控运营工作,对接上游业务方,负责风险评估、需求对接、案例研判和策略质量管理; 2、针对负责的风险域能够定义风险问题,并构建指标体系对风险进行量化管理; 3、对电商一些欺诈手法(黄牛、薅羊毛等)有一定了解,能够基于风险案例从多维度归纳出作弊手法,提炼出关键特征; 4、基于业务风险,制定有效风控解决方案,推动产品研发侧优化系统能力,建立健全风险防控机制; 5、协同上下游各职能团队,整合资源推动重要项目落地,平衡业务与风险,保障相关业务线的整体健康度。 职位要求: 1、本科及以上学历,3年及以上电商工作经验; 2、熟悉平台营销工具/玩法和平台活动营销链路运营推广工作,有成功实操案例; 3、具备较强的数据敏锐度与数据分析能力,复杂项目管理能力,推动协调各方资源达成目标; 4、良好的沟通表达能力,执行力强,自我驱动,思维活跃。
-
外派驻场银行项目(周末双休、七小时工作制度 8:30-12:00;14:00-17:30.节假日正常休息、加班有加班费、福利优); 工作职责: 1、负责供应链信贷业务、供应链产品系统,包括渠道面客端、端到端产品流程、业务中台等方向的建设。 2、完成业务需求沟通梳理,产品需求设计落地,跟进开发和验收工作,管理产品迭代节奏。 3、深度理解供应链或信贷业务逻辑,掌握银行贷款产品的运营流程。 任职要求: 1、3年以上信贷产品经验,能独立输出PRD和原型图。 2、熟悉供应链金融业务情况及科技平台建设,有银行对公贷款、小微企业贷款业务、供应链金融业务经验的需求组分析或产品经理背景。 3、逻辑思维能力强,擅长挖掘业务需求,拆解产品流程和功能模块。 福利:五险一金/加班费/年终奖/季度补贴/过节费等
-
岗位职责: 1、负责业务合规培训宣导; 2、监督/检查合规制度的落地实施; 3、对疑似欺诈/合规案件进行调查,还原事实真相,风险信息收集与统计; 4、协助分析优化各类欺诈策略、流程方案等; 5、完成领导交办的其他工作; 任职要求: 1、大专及以上学历。 2、熟悉信贷产品特点; 3、信贷行业两年以上的调查经验; 4、出色的逻辑思维能力与优秀的团队协作精神; 5、事业心强,个性自信、积极; 6、能适应短期出差;
-
"职位描述: 1、负责保险业务风险管理,包含但不限于保险产品赔付率分析、逆选择及欺诈风险特征和模式梳理 2、基于大数据与机器学习、数据挖掘等方法构建风险识别模型,支撑保险业务全流程生命周期的风险管理与风险洞察; 3、建设公司内外的数据合作流程和规范,探索、建设及接入保险相关的风险画像及风险模型; 4、深入理解业务,探索业务经营和业务创新的需求洞察,并进行技术预研; 职位要求: 1.本科及以上学历;计算机、数学、统计精算等相关专业背景,至少熟悉一门编程语言(python,SAS,R等); 2.有2年以上金融风控数据分析与建模经验、对金融业务的风险有比较深刻的理解,熟悉大数据建模方法和风控策略体系构建方法; 3.熟悉常用的特征工程、机器学习和数据挖掘相关算法,熟悉spark,hadoop等大数据平台优先; 4.有保险定价、核保、核赔、医疗健康业务的从业经验者优先;有对外大数据合作及联合建模经验者优先; 5.沟通协调能力强,性格开朗客观,积极主动,有较强的业务理解能力、抗压能力及主动性; 6.有一定的产品经理意识、与技术方向的独立思考及规划能力。"
-
工作职责 1、负责大数据相关系统的开发、测试、部署及上线工作,参与代码评审,确保开发质量; 2、参与业务部门临时数据分析需求,合作开展专项数据分析工作; 3、协助运营人员处理生产问题并提供技术支持,解答业务部门反馈的数据问题及各类咨询; 4、参与公司数据分析需求调研、评估、系统分析及架构设计工作。 任职要求 1、本科及以上学历,计算机、数学、统计学、管理信息类相关专业; 2、熟悉关系型数据库如Oracle、Postgresql等的使用、可熟练编写SQL实现业务逻辑,了解SQL性能调优; 3、熟悉Hadoop生态圈组件,包括但不限于Hive、Spark、HBase、Kylin、Flink、ES、Kafka等; 4、具备良好数据分析及处理能力,熟悉常见的数据处理工具,如ETL、BI工具、Python等; 5、具有较强的责任心和服务意识,良好问题分析及处理能力。
-
1、负责车联网大数据应用平台相关系统研发、优化、及系统架构等相关工作; 2、深入发掘和分析车联网大数据应用相关业务需求,提出技术及产品改进建议,输出技术方案和系统设计; 3、具有一定的技术架构思维,确保设计的技术方案、开发的代码有较高性能、质量保障、扩展性,前瞻性; 4、对技术有较强的钻研及学习精神,能够深入了解开源技术、现有系统技术等相关技术原理,出现问题时能够通过较强的技术手段较好的解决问题。 1.工作经验:5年以上Java全栈开发经验,有前端开发经验优先, 有大型分布式、高并发、高负载、高可用型系统设计开发经验者优先,具有车联网大数据应用平台开发及架构相关经验优先 2.其他: ①、Java基础扎实,熟悉Java虚拟机原理、Java高级特性和类库、Java网络与服务器编程、Java多线程编程以及常见开源产品 ②、精通掌握Spring等开源框架,对spring boot、spring cloud等微服务开源框架有深入了解,熟练掌握主流的前端技术 ③、熟悉现有互联网常用的缓存、消息队列、数据库及中间件技术 ④、熟悉微服务设计与开发,有Docker/K8s相关经验 ⑤、熟练使用Linux系统,有CI/CD经验 ⑥、具备模块或子系统的架构设计能力,掌握常见的架构设计方法和模式,理解大型网站所需要用到的架构和技术 ⑦、熟悉敏捷开发,有良好的表达和沟通能力
-
(此岗位需要在南京或者深圳办公) 岗位职责: 1.大数据新技术规划、调研、选型及推广落地。 2.负责大数据组件内核开发优化,推进组件容器化,进行组件二次开发与适配等工作。 3.日常负责大数据框架组件的性能优化,稳定性保障,异常监控及线上问题对接解决。 4.参与平台功能研发,提供业务系统化的解决方案。 任职标准: 1.至少6年以上相关经验,有扎实的计算机编程基础,精通java/scala,熟悉jvm的原理和调优。 2.精通spark/hive/flink组件原理和内核优化,有超大规模数据计算的架构设计和优化经验。 3.掌握大数据行业趋势,熟悉Kubernetes/Docker,有组件容器化相关经验。 4.具备较强的问题解决能力,能独立分析和攻坚复杂的技术难题。 5.有公有云使用经验者优先。 6.有良好的服务意识、沟通能力和团队协作精神。
-
工作职责 1.负责自动驾驶数据平台、仿真平台、标注平台、训练平台及相关工具链的架构设计和研发工作,打造符合前瞻、量产智驾技术研发需要的数据闭环 2.负责大规模、可伸缩计算集群系统的解决方案的设计和搭建,以及核心技术的研究、开发和优化,负责平台长期运维支持和架构优化 3.负责自动驾驶软件系统框架架构设计和开发,与硬件、算法和测试团队合作,持续集成并优化自动驾驶系统 4.负责量产车型的数据驱动影子模式、数据记录等车端功能设计、系统架构和开发 工作要求 1.学历要求:**本科及以上学历,英语CET-4及以上, 2.工作经验:具有6年及以上相关工作经验,特别优秀者可适当放宽 3.其他: ① 计算机科学与技术、软件工程专业、自动化控制专业、人工智能等相关专业优先 ② 满足以下条件之一: 1)熟悉软件开发流程、具备扎实的算法和数据结构、算法、操作系统、网络、数据库等知识 2)熟悉几何、计算机图形学、动态系统建模等理论和方法 3)精通C/C++/Go/Python/nodejs一种或多种编程语言,熟悉HTML/CSS/React/REST 4)熟悉Linux/RTOS环境下开发与调试,有嵌入式操作系统和实时操作系统的内核或驱动开发经验,有多进程多线程、中间件、计算机视觉应用(OpenCV)、CUDA、TensorRT等开发经验优先 5)有丰富的Gin/Pylons/Django Web框架开发经验 6)熟悉PyTorch,TensorFlow,TensorRT等深度学习框架,有模型训练、调优相关经验 7)熟悉Spark/K8S相关技术,有相关开发经验,有过海量数据系统开发经验优先,有过集群系统开发、部署和优化经验优先 8)熟悉软件开发流程以及DevOps完整流程,熟悉DevOps相关系统原理,有相关工具和使用经验、如Jenkins,Argo, K8S,Docker,Kubernetes等 ③ 工作认真负责,具有良好的团队合作能力、沟通协调能力和学习能力 ④ 有Tier 1或主机厂相关工作经验优先
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
岗位职责 : 1、数据仓库和数据处理:负责大数据平台的数据仓库、数据治理和数据模型的设计与开发工作。进行日常数据报表开发,理解业务需求,发挥数据价值。 2、数据服务开发:负责离线和实时数据服务的设计、开发、性能调优和效果优化。构建和维护数据管道,处理ETL过程,确保数据质量和准确性。 3、技术研究和应用:参与相关项目的数据需求的实现,设计和编码工作。参与开发过程中相关技术的研究和验证。 4、平台运维和质量管理:负责大数据平台的数据及相关的应用开发、调优及维护。完成日常数据质量的监控,参与大数据平台的日常运维工作。 5、针对数据一致性、准确性、及时性,制定数据管理与治理机制,提升数据易用性、可用性及稳定性; 任职要求 : 1、本科及以上学历,计算机相关专业,3-5年以上数据开发经验; 2、具备至少一个完整的大数据平台和BI系统实施经验,熟知平台建设各环节工作,包括数据采集、数据落地、仓库建设、数据平台搭建、数据应用产品开发 3、熟悉基于推荐系统的数据仓库建设方法论,有数仓模型设计及ETL开发经验;有数据仓库分层架构设定经验者优先; 4、熟悉Hadoop生态相关技术,如Hive、HDFS、Impala、Spark、Presto、Flink、Hudi、Elasticsearch、HBase、Druid、Kylin等,有基于分布式数据存储与计算平台应用开发经验,有较为系统的海量数据性能处理经验; 5、熟悉java、scala、python等语言,熟悉微服务,分布式架构,熟悉springcloud,springboot等技术开发; 6、熟悉数据仓库原理,有离线数仓、实时计算、数据挖掘、ETL、用户画像、数据可视化等设计与开发经验; 7、熟悉MySQL、PostgreSQL、NoSQL等数据库中至少一种数据中心建设方案,可以进行产品的独立部署、高可用架构和性能优化,熟悉开源社区解决方案; 8、熟悉阿里云大数据组件E-MapReduce、Dataworks、MaxCompute和国际AWS的EMR相关数据产品等,市场常见BI产品(superset、FineBI、神策数据)等相关组件者优先; 9、较强的学习能力和技术钻研能力、有自我驱动意识,对数据采集、数据治理、数据开发、数据分析、数据建模、算法等有深刻认识和实战经验。 期待您的加入哟,我们为您准备丰厚福利待遇: 【法定福利】:公司按国家规定购买五险一金+商业保险(员工本人及子女商业保险)+带薪年假; 【节日关怀】:节日福利礼品,以及节日礼金; 【公司福利】: 机场及高铁的贵宾服务(龙腾卡权益)+年度员工健康体检+平安360服务(在线问诊、VIP挂号及重疾紧急入院服务)+年度2次免费洁牙服务 公司提供咖啡、零食、下午茶 员工活动、旅游及团建,不定期举办聚餐、唱K、电竞赛、篮球赛、拓展、旅游、生日Party等 【学习与培训】:助力职业发展与提升,内外训双引擎发力助你高速发展 【晋升机会】:公司设立良好的晋升机制和广阔的发展空间。
-
职位描述: 1、 针对公司拟引入的新设备品类,独立开展品类可行性研究,包括政策分析、产业链梳理、市场需求分析、流通性评估、技术动态及风险点识别,形成系统性行业分析报告,为公司业务决策提供风控支持; 2、 独立开展项目的尽职调查,涵盖设备供应商/客户主体资质、经营状况、信用状况、合同履约能力等关键要素,编写项目尽调报告,综合分析项目结构与资产特性,识别核心风险并提出切实可行的风险控制方案; 3、 参与制定与优化公司整体风控政策、项目准入标准、租后预警规则等,推动公司风控体系制度化、标准化建设; 4、 跟进项目执行情况,识别异常风险,进行风险监控,对问题资产处置提供专业建议。 岗位要求: 1、 本科及以上学历,3年以上从事风险管理相关工作经验; 2、 能独立撰写行业研究分析报告和尽职调查报告; 3、 对项目有较强的风险识别与判断能力,具备良好的商业敏感度与逻辑分析能力; 4、 有互联网金融从业经验者优先; 5、 具有高度的责任感和敬业精神,有良好的团队协作能力。
-
20k-40k·13薪 经验5-10年 / 本科旅游|出行 / D轮及以上 / 500-2000人岗位职责 1、参与或主导实时风控决策引擎、策略管理平台、实时标签/特征服务等关键系统的架构设计、技术选型与持续演进 2、推动可观测性建设、异常恢复机制、服务限流降级等稳定性建设,参与建立可复制的高质量工程规范和开发流程 3、与风控策略、产品、数据等团队紧密协作,落地策略自动化、规则执行效率提升等系统能力,支撑快速、精准的风险识别与处置 4、主动识别系统瓶颈,承担核心模块技术攻坚任务,参与团队技术能力提升和知识体系建设 任职要求 1、本科及以上学历,计算机相关专业,具备扎实的算法、数据结构、操作系统等基础知识 2、精通 Java,熟悉Golang,具备良好的编码规范与系统设计能力,能够独立设计并实现复杂系统 3、熟悉微服务架构,具备高并发、高可用、高可扩展系统开发经验,理解分布式系统中的常见问题与解决思路 4、熟练使用 MySQL、Elasticsearch、Redis、Neo4j 等常见中间件与数据库,理解其在风控与交易系统中的应用与性能优化方式 5、有5年以上中大型互联网平台后端研发经验,具备电商/支付/风控系统相关背景者优先 6、善于跨团队沟通与协作,具备较强的业务理解力、自我驱动能力与技术判断能力,能够在复杂场景中推动项目高质量落地 加分项 1、具备风控平台建设经验,如规则引擎、模型服务平台、用户画像、设备指纹、异常行为检测等系统模块设计经验 2、有流处理系统(如 Flink、Doris)、图数据库(如 Neo4j)或实时数据链路实践经验 3、熟悉黑灰产行为模式、策略对抗机制,具备实际风控项目的落地与优化经验
-
岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: •基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; •设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; •通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 •负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; •基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; •针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 •**本科及以上学历,计算机相关专业,大数据开发相关经验; •熟练掌握并使用(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; •熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; •具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 •具有良好的沟通能力和组织协调能 加分项: •有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; •理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; •对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。


