-
职责描述 1、负责数据安全领域售前技术支持工作,售前技术交流、方案设计、招投标、产品测试,并支撑后期项目实施; 2、负责引导及挖掘客户需求,与用户开展各种售前技术交流,包括概念宣讲、解决方案介绍、产品演示与介绍、需求调研、方案编写等技术交互工作; 3、负责挖掘行业普遍需求,寻找客户痛点,提炼产品在行业的价值特征,编写相关产品推广文档。 4、参与市场活动演讲、客户专题培训; 5、安全产品、安全服务、安全平台类项目售前工作。 任职资格: 1、本科及以上学历,5年以上安全行业售前或售后工作经验; 2、熟悉售前技术支持的过程,具备相关经验与技能; 3、良好的表达沟通能力、政企大客户服务意识、方案撰写能力; 4、文笔过硬,较强的沟通能力,灵活的处事方法,能够适应不定期的出差,擅长PPT编写和演示; 5、具备IAPP/DSMM/CISSP/ISO27701/CISP-DSG/CISP-PIP等数据安全领域证书者优先; 6、在数据安全与隐私保护领域咨询和落地实践经验2年以上者,或具备完整的数据治理项目实践经验者优先。
-
岗位职责: 1. 主要从事研究软件应用的安全解决方案和架构设计,推进落地;设计数据安全管控平台安全合规的技术架构与平台能力,针对安全违规场景设计检测与打击方案,构建可度量的业务信息系统风险模型; 2. 主要从事研究公/私有云(含容器云)的关键技术、安全解决方案和架构设计,推进落地;结合相关政策要求及业务需求,整合内外部工具能力实现安全风险的快速发现与处置; 3、主要从事研究安全一体化平台的解决方案和架构设计,推进落地; 4. 提供应用安全开发过程管理和关键技术研发等安全技术支持,协调推进跨团队项目,对安全事件进行跟踪分析及快速定位解决; 5. 通过培训/知识库建设/工具平台建设/流程优化等手段,帮助团队提升安全意识与能力; 岗位要求: 1、本科及以上学历,信息安全、计算机、网络相关专业优先,有5年以上网络或数据安全产品研发与运营安全管理经验优先; 2、熟悉网络安全、数据安全理念、方法与流程,对国内外数据安全前沿技术有充分的理解,具备内容安全/安全检测/安全合规/黑灰产检测对抗等方面经验; 3、熟悉数据生命周期安全管理,有企业级数据安全体系建设经验, 具备复杂项目的管理推动相关工作经验,自驱力强; 4、熟悉ISO27001、GDPR、等保2.0、DSMM等安全标准,具有落地经验; 5、较强的逻辑思维及数据分析能力,具备出色的需求分析及安全模型构建能力;深入了解数据安全管理平台(规则创建、关联等),对资产管理、数据安全能力、事件分析与定位、报表生成等有了解,有实战经验; 6、熟悉业界安全检测和响应技术,在误报降低优化,安全自动化运营等领域有相关经验; 7、熟悉ElasticSearch、flink、kafka、spark等相关技术栈并具有相关使用经验优先; 8、熟悉安全基础架构和平台,具有数据安全管理平台、SIEM、SOC、态势感知等架构设计经验者优先 9、有过PB级安全数据自动化分析或安全响应体系构建经验者优先 10、具有CISSP、CISP、CISA、CCIE、CCSP等相关认证优先录用,条件优秀者可适当放宽。
-
ETL(数据仓)岗 技能: IT相关专业本科以上学历,计算机专业 有数据仓库相关项目经验,对数据仓库有一定了解 4年以上ETL项目经验 3年以上SQL Server和SQL Server/Oracle工作经验 熟悉DataStaget/ Informatica或其他ETL工具 有云计算经验和Azure优先。 擅长解决方案设计。 良好的英语读写能力,口语优秀加分 工作描述: 参与ETL项目的编码、测试和一般支持 DataStage岗: Oracle或者SQL Server其中一种精通,其他主流数据库其中一种精通愿意转学习新数据库的也可以, ETL工具:DataStage必须会,会写Unix/Linux的Shell脚本或者windows batch。 本科以上专业不限,英文读写。
-
岗位职责: 1:数据项目的ETL开发工作 2:熟悉hadoop架构 hdfs spark flink 3:熟练使用ETL工具,比如datastage/kettle/datax/dolphinscheduler等 4:设计ETL整体架构和任务调度平台 5:熟悉ETL流程及开发 6:参与数据仓库ETL流程优化及解决相关技术问题 7:熟练编写plsql 8:参与数据仓库建模,不断改进现有数据仓库 9:大数据环境的搭建与运维 10:熟悉python或java优先 11:熟悉MPP(doris clikhouse)优先 任职要求: 1.本科及以上学历,计算机/软件工程等相关专业优先; 2.2年以上相关工作经验,有大型数据仓库实施经验者优先; 3.有良好的沟通能力和自我驱动动力,具备出色的规划、执行力,有强烈的责任感,以及优秀的学习能力,对技术有热情,愿意不断尝试新技术和业务挑战。 福利待遇:早九晚六 做五休二 带薪年假 零食下午茶 年度体检 定期团建
-
1、基于用户需求,与数据开发工程师共同搭建数据主题及明细层,包括定义、口径等,建立和维护数据体系标准和规范。 2、对数据敏感,具有优秀的数据分析能力和解读能,对数据监控、风险预警、数据化运营具有独到的见解。 3、协同多方资源,负责项目推进过程中的协调沟通工作,能协调各资源以确保项目顺利进行,为结果负责。 任职要求: 1、本科以上学历,具备数据相关工作经验。 2、有较强的逻辑思维和数据分析能力,认真仔细,熟悉统计分析相关工具,对数据敏感度高。 3、思路清晰,抗压性强,良好的沟通能力,具有团队合作精神。
-
岗位职责 1、负责制定数据领域技术规范。 2、负责制定、评审数据标准。 3、负责参与公司数据治理战略、数据架构的规划及制定,并组织实施落地。 4、负责数据治理领域中元数据管理、主数据管理、数据标准管理、数据质量管理、数据安全管理、数据分类分级管理、数据全生命周期管理相关工作及系统建设。 5、负责数据应用及管理类需求的分析和评估,对数据情况进行调研、分析,提供数据管理解决方案。 招聘要求 1、本科及以上学历,计算机、数学相关专业5年以上的数据类系统开发经验,有金融行业(保险、银行等)数据类系统开发经验者及数据架构设计者优先。 2、对数据治理领域的发展有深刻理解。 3、在数据集成、数据标准、数据质量管理、数据模型管理、元数据管理、主数据管理、数据安全与隐私保护等数据管理领域有深刻理解和重大项目实施经验。 4、有较强的方案整合能力和报告编制能力,能独立统筹负责项目,有重大项目方案需求实施及落地经验。 5、有大型企业级数据仓库、大数据平台、数据中台项目落地经验者优先。 6、符合中国人寿集团和广发银行亲属回避制度。
-
1、面向快手海外不同方向业务(产品、运营、商业化、直播、增长等)提供分析支持; 2、设计科学可靠的业务指标体系,为产品决策和策略迭代提供高质量的数据“指南针”; 3、深入业务,通过科学有效的分析帮助业务揭示增长机会,回答业务的关键战略问题,驱动业务优化迭代; 4、帮助业务设计并评估分析A/B实验,借助实验帮助业务快速迭代优化; 5、基于对业务关键问题的深入思考,规划并开展自主驱动的专题分析,协同业务团队将分析的洞见落地。 你将获得: 1、**项目经历加持:足够宽的业务跨度,研究涉及用户消费相关的方方面面;率先踏入中国互联网行业最新战场,海外业务扩展; 2、自身综合能力的高速提升:可直接与互联网行业经验丰富的产品大神、算法牛人、硅谷数据科学家共事,成长曲线陡峭; 3、加入公司当前重点发展部门,在充分表现自己工作能力的基础上,有更高的转正机会; 4、良好的团队氛围:与来自清北复交、海外名校的小伙伴共同学习成长,跨团队合作,培养沟通技能。 任职要求: 1、拥有统计学、运筹学、计算机等理工科类或商科类相关专业的本科及以上学历; 2、概率统计基础扎实,了解 AB 实验,熟悉 Hive 或 SQL,熟练使用 R/Python/Tableau 等分析工具; 3、具有良好的商业分析能力和商业敏感度,能够快速学习了解业务知识,能够将模糊的商业问题转化为具体的分析课题并解决; 4、出色的逻辑能力和表达能力,自驱、目标导向,善于和业务团队沟通,能够跨部门组织协调,推动问题解决; 加分项: 1、一定的英文听说读写能力,有海外学习经验的应聘者优先; 2、有互联网一线大厂/海外大厂数据分析/商业分析/经营分析相关经验优先; 3、熟悉机器学习,熟悉 AB 系统,有过复杂实验设计&分析的应聘者优先; 4、有丰富的决策支持报告撰写和对管理层汇报经验优先; 5、有短视频、直播、社交媒体等相关行业经验优先。
-
岗位职责: 1.负责数据分析(BI商业智能)相关系统功能开发,如数据转换、清洗、加载等; 2.基于业务需求进行指标分析和数据结构设计; 3.使用数据加工平台进行数据加工作业开发; 4.负责系统数据板块功能的日常维护工作。 任职要求: 1.计算机及相关专业本科毕业,3年以上相关工作经验,熟悉Linux、Shell、Python等脚本语言; 2.精通SQL,熟悉存储过程的编写,熟悉关系型数据库MySQL; 3.熟悉MPP数据库,熟悉SAS平台者优先; 4.有金融行业业务经验者优先。
-
岗位职责: 1、负责数据开发,包括但不限于报表开发,数据仓库等,对接各部门数据需求,及时准确地提供数据支持,进行BI设计和开发; 2、与团队成员紧密合作,解决业务数据分析、数据报表、数据应用等遇到的问题,发挥数据价值; 3、参与数据仓库、集市的各个主题建设,设计多维模型、实现ETL,对相关数据进行梳理、分析,搭建相关业务数据BI报表; 任职要求: 1、本科及以上学历,计算机或者相关专业,需要有一定编程开发经验,如Java编程; 2、熟悉ETL开发,熟悉BI相关工具,如Kettle,Sqoop,superset,QuickBI,帆软,Tableau等工具; 3、灵活运用SQL进行ETL加工处理 ,SQL能力强,熟悉MySQL、Oracle等多种关系型数据库设计、开发经验; 4、熟悉Hive、Impala、Spark,Flink等分大数据组件优先,有数据仓库建设经验优先; 5、熟悉Linux系统环境,熟悉Shell/Python等至少一种脚本语言。 6、对数据敏感,有数据驱动的意识及主动性,能够快速学习新东西且对学习新事物充满热情!
-
职位职责: 【团队介绍】我们致力于建设行业**的无代码/低代码平台,加速企业数字化进程。让懂业务的人无需开发、快速构建出贴合业务需求的应用,助力业务人员自我价值最大化;将研发人员从低效重复的工作中解放出来,改变低效的研发模式;打通企业数据、减少数据孤岛,让企业掌握快速创新的主动权。 1、负责飞书应用引擎(aPaaS)的数据、权限方向的产品设计和迭代优化; 2、负责分析产品用户数据,深入用户使用场景、挖掘用户需求痛点,推动产品持续创新及优化; 3、负责协调内外部资源,推动产品项目全流程高效运转,并保证产品功能和体验高质量落地。 职位要求: 1、本科及以上学历,5年以上To B产品设计经验,具备技术背景优先; 2、洞察行业及市场动态,能够把握事情本质,具备在复杂环境下解决问题的能力; 3、善于整合资源,能够快速推动产品落地和发展; 4、具备:aPaaS、SaaS、数据建模、权限、日志、Open API、可视化ETL 等产品设计经验优先。
-
工作职责: 1、根据集团大经营体系数据规划,按需完成各数据主题数仓搭建; 2、承接核心业务的需求对接、数据清洗、质量监控、数据运维等开发需求; 3、优化数仓模型和SQL性能,参与数据治理工作,确保数据服务质量; 4、使用公司自研BI工具,进行报表开发可视化展示; 5、基于业务问题或需求,开展数据挖掘与分析,并以专题或项目的方式推动数据驱动项目的落地; 任职资格: 1、精通SQL,具有3年以上数据开发或ETL开发经验,能够使用HiveSQL,能够编写MR等完成离线数据的开发工作; 2、熟练使用python或者java等至少一种语言进行编程; 3、熟悉大数据周边产品,具备Hadoop/Hive/Spark/Flink/Kafka等大数据工具应用和开发经验; 4、本科或以上学历,数学、计算机等相关专业,优秀的业务理解能力和良好的沟通协调能力; 5、工作态度端正,具有高度的责任心及团队精神,积极参加部门各项集体活动; 具备以下者优先 1、有利用Python进行机器学习算法经验者优先; 2、有标签和画像相关系统建设经验者优先; 3、有数据治理实践经验者优先; 4、有互联网复杂需求场景的数据开发实践者优先;
-
岗位职责: 1.对目标行业或者公司进行数据分析、模型设计开发:包括数据清洗、加工、统计建模、模型验证等; 2、对监测数据的质量,数据完整性,异常值等进行监控,及时发现问题并优化模型; 3. 负责数据模型的ETL实施, ETL性能调优及相关技术问题的解决; 4、跟进并监控模型指标变化,完成公司或者行业分析、数据模型优化与迭代等工作; 5、掌握SQL/Python等一门以上ETL开发语言,熟悉HIVE/doris大数据平台相关技术者优先; 6.有机器学习/数据挖掘,图计算/图模型,深度学习使用经验 7.熟练使用Python,spark,tensorflow等建模工具 8.能够基于反洗钱特征库建立反洗钱智能预警模型并调优 9.与业务、数据和研发部门建立良好沟通机制,实现需求开发、测试验证和落地使用 岗位职责: 1、 大专及以上学历,从事数据仓库领域工作至少5年以上,熟悉数据仓库模型设计方法论(重点考察维度模型),并有实际模型设计及ETL开发经验(熟悉各种场景下的ETL加工和处理技术); 2、 掌握大型数据库开发技术,如Oracle/DB2/Hadoop/TD/MPP等等掌握至少其中一种,灵活运用SQL实现海量数据ETL加工处理; 3、 至少主导或参与过银行数据仓库模型建设 有设计到实施的经验; 4、 熟悉数据仓库领域知识和管理技能,包括但不局限于:元数据管理、数据质量、性能调优等; 5、 有从事分布式数据存储与计算平台应用开发经验,熟悉Hadoop生态相关技术并有相关实践经验着优先。 6.有机器学习/数据挖掘,图计算/图模型,深度学习使用经验 7.负责金租大数据平台项目的策略制定,风控建模,数据建模 数据领域,信贷相关背景优先
-
13k-26k 经验3-5年 / 大专软件服务|咨询,IT技术服务|咨询 / 不需要融资 / 50-150人外企银行 双休 不加班 实际有五个岗位: 4-9年:数据分析,deep learning, NLP, transformer model 3-6年:数据开发,Hadoop, Spark, Kafka, SQL, Flink 3-6年:数据开发,Python, SQL, pandas, database 2-6年:Machine Learning Engineer,Python, Docker, CI/CD, Machine Learning and/or ML model monitoring experience a plus 6-9年:Experience in HDFS, Map Reduce, Hive, Impala, Sqoop, Linux/Unix technologies. Spark is an added advantage. Job Duties & Responsibilities: • Support finance regulatory reporting projects & applications as ETL developer | Big Data applications by following Agile Software development life cycle | level 2/3 support of the data warehouse.
-
岗位职责Job Description: 你将紧密与公司业务部门,供应链部门, IT部门合作,深入了解业务模型、系统架构、数据管理、数字化应用以及可用数据资产。 You will work closely with the company's business, supply chain and IT departments to gain insight into the business model, system architecture, data management, digital applications and available data assets. 1具有高度的责任心,爱岗敬业,工作细致认真,诚实守信,忠于公司,具有团队协作精神,认真完成公司上级交给的各项工作 Have a high sense of responsibility, love the job, work seriously and responsibly, honest and trustworthy, loyal to the company, with teamwork spirit, conscientiously complete the work assigned by the company superiors 2 熟练掌握业务流程,业务模型等相关业务知识和R、SQL、VBA、Tableau, Python, power BI等计算机应用知识,能应用多种软件进行各种数据分析和综合数据处理,通过数据+推动业务增长 Proficiency in business process, business model and other related business knowledge and R, SQL, VBA, Tableau, Python, power BI and other computer application knowledge, able to apply a variety of software for various data analysis and comprehensive data processing, drive business growth with Data+ 3 负责线上零售数据抽取、清洗、上传的自动化,及线上零售数据的数据仓库搭建,实现数据清洗、转换、整合的透明化、可追溯性及可验证性 Be responsible for eCommerce Sell-through data ETL(extraction, cleansing and loading) automation and construction of data warehouses to realize the transparency, traceability and verifiability of data cleansing 4 了解业务流程及业务需求,协助完成需求调研及总结,项目方案设计,配合需求方针对相关问题优化业务流程并结合技术手段提供创新性解决方案 Understand the business process and business needs, participate in helping to complete the demand research and summary, project solution design, cooperate with colleagues to optimize the business process for related issues and provide innovative solutions combined with technical means 5 监控项目过程,确保项目交付 Monitor the project process and ensure project delivery 资质要求Requirements: 1. 本科以上学历, 信息系统相关管理专业 Bachelor's degree or above, information technology management related major 2.有ETL或大数据分析经验,具备项目管理知识 Experience in ETL or big data analysis with project management knowledge 3. 具有较强的执行力,理解力及报告能力 Good execution, understanding and reporting skills 4.责任心强,沟通能力、学习能力强 Strong sense of responsibility, strong communication skills and learning ability
-
工作职责: 1、负责公司所有项目的技术支持、数据交付支持工作; 2、优化数据流程、设计数据交付系统、自动化数据交付工作、开发提升效率的工具; 3、负责搭建、维护数据服务系统。根据需求对接数据源,整理数据及相关文档; 4、负责对数据的收集、整理、组织、存储、加工、归档、消亡各个过程进行控制与管理,以确保获得准确的数据满足业务分析和安全要求; 5、负责建立数据标准、数据质量等规范,配合相关团队完成流程体系建设; 6、负责从业务源系统中进行数据抽取、清洗、加载、转换、建模,为产品和营运等多方面提供技术支持; 7、负责集团大数据平台开发和建设工作,包括数据的接入,数据流处理,数仓构建及开发。 任职资格: 1、2年以上数据工程工作经验,本科及以上学历,数学、计算机科学与技术或统计学等理工类相关专业; 2、熟练使用Python、Shell、SQL等语言,能够快速完成数据相关的脚本开发; 3、熟悉JupyterNotebook/Pandas等工具,能够快速完成数据分析工作; 4、熟悉SQL Server、MySQL、PostgreSQL、ClickHouse等数据库使用,熟悉大数据平台技术栈; 5、熟悉数据仓库建设方法和掌握kettle等ETL相关工具; 6、熟练使用Excel、PowerPoint、Word等办公软件使用; 7、具有良好的逻辑分析、语言表达、软件及文档编写能力; 8、具备优秀的数学思维和建模思维; 9、具有良好的项目管理及组织协调能力; 10、具有较强的英文阅读能力,能够流畅阅读相关专业技术与学术资料; 11、具有一定数据架构经验者优先;