• 科技金融 / 不需要融资 / 2000人以上
    工作职责: 1、遵循公司制度与技术规范完成岗位工作; 2、独立承担软件模块的设计、开发、自测文档等工作,确保交付软件的质量和安全; 3、分析和查找关联复杂问题的根本原因,制定解决方案; 4、识别软件开发风险,并做好风险应对预案; 5、外部协同,与关联岗位做好沟通,协同保证软件整体交付; 6、完成上级交办其他开发相关工作。 任职资格: 1、计算机相关专业本科及以上学历。 2、3年以上数据开发经验,有IFRS17新会计准则项目开发经验者优先。 3、精通SQL语言,具备复杂查询、性能调优、存储过程编写等能力。 4、熟练使用至少两种主流数据库(Greenplum,Oracle,MySQL,PostgreSQL)进行开发、管理和优化,理解其核心架构与特性。 5、熟练掌握Python和Shell脚本编程,能够独立完成开发任务。 6、了解至少一种国产或新兴数据库(如OceanBase,TiDB,人大金仓)的基本原理和使用方式。 7、了解ETL工具(如Informatica,DataStage,Kettle等)或调度工具(如Airflow,DolphinScheduler,Moia等)
  • 15k-25k 经验3-5年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    工作职责: 1.数据同步与ETL开发: 负责设计、开发、测试和维护数据同步、抽取、转换和加载(ETL)流程,确保数据高效、准确、稳定地从源系统流向目标系统。 2.数据同步通道部署与运维: 负责使用OGG、DSG等数据同步工具进行通道的部署、配置、监控、调优和故障处理,保障数据同步通道的稳定运行。 3.日常数据开发与运维: 使用Python、Java等编程语言进行日常数据开发任务(如脚本编写、自动化任务开发)和数据运维工作(如数据质量检查、任务监控、问题排查)。 4.数据库开发与操作: 熟练编写和优化SQL脚本,基于Greenplum、Oracle、MySQL、PostgreSQL等主流数据库进行数据查询、分析、转换和存储过程开发等。 5.数据运维程序开发:根据业务需求,开发数据清洗、转换、入库等相关的运维程序和工具,提升数据处理效率和自动化水平。 6.数据质量保障:参与数据清洗规则的制定与实施,确保入库数据的准确性、完整性和一致性。 任职资格: 1.工作经验: - 3年以上数据开发相关工作经验。 - 具备以下经验优先: 1)有使用 OGG (Oracle GoldenGate) 或 DSG 等数据同步工具的实际部署、配置或运维经验。 2)了解ETL工具(如 Informatica, DataStage, Kettle 等)或调度工具(如 Airflow, DolphinScheduler 等)。 2.技术能力: - 熟练掌握 Python 和 Shell 脚本编程,能够独立完成开发任务。 - 精通 SQL 语言,具备复杂查询、性能调优、存储过程编写等能力。 - 熟练使用至少两种主流数据库(Greenplum, Oracle, MySQL, PostgreSQL)进行开发、管理和优化,理解其核心架构与特性。 - 了解至少一种国产或新兴数据库(如 OceanBase, TiDB, 人大金仓(KingbaseES))的基本原理和使用方式。 - 熟悉 Linux 操作系统(如 CentOS, RedHat, Ubuntu 等),掌握常用命令、系统管理、环境配置和脚本执行。 - 加分项 (非必需,但优先考虑): 1)具备一定的 Java 开发能力。 2)熟悉数据仓库建模理论(如维度建模)。 3)有大数据生态组件(如 Hive, Spark, HDFS 等)的使用经验。 4)了解容器化技术(Docker, Kubernetes)。 3.其他要求: - 具备良好的学习能力、分析问题和解决问题的能力。 - 工作认真负责,有较强的责任心和团队协作精神,能承受一定的工作压力。 - 具备良好的沟通能力,能够清晰表达技术方案和问题。
  • 8k-11k 经验不限 / 本科
    硬件 / 不需要融资 / 2000人以上
    岗位职责: 工厂 TPMS 及智能平合规划与设计 ADS 提取资料,DW/DM清洗及建模与看板开发:数据以Grafana 做视觉呈现,数据探勘等算法撰写具有 IOT 嵌入式编程更佳 岗位要求: 1.大专及以上,计算机,电子相关专业即可 2.1 年以上 IoT 设备开发及 Data Engineer 之经验,或曾有过可视化开发经验 程序语言及工具要求: 1.kafka ,kettle 以及flink 或其他类似 tool 2.SQL Node.js and TypeScript 3.Python&grafana
  • 12k-15k 经验5-10年 / 本科
    软件服务|咨询,数据服务|咨询,IT技术服务|咨询 / 未融资 / 15-50人
    职位描述: 岗位职责 1.参加公司的项目BI报表开发工作; 2.根据开发进度和任务分配,完成相应报表的设计、开发等任务; 3.进行报表单元、功能的测试,查出报表存在的缺陷并保证其质量; 4.负责报表的日常维护工作,解决生产上的问题和缺陷; 5.根据公司技术文档规范编写相应的技术文档以及编写相应的说明书。 任职资格 1.熟悉 SQLserver、MySQL、Oracle 数据库,存储过程编写,Java 编写帆软数据程序集。 2.熟练可视化报表工具:FineReport/FineBI/PowerBI/smartBI,能独立完成可视化驾驶舱大屏看板、普通分析看板、决策看板及填报报表的开发。 3.熟悉 ETL 流程,熟练使用 Kettle、spoop、Datax 等工具,可完成包括但不限于对数据进行清洗、转换、 加载。 4.熟悉 LINUX 系统,掌握基本 LINUX 基本命令以及 shell 脚本。 5.熟悉大数据组架 HDFS、MapReduce 工作原理及 yarn 的资源调度方式。 6.熟悉hive、spark、flink、hadoop生态圈。 7.接受本地或异地项目驻场工作,接受长短期出差。 8.具备帆软认证资深报表工程师(FCRP); 帆软认证BI工程师(FCBA);帆软认证数据运营师(FCAA)等证书优先。 9.具备良好沟通能力,较好的人际交往能力,团队协作能力强者优先。 10.有5年以上的交付经验,具备独立带团队交付项目能力,有帆软BI项目交付经验优先。
  • 10k-15k 经验3-5年 / 本科
    软件服务|咨询,数据服务|咨询,IT技术服务|咨询 / 未融资 / 15-50人
    岗位职责 1.参加公司的项目BI报表开发工作; 2.根据开发进度和任务分配,完成相应报表的设计、开发等任务; 3.进行报表单元、功能的测试,查出报表存在的缺陷并保证其质量; 4.负责报表的日常维护工作,解决生产上的问题和缺陷; 5.根据公司技术文档规范编写相应的技术文档以及编写相应的说明书。 任职资格 1.熟悉 SQLserver、MySQL、Oracle 数据库,存储过程编写,Java 编写帆软数据程序集。 2.熟练可视化报表工具:FineReport/FineBI/PowerBI/smartBI,能独立完成可视化驾驶舱大屏看板、普通分析看板、决策看板及填报报表的开发。 3.熟悉 ETL 流程,熟练使用 Kettle、spoop、Datax 等工具,可完成包括但不限于对数据进行清洗、转换、 加载。 4.熟悉 LINUX 系统,掌握基本 LINUX 基本命令以及 shell 脚本。 5.熟悉大数据组架 HDFS、MapReduce 工作原理及 yarn 的资源调度方式。 6.熟悉hive、spark、flink、hadoop生态圈。 7.接受本地或异地项目驻场工作,接受长短期出差。 8.具备帆软认证资深报表工程师(FCRP); 帆软认证BI工程师(FCBA);帆软认证数据运营师(FCAA)等证书优先。 9.具备良好沟通能力,较好的人际交往能力,团队协作能力强者优先。 10.有5年以上的交付经验,具备独立带团队交付项目能力,有帆软BI项目交付经验优先。
  • 8k-12k 经验不限 / 不限
    数据服务 / 未融资 / 15-50人
    需要一定的帆软工作经验或tableau、赛思、思迈特软件经验。 需要帆软供应商体系人员,P1-2级别,其他勿扰。 职位描述 1、负责项目中的报表开发工作(帆软FineReport、FineBI); 2、负责项目中的etl数据处理等实施工作; 3、负责项目中产品的安装、部署、数据梳理和系统初始化等实施工作 任职资格。 1、大专及以上学历,计算机及相关专业优先; 2、熟悉Mysql、Oracle等关系型数据库,能熟练编写SQL代码; 3、熟悉Finereport、FineBI等报表工具; 4、较好的沟通能力以及文档编写能力; 5、熟悉kettle等etl工具。 6、必须持有FCP-D证书。 需求: 1、能接受华中地区出差(湖北、湖南、江西三地),主要是江西。
  • 7k-8k 经验1-3年 / 本科
    移动互联网,企业服务 / A轮 / 15-50人
    职责描述: 负责数据采集、数据模型设计和 ETL 设计、开发和文档编写; 负责离线/实时数据同步和清洗; 负责分析和解释产品试验,为公司数据清洗产品改进、推广试验等提供数据支持; 负责建立数据清洗规则,为数据治理项目的实施落地提供支撑。 任职要求: 本科及以上学历(***公办本科大学,学历可在学信网验证),计算机相关专业,2年以上相关工作经验,有医疗或教育领域数据治理经验者优先; 1-2年的数据ODS、数据集市、数据仓库等数据类项目实施开发经验; 熟悉oralce、db2或mysql等常用数据库; 熟悉使用taskctl、control-m、datastage或kettle等常用一种etl工具; 熟悉使用Shell、Python或Perl等常用脚本开发语言; 熟悉使用shell脚本及Linux命令; 良好的沟通、理解能力,工作细致、耐心、负责。
  • 10k-15k 经验1-3年 / 本科
    IT技术服务|咨询 / 不需要融资 / 15-50人
    岗位职责: 一、沟通需求: 驻场或远程与各地公安经侦、刑侦沟通,从资金层面为案件提供情报导侦,协助资金证据固定、人员落地,配合审计出具报告,打击jingji Fanzui。 二、数据分析: 分析梳理涉案主体/账户的交易行为特征、关联关系、角色分工、犯罪链条。使用SQL 脚本根据账户资金交易特征、交易对手特征,结合口供、后台层级关系、已掌握的人员关系、股权穿透等判断账户属性,根据资金流水中的ip/mac等信息划分团伙,挖掘嫌疑人生活消费规律、活动轨迹,进行账户扩线,挖掘更多可疑涉案账户,协助警方确定窝点位置及人员位置实施落地打击。使用到kettle/SQL/Excel/VBA/python等工具合并、清洗、补全、规范资金数据并导入MySQL/PostgreSQL数据库。 1、指标分析:针对涉案主体、交易金额、交易时间、IP/MAC地址等不同维度构造度量指标,从而分析资金交易行为特征/规律,发现可疑人员、可疑账户、团伙关系。 2、时间序列分析:将多个可疑账户的交易记录绘制成时序图,分析发现涉案资金的交易链路或交易环路,识别涉案人员/公司之间的资金流转行为、流转习惯。 3、网络关系分析:由后台推荐数据或资金交易数据绘制生成网络关系图,研判网络传销案件的推荐层级/资金周转的账户角色,发现人员关联,梳理分工。 4、标签分析:根据前期的指标信息,建立包含可疑交易特征、账户角色、涉案主体角色等的标签库,方便后期多维度综合分析。 5、文本分析:对交易数据中的备注/交易说明字段进行文本处理和统计汇总,分析资金用途,发现可疑账户以及上游犯罪信息。 6、比对分析:通过抽样比对或编写脚本按条件批量比对资金流水数据和后台充值提现记录,验证资金流转事实,研判作案工具账户。 追踪资金流向,找出犯罪资金链路,使用 i2/xmind 等工具可视化资金流向。汇报阶段性工作成果,撰写资金穿透分析报 告。 三、结果交付: 前期线索阶段出具待调单列表调取数据,中期立案抓捕阶段撰写后台/资金分析导侦报告,配合客户出具立案打击/冻结材料,后期固定证据阶段交接前期分析结果、配合电子数据鉴定和司法会计鉴定。 四、知识积累: 收集常用的工作脚本整理成工具库,绘制Xmind图记录不同类罪的账户交易特征、分析思路、工作框架。 五、项目管理: 推进项目进度解决项目中出现的问题,确保项目能保质保量完成。及时发现项目隐形问题,尽早制定相对应的解决方案。 六、团队管理: 培训和指导团队成员。评估团队成员的工作表现,对不足的方面及时指导。 七、风险管理: 识别和评估项目中的风险。制定缓解策略和应对计划。 八、决策: 紧急复杂情况下做出关键决策,带领团队完成项目。 九、法币、虚拟币案件分析,黑灰产业前沿技术的发掘、跟踪和研究。 任职资格 1、2年以上法币、虚拟币分析经验,并有多个成功案例。 2、有链上追踪经验。【硬性要求】 3、5人以上团队管理经验。 4、精通SQL、Excel、Python等技术对数据进行清洗、分析。 5、熟悉区块链、交易所、智能合约相关知 识。 6、熟悉网络Fanzui、黑灰产等相关产业运作方式,有协助过公安通过法币、虚拟币进行资金追踪实战经验。 7、逻辑清晰,具有敏锐的洞察力和分析能力,善于对热点问题进行探究。 8、有良好的沟通能力和团队组织能力及高度的责任心,具备较强的风险防范及控制能力。 9、精通主流数据分析工具,具备撰写数据分析报告的能力 10、有平台调证资源优先
  • 9k-12k 经验1-3年 / 本科
    企业服务,工具 / 上市公司 / 2000人以上
    岗位职责: 1、参与保险项目开发、实施、维护,负责与客户沟通及问题解决。 2、参与项目的的数据库开发,如存储过程、函数。 3、负责数据库设计与plsql开发 4、负责数据库sql优化、统计、分析 任职要求: 1、2年及以上ETL相关工作经验 2、精通Oracle数据库,有良好的sql开发技能,能熟练编写Oracle数据库中存储过程、函数。 3、熟悉Linux常用系统管理及文件管理命令,熟悉shell脚本编写。 4、熟练使用kettle工具进行数据开发。 5、具有一定的问题分析及决绝方案设计能力以及一定的文档编写能力。 6、熟悉Java开发语言优先,熟悉保险业务优先。
  • 2k-3k 经验在校/应届 / 本科
    其他 / 不需要融资 / 2000人以上
    岗位职责 1.制定和维护数据治理框架,包括数据质量、数据安全和数据合规性。 2.与业务部门合作,确保数据治理政策与业务需求相符合。 3.监控数据治理政策的执行情况,定期进行审计和评估。 4.管理数据分类和数据生命周期。 5.协调数据治理相关的项目和倡议。 6.为数据治理相关的技术和工具提供支持和指导。 7.确保数据治理流程符合相关法律法规和行业标准。 任职要求 1.计算机类相关专业本科以上学历(优秀者学历与专业适当放宽)。 2.强大的分析和解决问题的能力。 3.优秀的沟通和人际交往能力。 4.熟悉SQL、数据仓库和ETL工具。 5.熟悉Hadoop、Spark和Flink等分布式框架使用与运维。 6.熟悉java、python、C等其中至少一种开发语言。 7.有使用数据治理工具,ETL工具(如kettle)的经验者优先。
  • 10k-18k·13薪 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    【公司严格审查学历及工作履历,请确保您的简历与实际情况相符】 岗位职责: 1、从事保险业务数据平台中的ETL、数据分析、数据处理、前&后端等相关功能开发及运维; 2、负责所属模块的的需求分析、详细设计、代码开发、单元测试及运维文档编写等相关工作; 3、定期性能调优、优化调度性能及资源利用率,保证平台稳定高效; 职位要求: 1、本科学历学信网可查且毕业满3年及以上,有保险行业系统开发经验(Java/ETL/数据开发(BI、数仓、数据挖掘)等皆可); 2、有较强的SQL、HiveSQL能力,熟悉oracle、mysql、OceanBase,具备关系型、分布式数据库设计和开发经验; 3、熟知数据仓库设计理念、设计方法,能够熟练使用ETL工具Kettle,能够进行其ETL优化及解决相关技术问题; 4、精通大数据开发及运维相关技术:CDH、Kafka、Storm、hdfs、Hive等 ; 5、掌握Java编程语言,熟悉Java API开发; 6、熟悉Hadoop生态系统组件(如HDFS、YARN、MapReduce、Hive、HBase、Spark、Kafka等)的部署和管理,具备高效的问题诊断和解决能力; 7、熟悉SpringMVC、Springboot、CXF、Spring、MyBatis等开源框架、熟悉Kafka、Redis等中间件,有大型分布式、高并发项目设计开发经验; 8、熟练掌握Redis等缓存数据库的使用,掌握高并发数据写入的数据库结构设计与方法; 9、熟练使用Nginx,熟悉Linux操作系统,熟练使用Shell、Python等脚本语言; 10、熟练使用BI工具SmartBI,能够利用其生成报表、仪表盘等数据可视化内容; 11、了解JSP、JavaScript、Bootstrap、EasyUI等前端开发技术及框架; 12、熟悉保险核心业务、以及有ECIF、CCH、CEM、CRM、CDH等保险业务系统开发及运维工作经验者优先; 13、工作认真负责、积极主动、有良好的沟通能力及团队合作精神; 14、合适者待遇可谈。
  • 7k-10k·13薪 经验1-3年 / 本科
    IT技术服务|咨询 / 未融资 / 150-500人
    任职要求: 1、本科,计算机科学、信息管理、数据科学等专业; 2、熟悉数据库管理系统(DBMS)、数据仓库、ETL工具(kettle)等数据管理和数据处理技术; 3、具有一定的数据分析能力,能够使用数据分析工具和编程语言(如SQL、Python、R等)进行数据处理和分析; 4、了解数据治理的基本原则和方法,熟悉数据治理的关键概念和流程; 5、具备良好的沟通和协作能力,问题解决能力; 6、具备持续学习的意愿和能力,能够跟进和适应不断发展的数据治理技术和***实践。 岗位职责: 1、数据采集、清洗和转换; 2、协助数据项目经理,编写数据治理方案; 3、数据分析任务,如基本统计分析、数据关联分析等; 4、使用数据分析工具和编程语言,如SQL、Python或R,编写脚本或查询来提取和处理数据,撰写分析报告; 5、监控和维护数据质量,识别和纠正数据质量问题; 6、收集和维护数据的元数据信息,包括数据来源、定义、格式、用途等。 薪酬福利: 1、薪酬:基本工资、绩效工资、年终奖金、餐费补贴、通讯费补助等; 2、福利:年度季度嘉奖、六险一金、带薪年假、旅游拓展等丰富企业文化活动; 3、假期规定:公司提供按国家标准的有薪假期,法定节假日、年休假、婚假、产假等假期; 4、培训:公司重视员工个人发展,不定期为员工组织内部各项专业技能培训,公费外送培训。 5、员工活动:不定期举行郊游、文娱活动、公司旅游、公司年会等活动; 6、节日慰问:公司在端午节、中秋节、春节等传统重大节日为员工发放节日礼品; 7、办公环境:优雅、干净、整洁的办公环境,轻松、愉快的工作氛围。 8、其他:周末双休,7.5小时/天工作制,食堂、免费班车等。
  • 8k-14k 经验1-3年 / 本科
    数据服务|咨询 / 不需要融资 / 50-150人
    【职位描述】 1. 海量数据的ETL开发,抽取成各种数据需求; 2. 参与数据仓库架构的设计及开发 ; 3. 参与数据仓库ETL流程优化及解决ETL相关技术问题; 4、熟悉主流数据库技术,如oracle、Sql server、PostgeSQL等; 4、精通etl架构,有一定的etl开发经验,了解日常作业的部署和调度; 5、会数据etl开发工具,如Datastage,Congos,Kettle等。 【职位要求】 1、具有本科及以上学历,从事2年以上BI项目开发,具有企业级数据仓库开发经验; 2、有etl实际开发经验,掌握存储过程、Informatica Powercenter、IBM DataStage、kettle等至少其中一项ETL开发技术; 3、熟悉数据仓库逻辑架构,熟悉ETL流程、元数据管理、数据质量监控等数据仓库主要环节; 4、精通Oracle 、DB2、sqlserver 等数据库,具有2年以上应用开发经验; 5、深入理解SQL调优,具备处理大数据量、复杂业务逻辑的经验; 6、对开源技术非常感兴趣并具有一定的研究能力; 7、高度责任感和敬业精神,有良好的团队协作意识和沟通能力; 8、具有金融、电商或互联网公司海量数据处理工作经验者优先。 【面试流程】 初面(技术+HR)——复试(部门经理)——背调(学历认证、工作经历认证)——入职 【工作时间】 1、09:00——18:00 2、周末双休 3、法定节假日带薪休假 【薪酬福利】 1、工资结构:基本+岗位+绩效 2、六险一金+周末双休+法定节带薪休假(并发放过节福利)+每年额外带薪年假(5-15天)+婚假+产假等 ①六险(养老保险,医疗保险,失业保险,工伤保险,生育保险,商业险) ②一金(住房公积金) 3、过节福利:现金奖励or实物发放 4、生日福利:百元礼物 5、每年组织国内旅游,每年免费千元体检 【工作环境】 高档办公环境,全天室内办公,每人拥有独立的工作区和电脑,另配冰箱、微波炉等设施; 工作氛围单纯舒适,同事之间相处和睦。
  • 18k-25k 经验5-10年 / 本科
    人工智能服务 / 上市公司 / 150-500人
    岗位职责 1.负责数据治理产品的设计和相关项目的需求分析 2.负责完善产品架构设计和重难点功能模块的研发 3.控制产品研发进度,编写产品相关技术文档 4.持续迭代优化数据治理产品,以系统化、智能化能力高效支撑数据业务快速发展 任职要求 1、本科以上学历,计算机相关专业毕业,5年以上工作经验 2、熟悉主流Web应用相关的框架,熟练使用Spring Boot、Spring Cloud应用框架 3、熟悉使用Vue、Element Plus等前端框架 4、熟悉使用Redis、MinIO、Nginx等中间件 5、熟悉MySQL、达梦等数据库应用开发、配置、维护及性能优化 6、熟悉Linux环境,熟悉常用Linux命令,能进行规范的系统运维工作 7、熟练使用git或svn等版本管理工具; 8、对代码质量,性能调优,架构设计有经验,能够总结出一定的方法论; 9、了解Kettle、Hadoop、Hive、Spark、Flink等组件的使用 10、对数据治理有一定的实践经验,熟悉数据治理领域知识和技能,对数据业务场景敏感 良好的解决问题和逻辑分析能力,思路清晰,有主见,思维敏捷,具有快速学习的能力
  • 5k-8k 经验1年以下 / 本科
    数据服务|咨询,软件服务|咨询 / 未融资 / 15-50人
    岗位职责: 1、协助数据中台技术架构设计,协助相关子模块设计; 2、协助业务分析师工作,完成数据业务需求梳理及分析; 3、负责业务数据的数据分析工作及ETL任务及数据仓库开发,部署和管理; 任职要求: 1.大数据、数学或计算机相关专业本科以上学历; 2.了解数据处理、数据建模、数据分析等过程; 3.了解一个主流ETL工具,如Kettle,Infomatica,Datastage,SSIS等; 4.了解一个主流大数据产品,如spark、Flink、EMR、Hadoop等; 5.了解一个主流的数据库产品,如Oracle,SQL Server,Maxcompute、GP等;