-
工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
-
20k-40k 经验3-5年 / 本科内容资讯,短视频 / D轮及以上 / 2000人以上职位职责: 1、负责商业化营销业务的数据架构设计与管理,整合多方数据源,搭建和维护数据管道及数据库,提高数据查询效率、可用性和准确性,为营销度量和策略分析提供高质量数据支持; 2、推进数据工程与分析方法的创新应用,包括自动化工具建设与数据资产优化,降低找数、用数门槛,提升数据可用性与分析效率; 3、建立并维护营销指标体系和报表体系,确保策略分析和业务决策所需数据能够及时、准确地获取; 4、执行业务驱动的数据分析项目,将复杂业务问题抽象为数据问题,开展数据建模、验证与优化,支持业务团队进行洞察与决策; 5、管理数据项目进展,合理安排任务优先级与交付时间,确保项目按时、高质量完成。 职位要求: 1、本科及以上学历,统计学、数据科学、计算机科学、应用数学、信息技术或相关专业背景,硕士优先; 2、3年以上数据工程、数据分析或数据科学相关工作经验;具备营销数据分析、互联网业务或跨国团队协作经验者优先; 3、精通SQL,熟悉主流大数据技术栈(如Hadoop、Hive、Spark、Flink等),具备数据仓库实施、ETL开发及基于API的数据集成和自动化能力; 4、熟悉数据建模、数据治理和BI可视化工具(如Tableau、Power BI等);具备统计分析、机器学习或因果推断经验者优先; 5、能快速理解复杂业务场景,将业务问题转化为数据问题,具备扎实的数据工程能力和量化分析思维; 6、优秀的中英文沟通能力,能与跨职能、跨地区团队高效协作;具备较强的自驱力、逻辑思维能力与持续创新和优化意识。
-
职位职责: 1、精准筛选并与目标商家建联,清晰阐述FBT的优势与价值、解决潜在障碍、打消顾虑,成功说服商家加入FBT; 2、深度参与商家日常运营,包括但不限于日常问询、月度总结、库存规划、协助入仓、解决账单问题等,有效指导商家解决问题; 3、持续总结商家反馈、输出商家洞察,做好根因分析,从而找出商家需求与当前业务/产品能力的差距,提出高质量的产品/业务解决方案需求、推动实现; 4、通过与商家建立、维系互信、双赢的合作关系,逐步提升FBT渗透和使用率。 职位要求: 1、本科及以上学历,须具备物流履约运营知识,具备3年以上客户管理及运营经验的候选人优先(如客户经理,商家运营,商务拓展等); 2、具备3年以上中国、美国B2B物流平台的工作经验者优先,能良好适应复杂、动态的电商工作环境; 3、拥有管理、支持中国电商商家的工作经验,深度理解中国商家跨境经营的物流痛点、需求; 4、需要具备较广的电商知识面,对电商物流及其相关领域有相对基础、全面的认知,包括但不限于系统数据集成、仓储运营、头程物流、快递、退货、体验政策、物流客服; 5、中英双语口头表达、书面表达流利、无障碍; 6、能够作为团队骨干独当一面,高自驱力、结果导向、事实导向。
-
职位描述 负责国际化B/C/D三端核心数据仓库及相关数据系统服务的研发工作,致力于数据驱动业务提升决策效率与质量。 核心职责 数据仓库开发与优化 设计并实施高性能、可扩展的海外业务数仓架构,支持多时区、多语言数据集成。 与数据分析师、业务团队协作,理解需求并输出数据服务(如指标体系、数据API)。 实时数据开发 构建实时数据工程开发服务平台,沉淀平台能力,支持Flink SQL无法满足的实时指标计算场景 基于Flink/Kafka/Spark Streaming等构建实时数据处理管道,支持业务实时监控与告警。 解决实时场景下的数据延迟、乱序、Exactly-Once等挑战。 数据服务工具构建 构建数据服务平台,提供通用的接口服务与指标管理,连接数仓数据与数据应用(线上系统、分析系统、用户等)。 推动数据治理(质量监控、血缘追踪、权限管理)在海外业务的落地。 项目管理与跨团队协作 主导数据项目全生命周期管理(需求评审、排期、风险控制、交付),协调跨时区团队。 制定数据开发规范,主导技术方案评审,培养初级工程师。 任职要求 核心要求 8年以上数据开发经验,满足以下任一背景者: 路径A:有数据平台/中台开发经验(如数据湖、计算引擎优化),有转型数仓方向意愿; 路径B:有后端开发经验(Java/Scala/Python)+ 数仓开发经验(3年以上)。 精通实时数据处理技术栈(如Flink/Kafka/Redis),有高吞吐、低延迟场景实战经验。 熟练掌握数仓分层理论、建模方法,熟悉Hive/Spark/Impala等大数据组件。 有项目管理经验(至少主导过2个中型以上数据项目),熟悉敏捷开发流程。 加分项 熟悉云数仓(Snowflake/BigQuery/Redshift)或湖仓一体架构(Delta Lake/Iceberg)。 了解数据安全合规要求(如GDPR)。 有BI工具(Tableau/Superset)或数据服务化经验。 英语能力优秀(可处理英文文档、跨团队沟通),有海外业务经验者优先 我们提供 参与全球化数据体系建设的机会,业务覆盖香港、中东、美洲等地区。 技术导向的团队,支持技术转型与前沿方案落地。 有竞争力的薪资与国际化工作环境。
-
岗位职责 : 1、负责数据中台项目规划、设计、建设,夯实大数据技术中台底座,支撑基于中台的各类数据及业务应用; 2、按照公司业务方向及战略规划,同业务需求和产品团队高度协同,深入融合,依据客户业务场景和需求,进行产品的设计开发,产品可落地,可复制推广,并交付各部门使用; 3、根据业务模型,制定实时数仓和离线数仓的规划与实现,数据模型的建立和数据流程建设,包括元数据管理、ETL调度系统、数据集成系统、OLAP等子系统的设计和开发等; 4、针对数据一致性、准确性、及时性,制定数据管理与治理机制,包括元数据管理、数据质量检查、数据分级管理等系统的设计、开发及应用,提升数据易用性、可用性及稳定性; 5、带领并指导数据开发团队,进行数据中台的架构设计、模块拆分、功能实现,技术难题的解决; 6、研究大数据技术领域最新进展,并应用到业务中。 任职要求 : 1、本科及以上学历,计算机相关专业,5-10年工作经验数据架构相关的实践工作经验;具有5年及以上的数据库/DW/BI架构体系建设、管理和开发经验,精通主流数据库原理、深入理解内核优化、存储引擎等。 2、具备至少一个完整的大数据平台和BI系统实施经验,熟知平台建设各环节工作,包括数据采集、数据落地、仓库建设、数据平台搭建、数据应用产品开发。 3、熟悉基于推荐系统的数据仓库建设方法论,有数仓模型设计及ETL开发经验;有数据仓库分层架构设定经验者优先。 4、熟悉Hadoop生态相关技术,如Hive、HBase、Spark、Storm、Flink、Elasticsearch、Impala、Druid、Kylin等,有基于分布式数据存储与计算平台应用开发经验,有较为系统的海量数据性能处理经验。 5、熟悉java、python、scala等语言,熟悉微服务,分布式架构,熟悉springcloud,springboot等技术开发。 6、熟悉数据仓库原理,有实时数仓和离线数仓设计与开发经验。 7、熟悉MySQL、PostgreSQL、NoSQL等数据库中至少一种数据中心建设方案,可以进行产品的独立部署、高可用架构和性能优化,熟悉开源社区解决方案。 8、较强的学习能力和技术钻研能力、有自我驱动意识,对数据采集、数据治理、数据开发、数据分析、数据建模、算法等有深刻认识和实战经验。 期待您的加入哟,我们为您准备丰厚福利待遇: 【法定福利】:公司按国家规定购买五险一金+商业保险(员工本人及子女商业保险)+带薪年假; 【节日关怀】:节日福利礼品,以及节日礼金; 【公司福利】: 机场及高铁的贵宾服务(龙腾卡权益)+年度员工健康体检+平安360服务(在线问诊、VIP挂号及重疾紧急入院服务)+年度2次免费洁牙服务 公司提供咖啡、零食、下午茶 员工活动、旅游及团建,不定期举办聚餐、唱K、电竞赛、篮球赛、拓展、旅游、生日Party等 【学习与培训】:助力职业发展与提升,内外训双引擎发力助你高速发展 【晋升机会】:公司设立良好的晋升机制和广阔的发展空间。
-
1、负责车联网大数据平台技术选型、数据仓库及数据产品架构规划和设计,制定大数据整体技术栈、业务应用架构和系统技术架构; 2、负责数据驱动研发平台的数据仓库架构设计,包括分层设计、模型规范、元数据管理、ETL调度、数据集成、OLAP等子系统的设计; 3、负责数据仓库建设,模型设计,包括业务模型、物理模型、概念模型、逻辑模型等; 4、通过技术和架构升级,提升数据质量、交付效率、计算性能和系统稳定性 5、负责制定数据采集、数仓建设、数据治理、数据共享技术标准规范,制定和维护数据相关标准规范; 6、探索数据架构领域前沿技术及最佳实践,推动落地并产生业务价值 1.工作经验:8年以上数据开发工作经验,其中3年以上大数据架构设计经验,主导过大型企业数据仓库、数据平台或数据产品的构建经验优先,有车行业经验的优先 2.其他: ①、对大数据生态有深入认识,精通Hadoop、hive、hbase、Kafka、spark、flink、时序数据库生态体系及相关技术框架,具备源码级问题解决和集群优化改造能力者优先 ②、熟悉业界常见的数据平台、产品和工具:阿里云/百度云/华为云,有丰富的分布式计算、大数据处理、数据平台和数据仓库建设经验 ③、具备全面架构思维与组织沟通能力,具备在高压环境下推进工作的能力,善于诊断技术问题,洞察技术风险并驱动问题解决 ④、有车联网大数据系统开发经验者优先,有海量数据性能优化开发经验者优先
-
关于岗位: ·创业公司高级技术人才,取决于候选人背景和诉求,坑位可以是:合伙人|研发leader|首席架构师| Staff Engineer 对候选人期望 ● 和团队一起,突破目前的几个重点技术课题,主要围绕着高并发低延迟的流数据处理这个方向 •对外,利用开源社区的力量,帮助我们成为知名产品 ·对内,能够帮助/影响团队的技术成长 ● 你会参与产品/技术的重大决策,需要有良好的沟通界面,特别是在有意见分歧时候 ·认同创业价值观,认可期权的价值 ·需要亲自带队写码 候选人画像(参考) ● 数据库研发或者流数据处理技术(如Kafka/Flink类似)的经验 ● 对系统性能有较深入理解,有丰富的性能优化经验 ·热爱开源软件和开源社区,有热情打造一个优秀的数据软件 ·有可验证的成绩 关于公司: ·坐标深圳,2019年底成立,35人团队, ·核心团队: 。创始人TJ来自MongoDB ·联创1来自百度云基础平台 。联创2是美国人,F50技术高管,哈佛大学毕业 •融资轮次:PreA •我们在做的事情: 技术栈类似于 Debezium+Kafka或者 Flink CDC+ Flink的组合,但是我们比较专注在为企业应用提供一个统一的实时数据服务层,所以在技术实现上有区分性。我们的基于CDC的数据复制和多流合并能力,能为我们的客户提供一个更准确一致和简单易用的实时数据体验。我们希望取代的产品包括Confluent或 Mulesoft,Tibco这样类型的数据软件。 •主要竞品: Confluent, mulesoft, Tibco等 ·主要场景: Operational Data Hub(实时数据分发) Query Acceleration(通过增量物化视图的查询加速) Active Master Data Management(实时主数据管理/服务) Real Time Data Integration(实时数据集成) ·参考客户: 中国联通,中芯国际,一汽,外高桥造船,周生生,葡京酒店,香港医管局,富邦银行,加拿大皇家银行等 ·主要市场方向: 海外为主,国内为辅
-
TapData 销售代表(香港/澳门市场) 工作地点: 深圳或香港(可选) 语言要求: 粤语 + (普通话或英语) 公司简介 TapData 是一家领先的实时数据平台提供商,专注于通过实时数据集成 和实时客户数据平台解决方案,帮助企业打破数据孤岛、提升运营效率并驱动业务增长。我们的客户覆盖全球多个行业,包括医疗、珠宝零售、金融等领域的知名企业,已成功助力香港医管局,葡京酒店娱乐场,周生生等头部客户实现实时病人数据平台,统一客户平台和统一商品中心等标杆项目 岗位职责 市场开拓与销售达成: 负责香港、澳门地区的企业级客户(To B)直接销售,推广TapData实时数据平台解决方案。 通过面销、私域互动(如微信、社群)等多种方式开发客户,完成销售目标 。 渠道生态建设: 拓展并维护港澳地区的渠道合作伙伴(如ISV、系统集成商),共同推动市场覆盖与项目落地。 为合作伙伴提供培训、资源支持,确保协同销售目标达成。 客户需求洞察与方案定制: 深入理解客户业务痛点(如数据孤岛、实时决策需求),结合TapData在实时CDC同步、MongoDB集成、客户360视图等领域的技术优势,提供定制化解决方案 。 参考本地成功案例,向客户传递TapData的敏捷交付价值 。 全周期客户关系管理: 从线索挖掘、谈判到售后维护,建立长期客户关系,提升复购与满意度。 收集市场反馈,反哺产品优化与市场策略 。 跨团队协作: 与技术、市场团队紧密协作,确保客户需求高效落地 。 任职要求 基本背景: 本科及以上学历,具备2年以上To B软件/云服务销售经验,有数据平台、数据库、ERP等产品销售背景者优先。 流利粤语为必须,同时能使用普通话和英语进行工作沟通。 核心能力: 沟通与社交能力:擅长与企业各级人员(从技术主管到决策层)建立信任,能通过“聊天式”互动挖掘需求 。 渠道管理与BD能力:具备合作伙伴拓展经验,能独立策划联合市场活动。 业务理解力:对数据技术、数字化转型趋势有基本认知,能快速学习并传递TapData价值 。 抗压性与适应性:适应港澳市场快节奏,能灵活应对多任务挑战 。 加分项: 有港澳企业客户资源或跨境销售经验; 熟悉MongoDB、Oracle等数据库生态。 我们提供 有竞争力的薪酬:底薪+高弹性绩效奖金 ,超额完成目标者享有额外激励。 资源支持:头部客户案例背书、技术团队协同支持、founder 亲自支持 发展空间:岗位覆盖高潜力港澳市场,接触全球500强客户,职业晋升通道清晰。 。
-
岗位描述: 1、深度参与公司数据集成产品的架构设计与持续优化,涵盖批处理与流式计算技术,不断提升产品数据处理效率。 2、主导大数据生态组件的运维、部署与管理工作,包括但不限于 Hadoop、Spark、Flink、Kafka 等,对组件性能进行调优,保障数据平台系统稳定、高效运行,持续提升系统数据处理能力。 3、全面负责 ETL 流程的设计、开发及实施。 4、深入理解客户需求,与运营、产品、算法等团队紧密协作,将业务需求抽象为可复用的数据模型,为客户提供精准、高效的数据解决方案,深度挖掘数据价值,助力业务决策与发展。 5、持续关注行业前沿技术发展,研究并引入新的数据工程技术与工具,推动公司数据平台的技术升级与创新,提升公司在数据领域的竞争力。 任职资格: 1、本科及以上学历,计算机科学、统计学、数学、数据科学等相关专业,拥有 2 - 5 年数据开发或相关领域工作经验。 2、熟练掌握至少一种编程语言,如 Python、Java、Scala 等,具备良好的编程习惯与代码质量意识。 3、深入理解大数据生态框架,对 Hadoop、Spark、Flink、Paimon、Doris、ClickHouse 等有丰富的安装部署、运维及调优经验。 4、精通数据仓库模型设计,熟练掌握 SQL 编程,具备强大的 SQL 调优能力,能够编写复杂查询语句,高效处理海量数据。 5、拥有 Airflow、DolphinScheduler 等数据调度工具使用经验,能够构建稳定、可靠的数据流,保障数据处理流程的自动化与按时执行。 6、具备良好的沟通协作能力和团队合作精神,能够与不同部门进行有效沟通,理解业务需求并转化为技术方案;对业务有敏锐洞察力,具备优秀的技术与业务融合能力。 7、加分项:有教育、工业、能源等特定行业大数据应用开发经验;熟悉数据湖技术(如 Delta Lake、Apache Iceberg);具备机器学习、人工智能基础知识,能够将相关技术应用于数据处理与分析。
-
岗位描述: 1、深度参与公司数据集成产品的架构设计与持续优化,涵盖批处理与流式计算技术,不断提升产品数据处理效率。 2、主导大数据生态组件的运维、部署与管理工作,包括但不限于 Hadoop、Spark、Flink、Kafka 等,对组件性能进行调优,保障数据平台系统稳定、高效运行,持续提升系统数据处理能力。 3、全面负责 ETL 流程的设计、开发及实施。 4、深入理解客户需求,与运营、产品、算法等团队紧密协作,将业务需求抽象为可复用的数据模型,为客户提供精准、高效的数据解决方案,深度挖掘数据价值,助力业务决策与发展。 5、持续关注行业前沿技术发展,研究并引入新的数据工程技术与工具,推动公司数据平台的技术升级与创新,提升公司在数据领域的竞争力。 任职资格: 1、本科及以上学历,计算机科学、统计学、数学、数据科学等相关专业,拥有 2 - 5 年数据开发或相关领域工作经验。 2、熟练掌握至少一种编程语言,如 Python、Java、Scala 等,具备良好的编程习惯与代码质量意识。 3、深入理解大数据生态框架,对 Hadoop、Spark、Flink、Paimon、Doris、ClickHouse 等有丰富的安装部署、运维及调优经验。 4、精通数据仓库模型设计,熟练掌握 SQL 编程,具备强大的 SQL 调优能力,能够编写复杂查询语句,高效处理海量数据。 5、拥有 Airflow、DolphinScheduler 等数据调度工具使用经验,能够构建稳定、可靠的数据流,保障数据处理流程的自动化与按时执行。 6、具备良好的沟通协作能力和团队合作精神,能够与不同部门进行有效沟通,理解业务需求并转化为技术方案;对业务有敏锐洞察力,具备优秀的技术与业务融合能力。 7、加分项:有教育、工业、能源等特定行业大数据应用开发经验;熟悉数据湖技术(如 Delta Lake、Apache Iceberg);具备机器学习、人工智能基础知识,能够将相关技术应用于数据处理与分析。
-
岗位职责 1、数据开发:设计、搭建并维护高效可靠的数据管道(ETL/ELT),覆盖数据采集、清洗、转换与加载各环节;持续优化数据处理性能,确保数据实时性与准确性 2、数据存储与管理:规划并管理数据底座、数据仓库和数据湖等存储平台,保证数据模型合理、可扩展;制定并维护数据存储标准和规范 3、数据集成:整合内部系统、第三方 API 等多源数据,确保接入、同步过程中的一致性与完整性;设计数据接口和适配方案,提升集成效率 4、数据质量与监控:制定并执行数据质量控制策略,建立监控告警机制;快速定位并解决数据异常,保障系统稳定运行 5、协作与支持:深入理解业务需求,与团队紧密配合;提供数据技术方案与培训,持续提升团队数据能力 岗位要求 1、学历:本科及以上,计算机科学、信息技术、软件工程或相关专业 2、工作经验:3 年及以上数据工程或相关岗位实战经验,具备完整项目交付经历 3、数据库能力:熟悉国产化数据库(如达梦、人大金仓),精通 SQL,至少 3 年数据开发经验;掌握 MySQL、PostgreSQL、MongoDB、Redis 等主流关系型/非关系型数据库,熟悉大数据平台,熟练使用Kafka、Flink等消息队列工具;熟悉东方通、Talend 等 ETL/ELT 工具与流程 4、编程与自动化:精通 Python ,能编写可维护的数据处理脚本或服务;熟悉 Airflow等调度框架,具备自动化任务编排与监控经验 5、数据治理与质量:熟悉数据标准化、主数据管理与元数据管理;有 CI/CD 流程经验,能快速定位并修复数据异常 加分项 1、参与过交通领域大数据治理、信息化系统建设项目 2、参与过 政府项目 信息资源规划,主专题设计,数据分级分类等 3、优秀的需求分析与沟通能力,良好的团队协作精神;强烈的责任心,能适应高强度节奏及必要加班
-
深入理解客户的业务需求,评估其数字化与智能化现状,提出可行的 AI 解决方案; 参与企业 AI 项目的规划、架构设计与实施,包括数据集成、模型部署及系统优化; 与研发团队协作,推动 AI 模型、算法或平台在客户环境中的集成与应用; 指导客户 IT 团队建设智能运维体系,支持 AI 应用的持续优化; 编制项目文档,包括需求分析报告、解决方案说明书、系统设计文档等; 追踪前沿 AI 技术发展趋势,为企业客户提供战略性咨询建议; 协助项目经理完成项目管理、风险控制及客户沟通工作。 岗位要求: 1、大专及以上学历,财务管理、信息管理、工商管理、企业管理、计算机应用等相关专业应届毕业生优先考虑; 2、擅长沟通,思维敏捷; 3、熟悉常见 AI 应用架构,如智能客服、RPA、推荐系统、知识问答、文档分析等; 4、高效的执行力; 5、熟悉各种文档处理工具。 6、熟悉云计算平台(AWS、Azure、阿里云、华为云等)的 AI 服务 7、熟悉企业 IT 系统(ERP、CRM、BI、大数据平台等)的集成方式
-
工作职责: 1、负责网站产品、管理系统、移动端产品的前端模块设计、开发、代码质量保证; 2、配合产品需求和系统架构一起研讨前端表现方案,结合业务需求提出你的见解,进行前端应用升级优化以及处理兼容性问题; 3、结合UI交互设计与视觉设计方案和前端框架进行完成前端页面设计、开发; 4、确保前端开发进度、质量,并和后端一起确保整个产品的开发质量。 任职要求: 1、专科以上学历,软件开发3年以上,其中2年以上WEB前端开发经验; 2、熟练Web前端技术(HTML/CSS/JavaScript等)以及掌握Vue、 ReactJS、AngularJS和uniapp等框架中的两种或以上; 3、掌握MVC、MVVM等前端开发模型; 4、对Javascript面向对象编程具有深入的了解;有足够Javascript项目开发经验,能够使用Javascript合理构建较为复杂的页面逻辑; 5、理解响应式布局设计,并掌握所有常用浏览器对代码的兼容性,能够撰写兼容多种浏览器的前端页面代码; 6、掌握http/https协议和Restful api接口标准,熟练掌握前后端交互的技术和常用的框架; 7、有过OMS(订单管理系统)/TMS(运输管理系统)/WMS(仓库管理系统)/DW&BI(数据仓库和商业智能系统)及数据集成的开发经验者优先;有物流行业系统开发经验者优先。 8、具备良好的学习能力、沟通能力、分析及解决问题能力、优秀的团队协作能力。
-
岗位职责: 1.负责京东保险业务板块数据研发工作,理解保险业务,负责实时和离线数据集成业务的计算架构设计与开发; 2.负责数据服务整体架构的设计与开发; 3.与数据科学家、数据分析师和其他相关团队紧密合作,提供数据支持和技术解决方案; 4.监控和优化数据处理性能,确保数据系统的高可用性和可扩展性; 5.参与数据治理和数据质量管理,确保数据的一致性和准确性; 6.基于高质量的实验设计与分析,为决策层/业务线/产品线识别与定义问题,洞见规律并提出优化方案,落地形态不限于数据产品,研究分析,数据模型与策略,保证项目的执行与效果; 岗位要求: 1.计算机科学、软件工程、数据科学或相关专业本科及以上学历,3年以上行业经验,熟悉数据研发相关工作; 2.精通至少一种数据处理编程语言(如Python、Java、Scala等),并有实际项目经验; 3.熟悉常用的数据处理框架和工具(如Apache Spark、Apache Flink、Hadoop等); 4. 熟悉关系型数据库(如MySQL、PostgreSQL)和NoSQL数据库(如MongoDB、Cassandra、HBase等),具备数据库设计和优化能力; 5.了解分布式系统和微服务架构,熟悉相关技术(如Docker、Kubernetes、消息队列等); 6.具备良好的问题解决能力和调试技巧,能够快速定位和解决数据处理和存储系统的问题; 7. 具备算法相关的数据服务经验者优先,包括但不仅限于画像服务等;
-
**职位名称:数据开发专家** **岗位职责:** 1. 负责公司数据平台的架构设计、开发与优化,提升数据平台的稳定性、性能和扩展性。 2. 参与数据仓库、数据湖、数据集成等数据架构的设计与实施,满足公司业务发展需求。 3. 负责数据开发流程的优化,提高数据开发效率,降低开发成本。 4. 与业务团队紧密合作,深入了解业务需求,为业务提供高效、准确的数据支持。 5. 负责数据质量监控与改进,确保数据准确性、完整性和一致性。 **任职要求:** 1. 本科及以上学历,计算机相关专业,5-10年及以上数据开发相关工作经验。 2. 具备优秀的数据架构能力,熟悉主流数据仓库、数据湖、数据集成技术,如Hadoop、Spark、Flink、Kafka等。 3. 熟悉至少一种数据库技术,如MySQL、Oracle、PostgreSQL、MongoDB等,具备良好的SQL编写能力。 4. 具备良好的编程基础,熟悉Java、Python、Scala等编程语言。 5. 具备出色的沟通能力,能够与业务团队、技术团队高效协作,确保项目顺利进行。 6. 具备以下大厂经验者优先: - 腾讯、阿里巴巴、百度、京东等知名互联网公司; - 国内外知名金融机构; - 世界500强企业。 7. 具备以下技能者优先: - 熟悉数据治理、数据安全、数据合规等相关知识; - 具备大数据项目实施经验,熟悉数据仓库建模方法; **工作地点:**北京 **薪资待遇:**40K-80K 我们期待您的加入,共同推动公司数据平台的发展,为业务创造更多价值!


