-
工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
-
岗位职责 1.数据质量监控:负责监控金融信贷相关业务域数仓数据的准确性、一致性和完整性,确保数据质量符合业务需 求。 2.数据质量测试:设计并执行数据质量测试用例,验证数据计算逻辑、数据转换规则和数据存储的正确性 3.数据质量问题跟踪:跟踪测试中发现的数据质量问题,协调研发团队进行问题修复,并验证修复效果. 4.数据质量工具开发:参与数据质量管理平台的功能设计与开发,提升数据质量测试的自动化水平。 岗位任职要求 1.学历要求:本科及以上学历,计算机科学、软件工程、数据科学或相关专业。 2.工作经验:3年以上数据测试或数据质量测试经验,有金融信贷行业经验者优先。 3.大厂背景:具有阿里、腾讯、字节跳动、百度等大厂数据测试或数据质量测试经验者优先,。 4.技术能力: a).熟悉大数据技术栈(如Hadoop、Spark、Hive、Flink等)。 b).熟悉数据质量监控工具(如Apache Griffin、Great Expectations等)。 c).具备一定的编程能力(如Python、Java、SaL等),能够编写自动化测试脚本。 d).熟悉数据治理相关工具(如数据血缘、元数据管理等)者优先。 5.业务理解:对金融信贷业务有深入理解,能够根据业务需求设计数据质量测试方案 6.问题解决能力:具备较强的逻辑思维和问题解决能力,能够快速定位数据质量问题的根本原因。 7.沟通协作:具备良好的沟通能力和团队协作精神,能够与研发、业务团队高效协作。 加分项 1.有金融信贷行业数据质量测试经验者优先。 2.熟悉金融行业数据标准和监管要求者优先。 3.具备数据治理或数据资产管理经验者优先。
-
岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: •基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; •设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; •通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 •负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; •基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; •针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 •**本科及以上学历,计算机相关专业,大数据开发相关经验; •熟练掌握并使用(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; •熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; •具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 •具有良好的沟通能力和组织协调能 加分项: •有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; •理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; •对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
-
岗位概述:正在寻找一名Python数据开发工程师加入我们的开发团队,您将与我们优秀的工程师和研究人员一起,负责开发和维护我们的高性能数据科学研究系统的相应组件。 岗位职责: 1、熟悉使用Python来开发数据应用,熟悉数据ETL; 2、高质量完成数据开发需求,充分测试,保证数据的准确些、一致性、及时性、完整性; 3、参与开发量化交易研究的回测系统组件,包括但不限于Tick数据采样、特征构造、特征选择、以及拟合等 4、开发可重用的代码和库;完成高质量的、可维护的代码; 5、可参与开发深度学习策略、自动化实盘交易系统等其他内部系统。 任职要求: 1、本科以上理工科类学历,学习过计算机体系结构、数据结构等计算机类专业课; 2、有2年以上Python开发经验,其中至少半年以上为数据处理类工作如爬虫、ETL等; 3、熟悉Linux环境下开发,熟悉常用的Bash指令; 4、熟悉Pandas/Polars等时序数据类库以及Numpy等科学计算库; 5、熟悉MongoDB等NoSQL数据库; 6、熟悉Python中基本的数据结构的使用方法,了解其计算复杂度; 7、自驱、认真负责、技术沟通和技术协作能力强。 加分项: - 有金融行业数据处理经验。 - 有容器化(Docker)开发部署经验。 - 有使用serverless系统开发的经验,例如阿里云FC,亚马逊Lambda。
-
团队背景 隶属于6767搜推工程策略组6767,是公司搜索与推荐业务的核心技术支撑团队。团队技术氛围开放,鼓励创新实践,团队成员具备丰富的分布式系统与海量数据处理经验。 岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: 61基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; 61设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; 61通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 61负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; 61基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; 61针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 61**本科及以上学历,计算机相关专业,大数据开发相关经验; 616767熟练掌握并使用6767(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; 61熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; 61具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 61具有良好的沟通能力和组织协调能 6767加分项:6767 61有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; 61理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; 61对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
-
职位职责: 1、为大规模推荐系统设计和实现合理的数据系统; 2、生产系统的Trouble-shooting,设计和实现必要的机制和工具保障生产系统整体运行的稳定性; 3、打造业界领先的流式计算框架等分布式系统,为海量数据和大规模业务系统提供可靠的基础设施。 职位要求: 1、对大数据系统有深入的了解,在生产环境有TB级别Flink实时计算系统开发经验,深入掌握Flink DataStream、FlinkSQL、Flink Checkpoint、Flink State等模块,有Flink源码阅读经验优先; 2、熟悉常见消息队列原理和应用调优,有Kafka、Plusar、RocketMQ等项目源码阅读经验优先; 3、熟悉Java、C++、Scala、Python等编程语言,有出色的编码和Trouble-shooting能力; 4、乐于挑战没有明显答案的问题,对新技术有强烈的学习热情,有PB级别数据处理经验加分; 5、有数据湖开发经验,熟悉Hudi、Iceberg、DeltaLake等至少一项数据湖技术,有源码阅读经验优先; 6、熟悉其他大数据系统经验者优先,YARN、K8S、Spark、SparkSQL、Kudu等;有存储系统经验加分,HBase、Casscandra、RocksDB等。
-
岗位职责: 1.负责ETL相关开发工作,深度参与数据仓库的建设与优化,保障数据存储的高效性与稳定性,支撑公司战略级数据项目的落地。 2.主导复杂数据处理流程的开发与优化,基于 Python 编写高性能的数据处理脚本,结合 spark、pandas、duckdb等进行大规模数据清洗、转换与分析,实现数据挖掘与机器学习模型开发,推动数据价值的深度挖掘。 3.设计和维护基于 Airflow 的工作流调度系统,实现数据处理任务的自动化调度与监控,确保数据处理任务按时、准确执行,提升数据开发与运维效率。 4.与业务部门紧密协作,深入理解业务需求,将业务逻辑转化为数据解决方案,通过数据驱动业务决策,助力业务增长。 5.研究大数据领域的前沿技术,持续优化数据开发技术栈与流程。 任职资格: 1.具备 3 年及以上大数据开发相关工作经验,拥有丰富的大数据项目实战经验,能够独立承担复杂数据开发任务。 2.熟练掌握 Python 编程,具备基于 Python 的大数据开发工作经验,能够运用 Python 进行高效的数据处理与算法实现。 3.熟悉数仓建设方法论 1)熟悉etl分层建设方法 2)熟悉主题建设方法,能独立抽象主题,建设主题,并且物理化和性能调优 3)熟悉常用的BI系统建设方法,理解实现原理,理解各个工具使用场景 4.精通大数据开发相关技术栈,包括但不限于 Hadoop、Spark、Hive 等,能够熟练运用这些技术进行数据处理与分析。 5.熟练掌握 Airflow,能够基于 Airflow 进行工作流设计、调度与监控;熟练使用相关技术进行数据处理与分析并能够运用其实现常见的数据挖掘与机器学习算法。 6.熟练掌握sql和调优。 7.熟练掌握python。 加分项 1.具备统计学、数学建模等相关知识,能够运用统计方法进行数据分析与模型构建。 2.有分布式系统开发、数据可视化开发经验者优先。 薪资待遇 ****,我们提供具有竞争力的薪酬体系与广阔的职业发展空间,期待优秀的你加入!
-
岗位职责: 1.负责兴业银行大数据平台或大数据产品的设计、开发、优化工作; 2.利用大数据相关技术实现对数据的采集、分析、挖掘、可视化,让数据充分发挥价值; 3.负责开发金融业相关的风险控制、精准营销、数字化运营等相关数据产品;进行大数据相关的新技术研究,提高技术创新能力。 岗位要求: 1.具备全面、扎实的软件基础知识,掌握操作系统、软件工程、设计模式、数据结构、数据库系统、网络安全等知识; 2.编程基本功扎实,掌握常用算法和数据结构; 3.熟练掌握SQL语言,熟悉Mysql/Oracle/PostgreSQL中一种数据库;了解Linux基本操作,掌握Hive/Hbase/Spark/Flink中至少一种大数据组件。 工作地点:上海、成都
-
工作职责 1、基于Hadoop大数据平台环境进行数仓、集市开发,可根据需求分析说明书完成数据仓库、数据集市、BI报表等开发; 2、负责与用户沟通、澄清需求,验证底层数据,完善需求文档和编写数据模型设计文档; 3、根据业务发展需要进行数据仓库、数据集市建设,保证指标口径的统一完善; 4、与团队形成良好沟通,有效传达设计意图,并持续跟进设计的调整和优化。 任职要求 1、本科及以上学历,计算机相关专业,3年以上大数据开发工作经验,处理数据量TB级及以上; 2、3年及以上企业级数仓集市设计、开发经验,深入了解数据仓库集市设计理念及建模方法; 3、熟悉Hadoop生态圈,重点熟悉Hive、Spark、Flink等关键组件,且有相关开发经历; 4、熟练Hive数据库,精通Hql开发及其调试调优,熟悉ETL开发流程、熟悉主流的ETL调度平台; 5、熟悉主流BI开发工具,如FineBI、SmartBI、Cognos等; 6、思维清晰敏捷,逻辑分析能力强,具有良好的语言和书面表达能力;为人热情活泼,有良好的团队协作能力。 6、具有商业分析和数据挖掘经验优先; 7、有保险等金融行业经验优先。
-
工作职责: 1、按照公司规范要求,完成产品的项目运维实施工作; 2、维护产品,提供售后技术保障,建立良好的客户关系; 3、为客户提供产品相关的技术、业务咨询和培训。 岗位要求: 1、计算机或软件工程相关专业,大专及以上学历,有软件产品实施和技术支持工作经验优先; 2、有Linux操作系统基础,熟悉基础的操作系统命令和基本的操作; 3、熟悉主流的数据库,如:Oracle、MySQL、SQL Server中至少一种,熟悉oracle dataguard优先,具备较强的Troubleshooting能力; 4、熟悉shell/ Python/java/c语言优先,有相关运维实施项目经验者优先。 注:公司有完善的数据库内部培训制度(oracle、Greenplum等),产品包括大数据、数据仓库、人工智能、数据安全等,注重对人才的培养,学习成长空间大。
-
岗位职责: 1.理解业务,识别需求,参与平台建设等实践; 2.与业务/大数据/基础平台等团队深度合作,解决并支撑业务发展中的数据需求; 3.参与大数据实时计算、离线计算,针对业务场景完成数据的清洗; 4.参与大数据平台的计算平台的开发维护; 5.参与数据质量核检工作; 6.完成领导交代的其他任务等。 任职要求: 1、大学本科及以上学历,计算机及相关专业,3年及以上大数据开发经验; 2、熟练掌握Python语言,熟悉java优先; 3、能灵活运用SQL实现海量数据加工处理,并有优化数据计算和并行分析的能力; 4、熟悉Flink实时处理框架,有实时数据处理经验优先考虑; 5、有独立分析问题和解决问题的能力,并具有较强的业务理解能力; 6、具有较强的学习能力以及良好的沟通能力和团队合作能力; 7、有数据中台/数据治理/数据分析的实际开发经验,较强的日常故障诊断和性能调优能力优先考虑。
-
软件工程师 - 数据库内核开发 - 上海 (MJ000306)
[普陀区] 2022-08-2920k-40k·14薪 经验在校/应届 / 本科人工智能服务 / B轮 / 150-500人墨奇数据库团队专注于做业界领先的 OLAP 数据库, 让 AI,复杂类型数据和新硬件带给传统数据库新的生命力 我们需要你 设计和研发稳定、高效的分布式数据库存储引擎 设计和实现云原生架构的分布式数据库 我们希望你 计算机或者相关学科本科及以上学历 熟练掌握 C++,熟练掌握常用的算法和数据结构,有良好的编程能力和风格 熟悉至少一种数据库,熟悉 SQL 熟悉一种 OLAP/OLTP/HTAP 数据库及其生态,例如 ClickHouse、TiDB、PostgreSQL、MySQL 等 熟悉数据库基本理论或者选修过《数据库系统概论》或者《Database System Concepts》或者《Database System Implementation》 具备良好的团队协作意识,自我驱动,热爱学习,能够在压力下高效工作 -
一、招聘背景 随着公司业务的扩展和项目需求的增加,现计划招募一名具备OPC开发、虚拟化部署经验,并熟练掌握Java开发的工程师,以加强我们的技术团队,确保各项目高质量、高效率地推进。 二、岗位职责 1. OPC开发:参与和维护基于OPC协议的系统集成,开发与优化数据采集和通信接口。设计并实现OPC服务器和客户端数据交互模块,确保系统的稳定性和实时性。配合其他系统开发需求,进行OPC接口的开发与调试,保障数据的准确性与一致性。 2. 虚拟化部署:负责公司关键业务系统的虚拟化环境部署和维护,确保系统稳定和资源利用最大化。配置、监控和优化虚拟化平台,提升应用运行效率及安全性。制定虚拟化环境部署方案,包括环境搭建、性能调优及故障排除。 3. Java开发:参与基于Java的项目设计、开发与维护,确保系统功能的稳定性与易维护性。编写清晰、可扩展的代码,进行系统性能优化,解决关键性技术难题。配合团队其他成员,进行系统集成与接口开发,为项目提供技术支持。 三、任职要求 1. 学历要求:计算机科学、软件工程或相关专业本科及以上学历。 2. 工作经验:3年以上软件开发经验,熟悉OPC开发、虚拟化技术,有工业自动化项目经验者优先。 3. 技能要求: ①OPC开发:熟悉OPC UA、DA等协议,了解OPC SDK或其他相关工具的使用。 ②虚拟化技术:掌握VMware、Hyper-V、Docker等主流虚拟化技术,具备虚拟化环境部署及优化经验。 ③Java开发:熟练掌握Java编程,熟悉Spring、Spring Boot等框架,具备分布式系统开发经验优先。 4. 其他要求: ①具备较强的问题分析和解决能力,能够独立处理复杂的系统问题。 ②良好的团队合作精神和沟通能力,能与团队成员共同协作完成项目。 ③学习能力强,能够快速掌握新技术,适应新项目需求。 工作地址
-
岗位职责: 1. 根据研发任务诉求,完成数据的采集、清洗、整合、分析等工作; 2. 协助组织和调配相关数据,支持训练任务,并参与持续调优迭代; 任职要求: 1、统计/计算机/数学等相关专业,有一定的数理统计基础 2、熟悉爬虫和反爬相关技术,有数据采集、加工、分析、处理相关工作经验者优先 3、精通python,熟悉文本处理及统计分析相关技术。 4、良好的逻辑思维能力、较强的数据分析和问题解决能力。 5、工作认真细致、积极主动,有良好的执行力和高度的责任心 6、具备良好的学习能力,优秀的沟通协调能力及团队合作精神。
-
*此岗位为全英文工作岗位 We are looking for a mid-senior data engineer who is experienced with data platform architect design and implementation MLOps Responsibilities • Design and Implement model training and delivery pipeline for our data scientists; • Participate in the design and development of our big data platform; • Conduct research on state-of-the-art technologies to solve business problems; • Apply big data analytic technologies to implement cloud-native analytic algorithms for structured data; • Work with developers and application analysts within the team to deliver results in an easy-to-understand format. Job Requirements • Bachelor's degree or above in Computer Science, Data Engineering, or a similar field; • Fluent in English (this is essential, Chinese is not required); • 3-5 years of work experience in a data engineering or related role; • Have experience in leading successful MLOps projects; • Experience in big data technologies and architecture; • Hands-on skills in Python, and Spark and familiar with sci-kit-learn, spark-ml; • Able to work independently coupled with strong interpersonal skills; • Experience in cloud-native applications and AWS environment will be an advantage; • Experience in applying AI and big data in a production environment will be an advantage. What’s in it for you • Great office location in Shanghai • Working within an international team that truly values your contribution • Growing company full of opportunities & awarded by Google, McKinsey, and Rocket Internet for best B2B startup in Europe • An awesome culture of responsibility and the freedom to turn your ambition into reality - regardless of your role and level • Exciting work atmosphere with no shortage of snacks, drinks, birthday treats, and social events • Monthly team events and weekly Friday company catch-ups and drinks • A hybrid working policy with a combination of working from home and working on-site About us Dashmote is a start-up focusing on the next generation of data products powered by AI technology, with offices in Amsterdam (HQ) and Shanghai. We connect the offline and online worlds by decoding the digital footprint of locations, allowing our enterprise clients to understand the market and make smarter decisions. With about 40 employees, Dashmote has ambitious plans for the upcoming years and therefore we need to make sure that we have the right people in place to put such plans into practice. Do you want to boost your career by contributing to Dashmote’s core product, used by some of the biggest Fortune 500 companies? Then we're looking for you.


