• 15k-30k 经验5-10年 / 本科
    软件开发 / 不需要融资 / 150-500人
    任职要求: 1、测绘、地信、遥感或计算机相关专业,本科及以上学历; 2、具备5年以上相关行业从业经验,有领先图商质量管理经验优先; 3、熟悉常用工具软件,如ARCGIS、QGIS、EXCEL,3DMAX; 5、具备质量管理知识,具备风险分析能力; 6、具备较丰富的团队管理经验,业务敏锐度高,能组织跨环节的复杂问题解决; 8、具备强烈的自驱力、使命感、责任感。 岗位职责: 1、负责数据质量目标制定、质检计划制定、质检进度跟踪、质检阶段性总结; 2、负责数据质检标准效率及目标的制定、进行质量监控、以及抽检方案的制定 3、负责数据质量评估标准的建立,并落地执行; 4、负责识别数据质量和进度风险,并具有解决内部风险和推进外部解决风险的能力; 5、负责跟进绩效方案编制、完善,负责绩效数据统计、分析、审核、提交至质检部负责人; 6、负责质检资源协调、技能互通计划制定,以及产线主管、小组长等管理岗人才培养; 7、负责持续质量改善,推动工艺方案优化、工具平台改善、生产作业质量改善
  • 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责即时零售业务的离线与实时数据仓库的构建; 2、负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3、负责指标体系建设与维护; 4、深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 5、参与大数据应用规划,为数据产品、挖掘团队提供应用指导; 6、参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1、熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
  • 30k-60k 经验1-3年 / 本科
    社交媒体 / 上市公司 / 2000人以上
    工作职责: 1. 多模态大模型:探索跨模态的信息对齐方法,探索多模态大模型的继续预训练、指令微调等技术,探索多模态的数据质量评估和清洗方法。 2. 多模态大模型应用:解决多模态大模型工程化过程中的难题,推动多模态大模型在微博场景落地。 任职要求: 1. 自然语言处理、计算机视觉、机器学习、数据挖掘、人工智能等相关专业,本科及以上学历,研究生优先。 2. 在计算机视觉或多模态理解与生成方面有扎实的知识基础,熟悉主流的多模态大模型或图片、视频生成模型,如LLaVA、Qwen-VL、SD、FLUX、OpenSora等。 3. 在多模态理解或多模态生成等应用方向具备1年左右,或在计算机视觉领域具备2年以上相关工作经验,两者满足其一即可。 4.熟悉Pytorch、Transformers 等常用工具的使用,具备扎实的编程基础。 5. 赛事获奖或开源项目贡献者优先。
  • 30k-60k 经验不限 / 本科
    社交媒体 / 上市公司 / 2000人以上
    工作职责: 1. 多模态大模型:探索跨模态的信息对齐方法,探索多模态大模型的继续预训练、指令微调等技术,探索多模态的数据质量评估和清洗方法。 2. 多模态大模型应用:解决多模态大模型工程化过程中的难题,推动多模态大模型在微博场景落地。 任职要求: 1. 自然语言处理、计算机视觉、机器学习、数据挖掘、人工智能等相关专业,本科及以上学历,研究生优先。 2. 在计算机视觉或多模态理解与生成方面有扎实的知识基础,熟悉主流的多模态大模型或图片、视频生成模型,如LLaVA、Qwen-VL、SD、FLUX、OpenSora等。 3. 在多模态理解或多模态生成等应用方向具备1年左右,或在计算机视觉领域具备2年以上相关工作经验,两者满足其一即可。 4.熟悉Pytorch、Transformers 等常用工具的使用,具备扎实的编程基础。 5. 赛事获奖或开源项目贡献者优先。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 2、负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3、负责指标体系建设与维护; 4、参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1、数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言;了解数据湖,并有相应落地经验可以成为加分项; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、业务上有财务背景可以成为加分项。
  • 音频|视频媒体,短视频 / 上市公司 / 500-2000人
    岗位职责: 1. 搜索排序方向:包括粗排、精排、混排,构建特征工程、多目标学习、在线模型推理、以及垂类优化等任务; 2. Query理解方向:包括纠错、改写、意图、词权重、紧密度、丢词、成分分析等任务; 3. 曲库建设方向:包括歌曲分类体系建设,标签挖掘,向量化建设等; 4. 用户画像方向:包括属性挖掘,兴趣体系建设,行为模式挖掘等; 5. NLP研究方向:包含分词、实体识别、标签提取、文本分类、模型预训练、语义向量等任务。 岗位要求: 1. 计算机、机器学习和数学等相关专业,硕士及以上学历; 2. 3年以上搜推广相关工作经验; 3. 有丰富的c++/java/python等主流编程语言经验,扎实的算法与数据结构功底,优秀的机器学习基础,良好的数学与统计基础; 4. 熟悉hive,spark等大数据处理工具,有丰富的数据处理与挖掘经验; 5. 至少熟练掌握一种深度学习框架; 6. 有以下一项或多项将优先考虑:1)有丰富NLP落地经验,有大规模数据建模经验,熟悉搜索、推荐、广告业界前沿算法;2)有完整数据体系建设经验,包括用户画像、物品画像、数据质量评估与监控等;3)有优秀论文发表者优先。
  • 20k-40k·15薪 经验5-10年 / 本科
    电商平台 / C轮 / 2000人以上
    岗位职责: 1、负责电商财务域数据模型调研、设计、开发工作,与业务部门紧密配合,提供数据支持 2、负责电商财务域数据运营&治理工作,保障数据质量 3、参与电商财务域数据体系化建设,提升数据服务稳定性 任职要求: 1、计算机相关专业,大学本科及以上学历,5年以上大数据开发相关工作经验 2、熟悉大数据相关组件(如Hive、Spark、Flink、Kafka等),具备编写、优化复杂SQL的能力 3、有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题 4、熟悉Python/Java/Scala/Shell其中一种语言 5、具备电商领域业务开发经验优先;具备财务领域业务开发经验优先 6、负责过数据平台或数据仓库设计优先;有带团队经验优先。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1、协助业务定义商品信息相关的SOP及标准,推动商品域业务系统标准化、智能化、平台化系统建设 2、管理和维护商品相关数据资产,能够结合业务发展,合理规划数据资产结构及服务 3、定期收集商品信息上下游运营对于商品运营系统的诉求,分析并形成产品需求,推动落地 4、推动和协调跨部门的产品和运营团队,提升商品信息的维护效率、数据质量和应用效果 5、深入关注商品业务,通过市场调研、数据分析、竞品跟踪等方式,持续优化商品体系,支撑业务发展 岗位要求: 1、本科及以上学历,5年以上电商产品经验优先 2、具有2年以上To B的产品规划和设计相关经验,有商品相关产品经验优先 3、逻辑思维能力强,有较强的结构化分析与表达能力,能从复杂的系统关系和业务流程中,抽象出解决方案 4、学习能力强,执行力及抗压力强,有较强的沟通协调、资源整合能力及项目管理能力
  • 18k-35k·14薪 经验5-10年 / 本科
    生活服务,旅游|出行 / 上市公司 / 150-500人
    岗位职责 : 1、数据仓库和数据处理‌:负责大数据平台的数据仓库、数据治理和数据模型的设计与开发工作。进行日常数据报表开发,理解业务需求,发挥数据价值‌。 2‌、数据服务开发‌:负责离线和实时数据服务的设计、开发、性能调优和效果优化。构建和维护数据管道,处理ETL过程,确保数据质量和准确性‌。 3、技术研究和应用‌:参与相关项目的数据需求的实现,设计和编码工作。参与开发过程中相关技术的研究和验证‌。 ‌4、平台运维和质量管理‌:负责大数据平台的数据及相关的应用开发、调优及维护。完成日常数据质量的监控,参与大数据平台的日常运维工作‌。 5、针对数据一致性、准确性、及时性,制定数据管理与治理机制,提升数据易用性、可用性及稳定性; 任职要求 : 1、本科及以上学历,计算机相关专业,3-5年以上数据开发经验; 2、具备至少一个完整的大数据平台和BI系统实施经验,熟知平台建设各环节工作,包括数据采集、数据落地、仓库建设、数据平台搭建、数据应用产品开发 3、熟悉基于推荐系统的数据仓库建设方法论,有数仓模型设计及ETL开发经验;有数据仓库分层架构设定经验者优先; 4、熟悉Hadoop生态相关技术,如Hive、HDFS、Impala、Spark、Presto、Flink、Hudi、Elasticsearch、HBase、Druid、Kylin等,有基于分布式数据存储与计算平台应用开发经验,有较为系统的海量数据性能处理经验; 5、熟悉java、scala、python等语言,熟悉微服务,分布式架构,熟悉springcloud,springboot等技术开发; 6、熟悉数据仓库原理,有离线数仓、实时计算、数据挖掘、ETL、用户画像、数据可视化等设计与开发经验; 7、熟悉MySQL、PostgreSQL、NoSQL等数据库中至少一种数据中心建设方案,可以进行产品的独立部署、高可用架构和性能优化,熟悉开源社区解决方案; 8、熟悉阿里云大数据组件E-MapReduce、Dataworks、MaxCompute和国际AWS的EMR相关数据产品等,市场常见BI产品(superset、FineBI、神策数据)等相关组件者优先; 9、较强的学习能力和技术钻研能力、有自我驱动意识,对数据采集、数据治理、数据开发、数据分析、数据建模、算法等有深刻认识和实战经验。 期待您的加入哟,我们为您准备丰厚福利待遇: 【法定福利】:公司按国家规定购买五险一金+商业保险(员工本人及子女商业保险)+带薪年假; 【节日关怀】:节日福利礼品,以及节日礼金; 【公司福利】: 机场及高铁的贵宾服务(龙腾卡权益)+年度员工健康体检+平安360服务(在线问诊、VIP挂号及重疾紧急入院服务)+年度2次免费洁牙服务 公司提供咖啡、零食、下午茶 员工活动、旅游及团建,不定期举办聚餐、唱K、电竞赛、篮球赛、拓展、旅游、生日Party等 【学习与培训】:助力职业发展与提升,内外训双引擎发力助你高速发展 【晋升机会】:公司设立良好的晋升机制和广阔的发展空间。
  • 15k-30k 经验不限 / 本科
    数据服务 / B轮 / 150-500人
    岗位职责: 公司业务为面向工业企业的数据智能方向。本岗位需要数据工程背景,主要方向为元数据治理和数据架构方向。工作内容兼顾 toB 项目实施与软件产品研发。 1. AI 时代下的元数据治理体系建设,包括: - 元数据治理体系的设计和实施验证 - 元数据治理产品开发,与数据分析产品线的集成 2. 作为技术负责人,亲自参与核心客户项目的交付和技术验证工作,包括: - 项目技术方案设计 - 项目交付与实施 - 客户沟通与技术支持 3. 数据架构设计与数据工程开发,包括: - 根据客户现状和需求设计合理的数据架构 - 数据工程开发,包括数据治理与 ETL 任务开发 - 数据质量监控和运维 岗位要求 1.理工科本科及以上学历,3 年以上数据工程/数据架构相关经验。 2.精通 SQL、Spark 等主流 ETL 工具链的使用。 3.精通 golang、python、scala 软件研发常用技术栈。 4.深入理解元数据治理体系与技术。 5.有元数据治理项目/产品研发经验优先。 6.有工业企业数据智能业务经验优先。
  • 12k-20k·17薪 经验5-10年 / 本科
    汽车丨出行 / 未融资 / 2000人以上
    1、负责车联网大数据标准化接入、整车产品体验洞察、整车健康监测平台等数据应用平台的设计、开发及优化,保障数据应用服务的稳定性与可用性 2、负责车联网大数据的离线、实时数据仓库建设,负责数据的生产、建模、应用及质量体系建设 3、搭建面向数据驱动整车产品闭环的数据指标体系和BI平台 4、负责车联网数据质量、数据资产、数据治理相关的开发工作,提升数据质量及易用性 5、积极探索大数据及人工智能技术的深度应用,并落地到智能网联产品业务 1.工作经验:5年以上数据仓库经验,具备优秀的数据架构和业务抽象能力,参与过中、大型数据仓库从0到1建设的优先,具有智能网联汽车、数据治理、埋点相关经验优先 2.其他: ①、掌握大数据生态技术栈,深入了解数据平台、BI、画像、分析等方向中的一项或多项 ②、熟练使用Hadoop生态相关技术并有相关实践经验,包括Hdfs、Mapreduce、Hive、Hbase、Spark、Kafka、Flink、StarRocks等,具备海量数据加工处理(ETL)相关经验 ③、深入了解常用的数据建模理论,具有丰富的实际模型设计及ETL开发经验,可独立把控数据仓库各层级的设计,有数据治理相关经验者优先 ④、对数据敏感,有较强的逻辑分析能力,有丰富的数据处理和分析经验,有复杂业务和算法的数据平台建设经验优先 ⑤、工作认真、负责、仔细,有良好的团队合作精神,良好的分析及沟通能力
  • 20k-30k·14薪 经验3-5年 / 本科
    软件服务|咨询 / B轮 / 150-500人
    岗位职责 1、负责流量数据模型调研、设计、开发工作,与业务部门紧密配合,提供数据支持; 2、负责流量域数据运营和治理工作,保障数据质量; 3、参与流量域数据服务化与产品化的建设。 岗位要求 1、计算机相关专业,大学本科及以上学历,3 年以上大数据开发相关工作经验; 2、熟悉大数据相关组件(如Hive、MapReduce、Flink、Kafka等),具备编写、优化复杂 SQL 的能力; 3、有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4、熟悉 Python/Java 其中一种语言, 具备基本的服务端开发经验; 5、具备 B 端商业模式经验, 广告投放经验。 加分项 1、熟练的英文读写以及沟通能力; 2、有云原生数据仓库的工作经验, 如 Redshift, Snowflake, BigQuery 等; 3、熟悉埋点治理, 埋点管理, 埋点流程建设经验。 为什么加入我们 1、朝阳行业:国际电商 SaaS 服务赛道,国际一线投资机构加持; 2、稳健发展:团队稳健扩张,业务规模及营收每年持续稳健增长; 3、多元文化:团队来自全球 20 多个不同城市,国际化视角、扁平化管理; 4、极客氛围:拥抱开源技术,实践敏捷开发,崇尚通过工具和自动化来解决问题; 5、特色福利:AI 学习基金、 一对一帮带、内部商城、提供 MacBook 及可升降办公桌。
  • 15k-25k 经验3-5年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    工作职责: 1.数据同步与ETL开发: 负责设计、开发、测试和维护数据同步、抽取、转换和加载(ETL)流程,确保数据高效、准确、稳定地从源系统流向目标系统。 2.数据同步通道部署与运维: 负责使用OGG、DSG等数据同步工具进行通道的部署、配置、监控、调优和故障处理,保障数据同步通道的稳定运行。 3.日常数据开发与运维: 使用Python、Java等编程语言进行日常数据开发任务(如脚本编写、自动化任务开发)和数据运维工作(如数据质量检查、任务监控、问题排查)。 4.数据库开发与操作: 熟练编写和优化SQL脚本,基于Greenplum、Oracle、MySQL、PostgreSQL等主流数据库进行数据查询、分析、转换和存储过程开发等。 5.数据运维程序开发:根据业务需求,开发数据清洗、转换、入库等相关的运维程序和工具,提升数据处理效率和自动化水平。 6.数据质量保障:参与数据清洗规则的制定与实施,确保入库数据的准确性、完整性和一致性。 任职资格: 1.工作经验: - 3年以上数据开发相关工作经验。 - 具备以下经验优先: 1)有使用 OGG (Oracle GoldenGate) 或 DSG 等数据同步工具的实际部署、配置或运维经验。 2)了解ETL工具(如 Informatica, DataStage, Kettle 等)或调度工具(如 Airflow, DolphinScheduler 等)。 2.技术能力: - 熟练掌握 Python 和 Shell 脚本编程,能够独立完成开发任务。 - 精通 SQL 语言,具备复杂查询、性能调优、存储过程编写等能力。 - 熟练使用至少两种主流数据库(Greenplum, Oracle, MySQL, PostgreSQL)进行开发、管理和优化,理解其核心架构与特性。 - 了解至少一种国产或新兴数据库(如 OceanBase, TiDB, 人大金仓(KingbaseES))的基本原理和使用方式。 - 熟悉 Linux 操作系统(如 CentOS, RedHat, Ubuntu 等),掌握常用命令、系统管理、环境配置和脚本执行。 - 加分项 (非必需,但优先考虑): 1)具备一定的 Java 开发能力。 2)熟悉数据仓库建模理论(如维度建模)。 3)有大数据生态组件(如 Hive, Spark, HDFS 等)的使用经验。 4)了解容器化技术(Docker, Kubernetes)。 3.其他要求: - 具备良好的学习能力、分析问题和解决问题的能力。 - 工作认真负责,有较强的责任心和团队协作精神,能承受一定的工作压力。 - 具备良好的沟通能力,能够清晰表达技术方案和问题。
  • 12k-24k 经验1-3年 / 本科
    IT技术服务|咨询 / 不需要融资 / 2000人以上
    工作地点:广东广州 工作内容:1.数据收集与清洗:负责从多种数据源(如数据库、API、日志文件等)中提取和整合数据。对原始数据进行清洗、去重、转换和标准化,确保数据质量和可用性。 2.数据分析与挖掘:运用统计学、机器学习等方法对数据进行分析,挖掘数据背后的规律和趋势。针对业务问题,设计并实施数据分析方案,提供数据驱动的洞察和建议。 3.数据可视化与报告:使用可视化工具(如Tableau、Power BI、Matplotlib等)将分析结果转化为直观的图表和报告。定期生成数据分析报告,向业务部门和管理层汇报分析结果,支持决策制定。 4.业务支持与优化:与产品、运营、市场等团队紧密合作,理解业务需求并提供数据支持。 5.数据建模与预测:构建数据模型,进行预测分析和场景模拟,为业务规划提供数据依据。持续优化模型,提升预测准确性和实用性。 任职资格: 1.学历要求:本科及以上。 2.专业要求:计算机、数学、统计学、金融工程、经济管理、商业分析等相关专业优先。 3.工作经历:须具备数字化工作背景。 (1)具备风险管理、数据分析等工作经验; (2)熟练掌握风险评估、风险建模、数据分析等专业技能,精通Python、R、SQL等数据分析工具,能够运用大数据技术进行风险识别和预警。 (3)具备相关法律法规和监管政策等经验者优先;具备民航工作经验者优先。
  • 20k-35k·15薪 经验1-3年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1、参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,参与ETL实施,建设稳定高效的数据体系。 2、参与数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 3、深度理解业务需求,构建并维护业务数据模型,包括不限于用户模型、业务预测模型、业务评估模型等,提升数据模型的准确性和稳定性,推动业务高效发现问题及业务决策。 4、挖掘业务需求,基于对机器学习的理解,从业务和技术等维度上,提出模型优化策略及不同场景下的数据解决方案,选择有效的算法解决可能遇到的数据、场景相关问题,提升模型的性能和稳定性; 5、参与数据产品与应用的数据研发,发掘数据价值,以数据驱动业务不断发展。 6、跟踪模型或方案产生的业务影响,与各业务部门紧密合作,推动数据化决策。 任职资格: 1、**本科及以上学历,统计学、数学、经济学、金融等相关专业,并在数据挖掘相关工作上有1-3年工作经验。 2、精通Python、SQL,熟悉常用数据统计、分析和建模方法;熟练掌握SQL/HQL/Spark SQL开发及优化技能,快速ETL实施能力,对SLA有较深刻的认识及强烈的责任心。(Must) 3、熟悉Azkaban等任务调度工具。(Must) 4、精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。(Must) 5、积极主动贴近业务,有良好的沟通协调能力和团队合作精神,数据敏感度高,能够快速理解业务模型及数据模型; 6、优秀的分析问题和解决问题的能力,对解决具有挑战性的问题充满激情; 7、有数据分析能力优先。(Plus)