• 15k-30k 经验5-10年 / 本科
    软件开发 / 不需要融资 / 150-500人
    任职要求: 1、测绘、地信、遥感或计算机相关专业,本科及以上学历; 2、具备5年以上相关行业从业经验,有领先图商质量管理经验优先; 3、熟悉常用工具软件,如ARCGIS、QGIS、EXCEL,3DMAX; 5、具备质量管理知识,具备风险分析能力; 6、具备较丰富的团队管理经验,业务敏锐度高,能组织跨环节的复杂问题解决; 8、具备强烈的自驱力、使命感、责任感。 岗位职责: 1、负责数据质量目标制定、质检计划制定、质检进度跟踪、质检阶段性总结; 2、负责数据质检标准效率及目标的制定、进行质量监控、以及抽检方案的制定 3、负责数据质量评估标准的建立,并落地执行; 4、负责识别数据质量和进度风险,并具有解决内部风险和推进外部解决风险的能力; 5、负责跟进绩效方案编制、完善,负责绩效数据统计、分析、审核、提交至质检部负责人; 6、负责质检资源协调、技能互通计划制定,以及产线主管、小组长等管理岗人才培养; 7、负责持续质量改善,推动工艺方案优化、工具平台改善、生产作业质量改善
  • 20k-40k·15薪 经验5-10年 / 本科
    电商平台 / C轮 / 2000人以上
    岗位职责: 1、负责电商财务域数据模型调研、设计、开发工作,与业务部门紧密配合,提供数据支持 2、负责电商财务域数据运营&治理工作,保障数据质量 3、参与电商财务域数据体系化建设,提升数据服务稳定性 任职要求: 1、计算机相关专业,大学本科及以上学历,5年以上大数据开发相关工作经验 2、熟悉大数据相关组件(如Hive、Spark、Flink、Kafka等),具备编写、优化复杂SQL的能力 3、有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题 4、熟悉Python/Java/Scala/Shell其中一种语言 5、具备电商领域业务开发经验优先;具备财务领域业务开发经验优先 6、负责过数据平台或数据仓库设计优先;有带团队经验优先。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1、协助业务定义商品信息相关的SOP及标准,推动商品域业务系统标准化、智能化、平台化系统建设 2、管理和维护商品相关数据资产,能够结合业务发展,合理规划数据资产结构及服务 3、定期收集商品信息上下游运营对于商品运营系统的诉求,分析并形成产品需求,推动落地 4、推动和协调跨部门的产品和运营团队,提升商品信息的维护效率、数据质量和应用效果 5、深入关注商品业务,通过市场调研、数据分析、竞品跟踪等方式,持续优化商品体系,支撑业务发展 岗位要求: 1、本科及以上学历,5年以上电商产品经验优先 2、具有2年以上To B的产品规划和设计相关经验,有商品相关产品经验优先 3、逻辑思维能力强,有较强的结构化分析与表达能力,能从复杂的系统关系和业务流程中,抽象出解决方案 4、学习能力强,执行力及抗压力强,有较强的沟通协调、资源整合能力及项目管理能力
  • 30k-60k 经验不限 / 硕士
    社交媒体 / 上市公司 / 2000人以上
    职位描述: 1. 多模态大模型:探索跨模态的信息对齐方法,研究多模态大模型的预训练、指令微调、RLHF(拒绝学习与强化学习)等技术,评估和提高多模态数据质量,进行数据清洗 2. 内容理解:探索适合微博的实体识别、属性抽取、关系分类等技术,探索图文/视频多模态的内容分类、信息抽取、智能摘要等技术 任职要求: 1. 自然语言处理、计算机视觉、机器学习、数据挖掘、人工智能等相关专业的硕士生/博士生 2. 熟悉BLIP2、LLaVA、MiniGPT、VisualGLM、Qwen-VL等LMM模型结构及训练方法; 3. 熟练掌握tensorflow、pytorch等深度学习框架,扎实的编程基础
  • 社交媒体 / 上市公司 / 2000人以上
    工作职责: 1. 多模态大模型:探索跨模态的信息对齐方法,探索多模态大模型的继续预训练、指令微调等技术,探索多模态的数据质量评估和清洗方法。 2. 多模态大模型应用:解决多模态大模型工程化过程中的难题,推动多模态大模型在微博场景落地。 任职要求: 1. 自然语言处理、计算机视觉、机器学习、数据挖掘、人工智能等相关专业,本科及以上学历,研究生优先。 2. 在计算机视觉或多模态理解与生成方面有扎实的知识基础,熟悉主流的多模态大模型或图片、视频生成模型,如LLaVA、Qwen-VL、SD、FLUX、OpenSora等。 3. 在多模态理解或多模态生成等应用方向具备1年左右,或在计算机视觉领域具备2年以上相关工作经验,两者满足其一即可。 4.熟悉Pytorch、Transformers 等常用工具的使用,具备扎实的编程基础。 5. 赛事获奖或开源项目贡献者优先。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 2、负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3、负责指标体系建设与维护; 4、参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1、数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言;了解数据湖,并有相应落地经验可以成为加分项; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、业务上有财务背景可以成为加分项。
  • 15k-28k·15薪 经验1-3年 / 本科
    金融 / 上市公司 / 2000人以上
    工作内容 职位描述: 1.参与大数据平台数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2.参与数据仓库模型的ETL实施,ETL性能优化、技术攻关等。 3.参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4.参与平台标签体系、数据产品与应用的数据研发,发掘数据价值,以数据驱动业务不断发展。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-3年工作经验,具备极强的问题解决能力。 2. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 3. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型;熟练掌握SQL/HQL/Spark SQL开发及优化技能,快速ETL实施能力,对SLA有较深刻的认识及强烈的责任心。 4. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink,DataWorks等大数据工具应用和开发经验。 5. 掌握Java, Python等至少一门语言,有MapReduce项目开发经验,熟悉Azkaban等任务调度工具。 6. 熟练使用git,有多人项目合作开发经验。 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责抖音电商数据治理工作,包括不限于成本、质量、效率,提升数据易用性、安全性及稳定性; 2、深入理解数据业务,发现并总结数据研发、数据成本、数据质量、数据安全等方面数据问题,提炼数据治理方法论,推动数据治理方法实施; 3、孵化并持续迭代优化数据治理产品,以系统化、智能化能力高效支撑数据业务快速发展。 职位要求: 1、熟练使用SQL、Python、Java等工具进行大型数据分析及建模; 2、熟练使用Hadoop、Hive、Spark、Flink等组件进行大数据场景数据开发; 3、有较强的逻辑分析、沟通及工作推进能力,具备优秀的技术与业务结合能力; 4、对数据治理有一定的实践经验,有良好业务意识,对数据业务场景敏感,能够横向协同、跨团队整合资源,形成完整的方案解决业务/产品的问题; 5、有良好数据治理产品经验者、有实时数据研发经验者优先。
  • 20k-40k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1、为东南亚金融机构开发各类评分模型,提供个人和企业征信产品和服务,本岗位为征信业务团队核心成员 2、负责信贷业务领域的模型设计、开发、评估,包括但不限于反欺诈、信用评分、营销响应模型等 3、负责征信数据和三方数据的分析、挖掘与价值评估工作,以及数据质量探查与监控的体系建设 4、与销售和产品运营紧密合作,深入了解外部机构其业务需求,设计并实施方案,优化现有征信评分产品 任职要求: 1、本科及以上学历,计算机、数学、统计学、机器学习等相关专业 2、3年以上大型金融机构或互联网公司工作经验优先,有互联网信贷风控模型经验者优先 3、对统计学和分析挖掘算法原理有较深刻的理解,熟悉运用机器学习,包括但不限于逻辑回归、XGBoost、LightGBM等 4、熟练使用Python、SQL等编程工具,熟悉云 5、优秀的分析及解决问题的能力 6、表达沟通能力强,英语流利者优先,责任心强,细心耐心,自驱力强
  • 音频|视频媒体,短视频 / 上市公司 / 500-2000人
    岗位职责: 1. 搜索排序方向:包括粗排、精排、混排,构建特征工程、多目标学习、在线模型推理、以及垂类优化等任务; 2. Query理解方向:包括纠错、改写、意图、词权重、紧密度、丢词、成分分析等任务; 3. 曲库建设方向:包括歌曲分类体系建设,标签挖掘,向量化建设等; 4. 用户画像方向:包括属性挖掘,兴趣体系建设,行为模式挖掘等; 5. NLP研究方向:包含分词、实体识别、标签提取、文本分类、模型预训练、语义向量等任务。 岗位要求: 1. 计算机、机器学习和数学等相关专业,硕士及以上学历; 2. 3年以上搜推广相关工作经验; 3. 有丰富的c++/java/python等主流编程语言经验,扎实的算法与数据结构功底,优秀的机器学习基础,良好的数学与统计基础; 4. 熟悉hive,spark等大数据处理工具,有丰富的数据处理与挖掘经验; 5. 至少熟练掌握一种深度学习框架; 6. 有以下一项或多项将优先考虑:1)有丰富NLP落地经验,有大规模数据建模经验,熟悉搜索、推荐、广告业界前沿算法;2)有完整数据体系建设经验,包括用户画像、物品画像、数据质量评估与监控等;3)有优秀论文发表者优先。
  • 20k-40k·14薪 经验5-10年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
  • 9k-18k 经验5-10年 / 硕士
    教育 / 不需要融资 / 500-2000人
    Job Title: Technical Officer(SAERF) Department: Sustainable Atmospheric Environment Research Facility(SAERF), HKUST(GZ) Job Posting Details Formally established in June 2022, the Hong Kong University of Science and Technology (Guangzhou)(HKUST(GZ)) is a cooperatively-run university between the Chinese mainland and the Hong Kong Special Administrative Region. HKUST(GZ) has obtained approval from the Ministry of Education (MoE) and become the first legally-independent educational institution co-established by the Mainland and Hong Kong since the announcement and implementation of the “Outline Development Plan for the Guangdong-Hong Kong-Macao Greater Bay Area” and the “Overall Plan for Deepening Globally Oriented Comprehensive Co-operation amongst Guangdong, Hong Kong and Macao in Nansha of Guangzhou”. With a spirit of pioneering innovation, HKUST(GZ) charts new territories in cross-disciplinary education and explores new frontiers in pedagogies, aiming to serve as a role model of the mainland-Hong Kong integrated educational development and become a world-famous high-level university, endeavoring to nurture future-oriented, high-level and innovative talents. In response to the increasingly complex challenges faced by the rapidly changing world, HKUST(GZ) adopts a brand-new and cross-disciplinary academic structure featuring “Hub” and “Thrust” to substitute the conventional one characterized by “school” and “department”, facilitating cross-disciplinary integration while vigorously developing emerging and frontier disciplines. This is a groundbreaking move in the higher education community across the globe. 专业要求: 计算机科学与技术、软件工程、计算机工程或相关理工科专业。 工作职责 1. 设计、部署和管理高性能计算 (HPC) 集群,支持大气模拟、气候建模和大规模环境分析等计算密集型建模任务。 2. 构建并维护强大的环境数据库,整合传感器数据、管理元数据、确保数据质量,并为研究人员提供无缝的数据访问和分析支持。 3. 负责系统管理工作,包括服务器安装配置、操作系统管理维护、安全监控及软件更新升级,确保计算环境稳定安全运行。 4. 配置和维护本地及远程网络与数据基础设施,保障传感器、存储系统、HPC资源与终端用户之间的高效数据流传输。 5. 评估并实施新兴技术(如云计算、容器化方案-Docker、可扩展存储),持续增强机构的技术能力和效率。 6. 为研究人员提供技术支持与合作,包括问题调试、系统优化以及HPC工具和数据工作流程的培训指导。 7. 协助设备采购的技术规划和预算编制,负责供应商评估选择及物流协调管理事宜。 8. 领导并指导初级工程师,负责日常系统维护及用户支持工作。 9. 积极参与机构战略发展,推动数据驱动的环境研究发展,提升数据集的可访问性与互操作性,保障设施技术生态的长期可持续性。 10. 完成领导交办的其他任务。 任职要求 1. 计算机科学、软件工程、大气科学、环境工程或相关理工科专业硕士及以上学位。 2. 熟悉气象与环境数据全生命周期管理流程,掌握气候模型验证及卫星遥感数据分析方法论。 3. 具备大规模计算集群的架构设计及性能调优能力,精通主流并行计算框架与分布式任务调度系统。 4. 具有公有云服务部署实施经历(至少一种主流云平台)。 5. 5主导过复杂系统从需求分析到生产落地的完整交付周期,能独立设计测试验证方案并组织技术培训。 6. 熟练应用关系型数据库及时空数据库解决方案,了解实时数据流处理技术框架的实现原理。 7. 拥有跨学科协作经验,可有效转化科研需求为技术方案。 8. 能适应中英双语工作环境, 具有良好的中英文书写和口语能力优先。
  • 10k-15k 经验1-3年 / 大专
    旅游|出行 / D轮及以上 / 500-2000人
    岗位职责: 1. 使用SQL等数据抓取工具从各种数据源中提取数据,并进行数据清洗和整理。 2. 运用统计学和数据分析方法对数据进行分析,发现趋势、模式和关联性。 3. 利用数据可视化工具(如Tableau、Power BI等)创建仪表盘、报告和可视化图表,以向利益相关者传达数据洞察。 4. 协助团队成员进行数据分析项目,提供支持和建议。 5. 监测和评估数据质量,确保数据的准确性和完整性。 6. 跟踪行业趋势和竞争对手的数据,提供市场洞察和建议。 岗位要求: 1. 2-3年相关工作经历。 2. 熟练掌握SQL等数据抓取工具,能够编写和优化复杂的查询语句。 3. 具备数据清洗和整理的技能,能够处理大量数据并确保数据的准确性。 4. 熟悉统计学和数据分析方法,能够运用这些方法解决实际问题。 5. 熟练使用数据可视化工具,能够将数据转化为易于理解和传达的可视化图表和报告。 6. 对商业和旅游行业有浓厚的兴趣,了解相关行业的趋势和挑战。 7. 具备良好的沟通和团队合作能力,能够与不同部门和利益相关者进行有效的合作。 8. 具备解决问题和分析能力,能够快速理解和解决复杂的数据相关问题。
  • 18k-35k·14薪 经验5-10年 / 本科
    生活服务,旅游|出行 / 上市公司 / 150-500人
    岗位职责 : 1、数据仓库和数据处理‌:负责大数据平台的数据仓库、数据治理和数据模型的设计与开发工作。进行日常数据报表开发,理解业务需求,发挥数据价值‌。 2‌、数据服务开发‌:负责离线和实时数据服务的设计、开发、性能调优和效果优化。构建和维护数据管道,处理ETL过程,确保数据质量和准确性‌。 3、技术研究和应用‌:参与相关项目的数据需求的实现,设计和编码工作。参与开发过程中相关技术的研究和验证‌。 ‌4、平台运维和质量管理‌:负责大数据平台的数据及相关的应用开发、调优及维护。完成日常数据质量的监控,参与大数据平台的日常运维工作‌。 5、针对数据一致性、准确性、及时性,制定数据管理与治理机制,提升数据易用性、可用性及稳定性; 任职要求 : 1、本科及以上学历,计算机相关专业,3-5年以上数据开发经验; 2、具备至少一个完整的大数据平台和BI系统实施经验,熟知平台建设各环节工作,包括数据采集、数据落地、仓库建设、数据平台搭建、数据应用产品开发 3、熟悉基于推荐系统的数据仓库建设方法论,有数仓模型设计及ETL开发经验;有数据仓库分层架构设定经验者优先; 4、熟悉Hadoop生态相关技术,如Hive、HDFS、Impala、Spark、Presto、Flink、Hudi、Elasticsearch、HBase、Druid、Kylin等,有基于分布式数据存储与计算平台应用开发经验,有较为系统的海量数据性能处理经验; 5、熟悉java、scala、python等语言,熟悉微服务,分布式架构,熟悉springcloud,springboot等技术开发; 6、熟悉数据仓库原理,有离线数仓、实时计算、数据挖掘、ETL、用户画像、数据可视化等设计与开发经验; 7、熟悉MySQL、PostgreSQL、NoSQL等数据库中至少一种数据中心建设方案,可以进行产品的独立部署、高可用架构和性能优化,熟悉开源社区解决方案; 8、熟悉阿里云大数据组件E-MapReduce、Dataworks、MaxCompute和国际AWS的EMR相关数据产品等,市场常见BI产品(superset、FineBI、神策数据)等相关组件者优先; 9、较强的学习能力和技术钻研能力、有自我驱动意识,对数据采集、数据治理、数据开发、数据分析、数据建模、算法等有深刻认识和实战经验。 期待您的加入哟,我们为您准备丰厚福利待遇: 【法定福利】:公司按国家规定购买五险一金+商业保险(员工本人及子女商业保险)+带薪年假; 【节日关怀】:节日福利礼品,以及节日礼金; 【公司福利】: 机场及高铁的贵宾服务(龙腾卡权益)+年度员工健康体检+平安360服务(在线问诊、VIP挂号及重疾紧急入院服务)+年度2次免费洁牙服务 公司提供咖啡、零食、下午茶 员工活动、旅游及团建,不定期举办聚餐、唱K、电竞赛、篮球赛、拓展、旅游、生日Party等 【学习与培训】:助力职业发展与提升,内外训双引擎发力助你高速发展 【晋升机会】:公司设立良好的晋升机制和广阔的发展空间。
  • 15k-30k 经验不限 / 本科
    数据服务 / B轮 / 150-500人
    岗位职责: 公司业务为面向工业企业的数据智能方向。本岗位需要数据工程背景,主要方向为元数据治理和数据架构方向。工作内容兼顾 toB 项目实施与软件产品研发。 1. AI 时代下的元数据治理体系建设,包括: - 元数据治理体系的设计和实施验证 - 元数据治理产品开发,与数据分析产品线的集成 2. 作为技术负责人,亲自参与核心客户项目的交付和技术验证工作,包括: - 项目技术方案设计 - 项目交付与实施 - 客户沟通与技术支持 3. 数据架构设计与数据工程开发,包括: - 根据客户现状和需求设计合理的数据架构 - 数据工程开发,包括数据治理与 ETL 任务开发 - 数据质量监控和运维 岗位要求 1.理工科本科及以上学历,3 年以上数据工程/数据架构相关经验。 2.精通 SQL、Spark 等主流 ETL 工具链的使用。 3.精通 golang、python、scala 软件研发常用技术栈。 4.深入理解元数据治理体系与技术。 5.有元数据治理项目/产品研发经验优先。 6.有工业企业数据智能业务经验优先。