• 12k-15k 经验不限 / 不限
    电商平台 / A轮 / 500-2000人
    工作职责: 1.负责爬虫服务架构设计、研发、爬虫效率的优化,完成数据采集、解析处理、入库及备份等数据日常工作; 2.负责爬虫核心技术研究、开发工作,对反爬虫屏蔽具有相应的应对策略; 任职资格: 1. 本科及以上学历,有2年及以上Python爬虫开发相关经验,理工科优先; 2. 有电商/供应链相关工作经验优先; 3. 熟练掌握python,熟悉mongoDB、redis等数据库,熟练使用linux操作系统; 4. 熟悉正则表达式、xpath等解析工具,了解前端html,css,js等相关知识。 5. 具备一定的js逆向基础。掌握常用爬虫框架(如 requests, scrapy等),有处理反爬的经验; 6. 具有良好的团队协作精神,思维活跃、逻辑严谨。
  • 3k-5k 经验在校/应届 / 本科
    数据服务|咨询 / 不需要融资 / 15-50人
    【公司简介】 Gekko Lab,由海归数学博士、资深金融分析师和金融监管领域的专家成立。创始团队在美国硅谷完成了核心技术开发,并于2017年在香港和大陆同时开展业务。我们专注于为银行金融、法律和公共服务领域的重要机构提供前沿的AI自动化系統和SaaS数据解决方案。我们的客户包括交易所、金融管理局等大部分香港金融监管机构和跨国律师事务所,业务主要分布在金融和法律行业。 部分所获国际奖项: - Fintech Bridge Awards - Best Chinese FinTech 2018 - Regulation Asia Awards for 2019 Excellence - RegTech Award Big Data & Analystics - Accenture FinTech Innovation Lab Asia Pac 2018 Finalist - 第十九届亚太资讯及通讯科技大奖 - 科技类别 - 大数据分析金奖 【工作职责】 1. 负责内部系统的数据采集系统的开发和维护治理工作。 2. 负责目标数据采集,分析,清洗,集合以及数据质量控制。 3. 参与设计复杂系统的数据存储结构。 4. 辅助数据项目算法设计和实现。 5. 辅助数据科学家研发人工智能算法,主要集中在大语言模型领域。 【基本要求】 1. 计算机科学、数学、物理或相关专业在读学生。 2. 擅长python,熟练使用多种数据分析包如Numpy、pandas等,从结构化和非结构化数据中解析数据。掌握一个或以上数据可视化包。 3. 熟悉Linux系统,计算机网络,数据结构算法。 4. 熟悉MySQL、MongoDB等数据库的基本原理。 5. 有很好的逻辑思维能力和分析能力。 【优先条件】 1. 熟悉深度学习模型原理,并能基于主流框架进行开发,例如TensorFlow等。 2. 熟悉NLP模型开发和使用。 3. 熟悉GPT架构模型的部署和微调。Transformer架构。 4. 熟练使用大语言模型,理解Prompt原理。 5. 拥有数据工程相关项目经验。 6. 拥有国际化视野,优秀的英文沟通能力。 【其他信息】 - 一轮笔试 + 两轮面试:技术面、团队负责人 - 倾向大三、时间充裕的学生,至少能实习3个月 - 需线下办公
  • 3k-6k 经验不限 / 本科
    工具类产品 / A轮 / 50-150人
    工作职责: 1、学习并掌握各热门行业的产业链上下游及产业内头部企业的定位; 2、基于对行业的深度理解,对头部企业的信息及行业分类等数据进行标注; 3、使用SQL、Excel等协助完成数据的清洗及入库; 4、对SaaS产品的用户行为的埋点数据进行数据分析(主要可视化工具:Metabase;SQL)。 岗位要求: 1、做事认真踏实,能够接受繁琐的基础工作,严谨细致有责任心; 2、有较强的学习理解、解决问题能力; 3、实习期不少于3个月,每周实习3-5天。
  • 10k-20k 经验不限 / 不限
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责网络基础业务的数据开发、数仓建模工作; 2、负责网络基础业务的数据分析、挖掘工作; 3、参与网络基础数据治理工作,提升数据易用性与数据质量; 4、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、本科及以上学历,计算机、通信、统计、数学等相关专业; 2、熟悉 Hive/Spark/Flink 等分布式计算框架,熟悉大数据的离线和实时处理技术; 3、熟悉常用的数据建模理论,可独立把控数据仓库的各层级设计; 4、有丰富的数据开发经验,对数据处理、数据建模、数据治理等有深刻认识和实战经验; 5、具有优秀的逻辑思维能力、很强的数据分析和解决问题能力; 6、有数据中心网络业务背景者优先。
  • 10k-20k 经验不限 / 不限
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责网络基础业务的数据开发、数仓建模工作; 2、负责网络基础业务的数据分析、挖掘工作; 3、参与网络基础数据治理工作,提升数据易用性与数据质量; 4、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、本科及以上学历,计算机、通信、统计、数学等相关专业; 2、熟悉 Hive/Spark/Flink 等分布式计算框架,熟悉大数据的离线和实时处理技术; 3、熟悉常用的数据建模理论,可独立把控数据仓库的各层级设计; 4、有丰富的数据开发经验,对数据处理、数据建模、数据治理等有深刻认识和实战经验; 5、具有优秀的逻辑思维能力、很强的数据分析和解决问题能力; 6、有数据中心网络业务背景者优先。
  • 10k-18k·13薪 经验不限 / 本科
    信息安全 / 不需要融资 / 50-150人
    岗位职责: 1、负责依据法律法规标准要求,制定数据进行分类分级标准; 2、负责数据治理、数据安全相关管理办法的制订; 3、针对数据全生命周期开展数据安全风险评估,发现信息系统数据安全风险; 4、借助产品推动数据安全治理,包括数据脱敏、数据加密、隐私计算等; 5、负责数据资产管理,将新增数据和数据接口进行汇总和统计,形成数据资产目录清单和数据接口清单。 知识技能: 1、了解国家数据安全相关法律法规和标准等,例如数据安全法、个人信息保**; 2、了解常见数据安全风险、数据保护技术、数据生命周期管理标准及规范; 3、了解数据安全主流技术,如数据加密、数据脱敏等。 个人素质: 具有较好的综合素质,良好的沟通能力,工作认真细致,责任心强。
  • 工具类产品,软件服务|咨询,IT技术服务|咨询 / 不需要融资 / 500-2000人
    岗位职责 1、负责业务数据全链路质量保障和治理,包括但不限于数据同步、数据加工、数据资产化等环节的保障方案设计与落地; 2、通过数据资产审计、单元测试、链路仿真、资产巡检、常态化攻防等方法保障数据资产、数据产品交付质量; 3、沉淀测试流程、并通过工程化手段和技术创新提升质量水位,建设业界一流的大数据领域技术风险保障体系。 岗位要求 1、具有2年以上数据研发或者测试经验,对数据仓库、数据平台、数据引擎领域知识有较好储备; 2、熟练掌握一门或多门编程语言,如SQL、Java、Python等,具备大型项目保障经验,在性能、稳定性等领域有经验者优先; 3、熟悉数据仓库模型设计、ETL开发、维度建模设计方法,具备海量数据处理经验、熟悉业界经典计算存储引擎相关技术者优先; 4、有良好的语言表达能力和优秀的沟通协作能力;有银行、信贷、融资相关的金融业务从业经验者优先。
  • 10k-20k·13薪 经验不限 / 硕士
    制造业 / 不需要融资 / 500-2000人
    职位描述: 医学数据专家将负责用科研手段为团队产出有价值的指导思路,并通过与各个合作医院KOL即相关院长、主任、医生等合作科研项目,发起和推动业务相关的科研项目进展,逐步打造共同照护模式的医学品牌。在团队内部,也能提供有价值的医学洞见和医学支持。 岗位职责: 1、 站在科学的角度分析糖尿病管理的医学数据 2、 根据需求进行数据统计、分析和相关医疗PPT汇报的制作 3、 与产品、运营、开发等团队对接相关数据及医学需求 4、 根据安排参与各大学术会议,收集最新学术及科研进展资讯 任职要求: 1、研究生以上学历,有临床工作经验。内分泌科、心内科等方向临床医学、基础医学优先考虑,有糖尿病管理经验优先考虑; 2、了解科研行业,知道基本科研流程。能用中英文读懂指南及最新文献,保持对糖尿病及相关代谢领域最新进展的了解; 3、细心,对数据处理和分析有兴趣,对统计学有了解,会用Excel 透视表和公式、了解SPSS,SAS或R等医学统计常用软件; 4、书写能力强,有项目书写作经历、有丰富官方文件书写经验的优先考虑; 5、本职位需与团队内部、外部进行有效沟通,需要应聘者有良好的患者沟通能力、有耐心和亲和力;问题解决能力强。
  • 10k-15k 经验不限 / 本科
    数据服务,硬件 / C轮 / 150-500人
    工作职责: 1、协助现场项目经理进行电力数据加工聚合、简单分析 2、协助总部研发进行数据导出 3、现场服务器运维 4、帆软报表开发 任职资格: 1、电子、计算机相关专业毕业。 2、掌握Python编程语言,进行过简单的Python数据分析(相关性、回归等); 3、有linux相关经验,掌握linux操作 4、有SQL相关经验,会使用MySQL数据库; 5、有Hadoop、Elasticsearch、Spark等相关技术经验;
  • 8k-12k 经验不限 / 本科
    房产家居 / 未融资 / 2000人以上
    工作职责: 1、数据分析:监控核心资源的数据情况,定期汇报复盘,提出相应优化建议,保障核心资源的储备和效率; 2、工具创建:基于具体的业务动作、使用场景,搭建合适的管理或系统工具,并追踪使用效果; 3、运营维护:解答和培训业务使用系统过程中遇到的功能或规则问题,定期整合复盘,提出优化建议。 任职资格: 1、有较强的逻辑思维能力,数据分析能力; 2、思维活跃善于发现问题总结原因; 3、熟悉Excel、PowerPoint等Office办公工具; 4、有数据分析相关背景者优先。
  • 工具类产品,软件服务|咨询,IT技术服务|咨询 / 不需要融资 / 500-2000人
    岗位职责 1、能够在系分设计的指导下,输出高质量代码、自测和功能交付。 2、具备风险意识,对异常处理考虑充分、自测覆盖完善。 3、参与日常运营问题排查及支持。 岗位要求 1、JAVA基础扎实,理解IO、多线程、并发和集合等基础框架、了解OOP、OOD和常用设计模式对JVM原理有一定的理解,并拥有优秀的编码能力、质量意识和解决问题的能力。 2、数据库基础扎实,理解事务机制、锁机制和SQL运行优化机制,并具有丰富的实践经验。 3、了解常见分布式开源框架的原理(Redis、Kafka、MQ等)、分布式系统设计、分布式缓存、消息等,并有一定的实践经验。 4、对互联网或分布应用开发的新潮流有关注,乐于学习和尝试新技术,追求编写优雅的代码。 5、积极主动、有较强的责任心和学习能力。
  • 移动互联网,游戏 / 上市公司 / 2000人以上
    岗位职责  1、协助搭建数据分析体系,根据数据分析需求,梳理数据埋点需求、跟进埋点制作,提炼常规数据项; 2、有效监控运营数据,对于数据趋势和波动做出有效分析,帮助产品发现和定位问题; 3、在游戏的各个阶段,针对版本,系统玩法,商业化系统,活动等进行专项分析,评估有效性及指导调优; 4、负责数据统计后台页面开发需求的设计和页面维护 5、在各个阶段和节点输出完整的数据报告 岗位要求  1、3年左右游戏运营工作经历 2、较强的逻辑思维和数据分析能力,对数据敏感 3、会用SQL抓取数据,学过其他语言编程的也可考虑; 4、性格外向,善于沟通,有良好的团队协作和配合精神;  
  • 8k-12k·13薪 经验不限 / 本科
    电商 / 不需要融资 / 150-500人
    职位描述: 1.完成选品、销售、仓储、采购等部门的数据需求。 2.参与业务监测指标体系建设,确保业务监测指标体系的实用性、准确性和完整性。 3.参与 BI 看板、报表整合及优化,确保BI看板、报表实用、准确、完整、美观。 4.深入了解业务,输出以数据为支撑的业务优化策略,对策略最终效果负责。 职位需求: 1.理工科、商科相关专业,对数据有一定的敏感度。 2.熟练掌握 Python,SQL,Excel 等数据分析工具,有兴趣持续探索最新技术。 3.对外贸行业感兴趣,有外贸行业数据分析经验更佳。 4.能快速把握业务动态,结合业务流程、公司现状提出可落地策略,并持续对策略进行迭代。 5.能承受较高强度压力(非加班),有责任心,对分析成果、策略部署最终效果负责。 6.拥抱变化,积极主动,自信。 7.(加分)熟悉时间序列相关算法。
  • 12k-20k·13薪 经验不限 / 本科
    企业服务,数据服务 / 不需要融资 / 500-2000人
    岗位职责: 1. 根据研发任务诉求,完成数据的采集、清洗、整合、分析等工作; 2. 协助组织和调配相关数据,支持训练任务,并参与持续调优迭代; 任职要求: 1、统计/计算机/数学等相关专业,有一定的数理统计基础 2、熟悉爬虫和反爬相关技术,有数据采集、加工、分析、处理相关工作经验者优先 3、精通python,熟悉文本处理及统计分析相关技术。 4、良好的逻辑思维能力、较强的数据分析和问题解决能力。 5、工作认真细致、积极主动,有良好的执行力和高度的责任心 6、具备良好的学习能力,优秀的沟通协调能力及团队合作精神。
  • 7k-9k 经验不限 / 本科
    物联网 / 不需要融资 / 500-2000人
    岗位职责: 1、业务数据分析、调研及数据采集; 2、大数据平台的数据清洗、数据转换、数据存储; 3、持续跟踪大数据平台运行情况,监控数据同步链路,处理各类异常和故障; 4、数据治理相关开源项目产品的部署安装、性能调优和监控; 5、参与集团数据标准制定与规范建设; 6、完成集团数据中台及协助与支持各数源方按照相关数据标准与规范完成数据治理各项制度的落地及执行效果评估(包括元数据、主数据、数据标准、数据质量、数据安全、数据资产管理等)。 任职要求: 1、熟悉Oracle、MySQL等相关数据库及相关配套工具,熟悉SQL语言; 2、熟悉java,熟悉Linux操作系统; 3、熟悉Mapreduce、Redis、Kafka、Flink、spark等大数据组件的应用场景和配置规则; 4、了解大数据处理的流计算、分布式文件系统、分布式存储等相关技术; 5、了解容器、虚拟化、微服务框架等相关技术; 6、能接受出差,沟通能力良好,能够独立排查和处理问题。 7、具有ETL相关工具的实施、维护和使用经验或具有阿里云大数据工程师ACP认证证书者优先。