• 12k-15k 经验不限 / 不限
    电商平台 / A轮 / 500-2000人
    工作职责: 1.负责爬虫服务架构设计、研发、爬虫效率的优化,完成数据采集、解析处理、入库及备份等数据日常工作; 2.负责爬虫核心技术研究、开发工作,对反爬虫屏蔽具有相应的应对策略; 任职资格: 1. 本科及以上学历,有2年及以上Python爬虫开发相关经验,理工科优先; 2. 有电商/供应链相关工作经验优先; 3. 熟练掌握python,熟悉mongoDB、redis等数据库,熟练使用linux操作系统; 4. 熟悉正则表达式、xpath等解析工具,了解前端html,css,js等相关知识。 5. 具备一定的js逆向基础。掌握常用爬虫框架(如 requests, scrapy等),有处理反爬的经验; 6. 具有良好的团队协作精神,思维活跃、逻辑严谨。
  • 18k-36k 经验5-10年 / 本科
    人工智能服务 / B轮 / 150-500人
    工作职责: 1. 负责数据采集爬虫项目的开发维护、性能优化等, 2. 以架构思维,确保数据采集架构的扩展性、稳定性 3. 规划数据采集爬虫的技术路线,研究和破解相关平台的反爬措施,保证数据获取的速度和稳定性。 任职条件: 1. 熟练掌握各种爬虫技能,丰富的Java/Python数据采集开发经验,编程基础扎实; 2. 熟悉常见分布式系统架构和设计,熟悉分布式、缓存、消息等机制;能对分布式常用技术进行合理应用,解决问题; 3. 熟悉反爬机制,有安卓逆向 / ios逆向经验的优先
  • 25k-50k 经验3-5年 / 本科
    短视频 / 上市公司 / 2000人以上
    1、面向快手海外不同方向业务(产品、运营、商业化、直播、增长等)提供分析支持; 2、设计科学可靠的业务指标体系,为产品决策和策略迭代提供高质量的数据“指南针”; 3、深入业务,通过科学有效的分析帮助业务揭示增长机会,回答业务的关键战略问题,驱动业务优化迭代; 4、帮助业务设计并评估分析A/B实验,借助实验帮助业务快速迭代优化; 5、基于对业务关键问题的深入思考,规划并开展自主驱动的专题分析,协同业务团队将分析的洞见落地。 你将获得: 1、**项目经历加持:足够宽的业务跨度,研究涉及用户消费相关的方方面面;率先踏入中国互联网行业最新战场,海外业务扩展; 2、自身综合能力的高速提升:可直接与互联网行业经验丰富的产品大神、算法牛人、硅谷数据科学家共事,成长曲线陡峭; 3、加入公司当前重点发展部门,在充分表现自己工作能力的基础上,有更高的转正机会; 4、良好的团队氛围:与来自清北复交、海外名校的小伙伴共同学习成长,跨团队合作,培养沟通技能。 任职要求: 1、拥有统计学、运筹学、计算机等理工科类或商科类相关专业的本科及以上学历; 2、概率统计基础扎实,了解 AB 实验,熟悉 Hive 或 SQL,熟练使用 R/Python/Tableau 等分析工具; 3、具有良好的商业分析能力和商业敏感度,能够快速学习了解业务知识,能够将模糊的商业问题转化为具体的分析课题并解决; 4、出色的逻辑能力和表达能力,自驱、目标导向,善于和业务团队沟通,能够跨部门组织协调,推动问题解决; 加分项: 1、一定的英文听说读写能力,有海外学习经验的应聘者优先; 2、有互联网一线大厂/海外大厂数据分析/商业分析/经营分析相关经验优先; 3、熟悉机器学习,熟悉 AB 系统,有过复杂实验设计&分析的应聘者优先; 4、有丰富的决策支持报告撰写和对管理层汇报经验优先; 5、有短视频、直播、社交媒体等相关行业经验优先。
  • 20k-40k 经验1-3年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、参与执行抖音平台生活服务领域的数据分析项目,为业务决策提供数据支持和洞见; 2、探索和分析业务数据,帮助识别用户产品体验的潜在优化点,并参与制定改进策略,与产品、运营、推荐算法、研发团队合作,辅助实施优化策略,并跟踪其对业务增长的影响; 3、与团队共同设计和分析业务相关的A/B测试,协助评估产品优化效果,进行市场活动分析,并监测关键业务指标的变化; 4、帮助构建和优化数据采集,负责制作和维护数据看板,监测关键数据指标,及时识别和排查数据异动情况,保证数据的准确性和可靠性。 职位要求: 1、本科及以上学位,2-3年数据分析经验,优先考虑拥有生活服务行业背景或数学、统计学、计算机科学等相关专业背景的候选人; 2、对数据具有一定敏感性,能在指导下发现数据与业务间的关联,辅助进行业务建模和定量分析; 3、熟悉SQL,具备基础的R、Python或其他编程语言实践经验。了解基本的机器学习技术(如回归、分类、聚类等)并有实际应用经验者优先。能在团队协助下撰写分析报告; 4、具备良好的沟通能力,能在团队协作环境中有效工作,适应跨部门合作需求。
  • 25k-50k 经验5-10年 / 不限
    工具类产品,内容社区,音频|视频媒体 / 上市公司 / 2000人以上
    岗位职责: 1.参与分布式爬虫系统的设计与开发; 2.负责平台外部数据覆盖,并解决高并发爬取、海量存储等问题; 3.负责监控框架的迭代和改进,维护所需资源池,并探索最新的技术能力。 岗位要求: 1.3年以上爬虫开发经验,熟悉linux平台开发、熟悉各类反爬手段,并具备反爬对应的实际经验或思路; 2.精通Python,熟练使用至少一种开源爬虫框架和请求库、熟练掌握Linux平台开发, 熟悉常用数据库; 3.有海量数据采集系统建设的经验,能自定义CNN训练验证码模型; 4.本科以上学历计算机相关专业,具有良好的沟通协作力。
  • 20k-40k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、深入了解客户业务场景,以及其中的数据分析和应用诉求,指标体系搭建诉求; 2、协助客户搭建各业务部门的指标体系,标签体系,A/B 测试场景等; 3、构建贴合业务场景的指标体系所需要的数据采集方案,制定可落地的持续迭代规范; 4、使用各类数据产品,为客户落地实现需求设计方案; 5、梳理客户的成功案例,形成行业指标体系搭建、数据体系采集、数据分析应用等解决方案,沉淀各业务领域的知识库; 6、熟悉某垂直行业的业务增长框架与分析思路,结合客户访谈信息与数据表现,产出可指导业务优化的数据洞察。 职位要求: 1、3年以上互联网商业化数据分析相关的工作经验; 2、熟练使用统计分析工具,逻辑严谨,能够独立分析和解决问题; 3、具备优秀的沟通及企业服务意识,良好的汇报表达能 力,能够独立负责和推进项目; 4、热爱大数据行业,擅长指标体系搭建,业务场景分析思路建设;具备极强的学习能力和自我驱动意识,能够独立探索并协同解决问题; 5、有用户行为分析,CDP,DSP或DMP相关经验者优先; 6、有金融,零售,教育,电商,游戏相关行业经验者优先; 7、有产品、运营或投放经验者的候选优先。
  • 7k-10k·13薪 经验1-3年 / 本科
    IT技术服务|咨询 / 未融资 / 150-500人
    任职要求: 1、本科,计算机科学、信息管理、数据科学等专业; 2、熟悉数据库管理系统(DBMS)、数据仓库、ETL工具(kettle)等数据管理和数据处理技术; 3、具有一定的数据分析能力,能够使用数据分析工具和编程语言(如SQL、Python、R等)进行数据处理和分析; 4、了解数据治理的基本原则和方法,熟悉数据治理的关键概念和流程; 5、具备良好的沟通和协作能力,问题解决能力; 6、具备持续学习的意愿和能力,能够跟进和适应不断发展的数据治理技术和***实践。 岗位职责: 1、数据采集、清洗和转换; 2、协助数据项目经理,编写数据治理方案; 3、数据分析任务,如基本统计分析、数据关联分析等; 4、使用数据分析工具和编程语言,如SQL、Python或R,编写脚本或查询来提取和处理数据,撰写分析报告; 5、监控和维护数据质量,识别和纠正数据质量问题; 6、收集和维护数据的元数据信息,包括数据来源、定义、格式、用途等。 薪酬福利: 1、薪酬:基本工资、绩效工资、年终奖金、餐费补贴、通讯费补助等; 2、福利:年度季度嘉奖、六险一金、带薪年假、旅游拓展等丰富企业文化活动; 3、假期规定:公司提供按国家标准的有薪假期,法定节假日、年休假、婚假、产假等假期; 4、培训:公司重视员工个人发展,不定期为员工组织内部各项专业技能培训,公费外送培训。 5、员工活动:不定期举行郊游、文娱活动、公司旅游、公司年会等活动; 6、节日慰问:公司在端午节、中秋节、春节等传统重大节日为员工发放节日礼品; 7、办公环境:优雅、干净、整洁的办公环境,轻松、愉快的工作氛围。 8、其他:周末双休,7.5小时/天工作制,食堂、免费班车等。
  • 20k-35k·15薪 经验3-5年 / 本科
    金融 / 不需要融资 / 2000人以上
    职责描述: 1、结合应用场景,设计埋点方案,完善埋点规范,并保证方案长期有效; 2、结合应用场景,设计用户侧、物品侧标签体系,完成数据标签沉淀和用户画像开发、验证,并长期管理; 3、结合应用场景,长期跟踪管理行为平台上埋点数据、交易数据构成的数据资产; 4、对接各业务及经营条线的需求,支持功能型产品经理的数据采集需求及验证,确保埋点采集有效实现,并满足业务诉求、 5、提供精细化客群营销方案、结合生命周期等营销方法论,提供有效的运营策略; 6、识别产品流程中的问题点,协助完成埋点数据的准确性测试; 7、跟进数据相关问题,负责监督抽查数据采集流程,保证埋点数据的准确性。对数据敏感,能够从数据逻辑层面发现数据异常,并推动解决。 任职要求: 1、本科及以上学历,具备经济、金融、市场营销 数学类相关专业背景者优先; 2、具备 3 年及以上工作经验,具有银行、互金平台的数据产品、数据分析、数据治理的相关经验优先; 3、熟悉埋点实施、测试、数据资产管理; 4、曾参与平台型数据体系、报表体系搭建,有较好的业务抽象能力和数据产品设计能力; 5、熟练掌握可视化数据工具如tableau、PowerBI,熟练掌握SQL语言,熟悉Python优先; 6、善于沟通、应变、抗压、分析解决问题,学习能力强。
  • 20k-30k·15薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 500-2000人
    数据分析师 工作职责: 1.构建全面的、准确的、能反映广告业务特征的整体指标体系,并基于业务监控指标体系,及时发现与定位业务问题,发现业务机会点; 2.撰写优化运营日报/周报/月报,建立统计分析模型,深入研究和分析影响业务运作的指标的关键因素; 3.跟踪业务/重点项目的发展变化,对业务发展状态进行监控分析,提出分析建议报告; 4.协助数据产品运营团队,解决日常数据发布以及客户提出的复杂数据问题; 任职资格: 1.良好的数据敏感度,能从海量数据中提炼核心结果,有丰富的数据挖掘、信息采集整理、分析能力; 2.3年以上数据分析相关从业经验,有过互联网广告行业者、财务数据分析优先; 3.责任心强,具备沟通协调和闭环管理、推进能力; 4.熟悉SQL,熟悉数据挖掘的常用算法。
  • 15k-25k·15薪 经验3-5年 / 本科
    其他,金融 / 不需要融资 / 2000人以上
    岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等;    技能要求: 1.计算机相关专业本科及以上学历 ;  2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构;  4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
  • 19k-30k·15薪 经验3-5年 / 本科
    游戏 / 不需要融资 / 150-500人
    岗位职责: 1、负责公司数据系统(采集/加工/调度等)建设,承担相关服务、平台的研发、集成和运维工作。 2、保障应用系统稳定可靠,熟练运用合适技术对复杂场景做出合理技术设计,保障和提升相关系统的性能和稳定性。 3、工作范围涉及包括但不限于:分布式任务调度系统,数据采集系统,数据加工处理平台,数据应用服务等领域。 4、参与各专项技术调研,新技术引入等前瞻项目。 任职要求: 1、计算机相关专业,本科及以上学历,具有2年以上python开发相关工作经验。 2、拥有扎实的计算机基础和代码能力,具备良好的编码习惯,熟悉python主流框架。 3、有优秀的问题分析能力,能快速定位并解决系统问题。 4、具备良好的理解能力,能快速理解业务背景,具有良好的团队沟通与协作能力。
  • 消费生活 / 上市公司 / 2000人以上
    美团的使命是“帮大家吃得更好,生活更好”,公司聚焦“零售 + 科技”战略,和广大商户与各类合作伙伴一起,努力为消费者提供品质生活,推动商品零售和服务零售在需求侧和供给侧的数字化转型。 2018年9月20日,美团正式在港交所挂牌上市。美团将始终坚持以客户为中心,不断加大在科技研发方面的投入,更好承担社会责任,更多创造社会价值,与广大合作伙伴一起发展共赢。 岗位职责 1.运用Spark、Flink等数据开发工具进行画像数据的开发,并不断提升整个链路的时效性和性能; 2.结合服务侧使用场景,调研存储介质和数据组织形式,优化数据生产策略,提升在线服务的性能; 3.保障系统迭代质量,推动技术能力的沉淀。 岗位基本需求 1.本科或以上学历,计算机相关专业,有扎实的数据结构和算法能力; 2.熟练掌握Java、Scala、Python其中一种或多种编程语言、扎实的软件工程基本功和强悍的编码能力; 3.有数据领域工作经验,熟练使用Hive,Spark,Flink等数据离线和实时计算相关框架,深入理解Tair,ES、Doris等存储引擎; 4.自驱力强,具有很强的适应力和新技术学习能力,能够全局性的思考问题并驱动想法落地。 具备以下者优先 1.有平台型系统建设经验优先; 2.有画像数据生产、画像服务建设经验者优先。 岗位亮点 1.有机会参与建设全公司统一的画像数据和服务,业务场景丰富,服务于全公司各个业务线的营销、搜索推荐、广告投放、消息推送、风控、预测等多种场景; 2.具有极强的技术挑战,TB级数据量,汇集全公司数十亿用户的近万画像标签,离线数据小时级别的生产和更新,实时数据亚秒级更新。
  • 30k-45k·14薪 经验5-10年 / 本科
    移动互联网,广告营销 / 上市公司 / 2000人以上
    工作职责: 负责搜狐视频商业化的数据平台建设工作,包括: 1.负责数据平台、数据治理系统设计与搭建; 2.负责数据仓库建设、ETL开发、工作流任务优化以及解决相关技术问题; 3.负责行为日志、推荐策略和商业广告数据业务需求对接、数据分析与任务开发。 职位要求: 1.**本科及以上学历,计算机或相关专业优先;3年以上大数据开发、数据分析与处理经验,熟悉互联网产品运营和商业业务; 2.精通Scala/Java语言开发,熟悉Shell、Python等脚本开发,熟悉Linux系统; 3.熟悉大数据生态,精通Hadoop、Kafka、Spark、Flink技术,完成离线或实时大数据仓库设计与开发; 4.掌握数据建模理论,精通SQL开发与性能调优,熟练使用Hive、Doris等数据库组件; 5.有大型数据平台实际建设经验,在数据采集、数据开发、数据分析、数据建模等方面有深刻认识和实践经验; 6.有复杂业务系统的抽象设计能力,能独立对接业务需求和解决业务与技术问题; 7.具有良好的逻辑思维、表达和沟通能力,具备良好的团队合作精神,有较强的承压能力和工作责任心。
  • 18k-25k·15薪 经验3-5年 / 本科
    社交媒体 / 上市公司 / 2000人以上
    工作内容: 1、了解行业及竞品动态,结合公司及部门战略,定期对业务相关数据进行分析解读,挖掘业务问题和增长路径机会; 2、基于业务场景及目标进行数据需求分析、归因、模型,为业务增长策略提供依据;制定业务增长目标,监控并报告关键指标的变化和趋势; 3、深入业务,挖掘数据需求共性,产出专项问题分析,并沉淀分析方法; 工作要求: 1、了解文娱行业及业务逻辑,能够通过大量业务数据进行处理和分析,对关键问题进行归因; 2、对行业动态有敏感度,结合内外部数据挖掘数据增长机会,并推进验证; 3、具有结构化思考能力,ppt写的好可加分。
  • 25k-35k 经验3-5年 / 本科
    金融 / 未融资 / 500-2000人
    工作职责 1.本科以上学历。 2.具有3年以上中大型系统的研发和架构经验,扎实的Java基础,熟悉后端编程语言 3.具有高并发,微服务架构、多线程开发经验,具备良好的识别和抽象设计成通用框架及模块的能力 4.具有数据类应用产品开发经验者优先 5.具有保险领域从业经验,门户系统开发经验者优先 6.具有开发经验者优先 任职要求 1. 负责各类数据应用、算法工程化的项目落地,包括决策引擎、数据可视化与服务平台、各类数据及AI产品服务等,能够独立承接项目并进行良好的系统设计和代码实现; 2. 负责持续优化应用架构,提升算法工程效率,提高系统在高并发高流量环境下的容错能力,保证系统的高可用性; 3. 深入理解业务需求,理解关键问题和决策,对所负责的领域系统给出专业合理方案,促进高效达成。
展开