-
职位职责: 1、负责保护公司电商平台的数据安全,防范和打击爬虫及其他恶意行为,研究和掌握最新的反爬虫技术,制定和实施有效的反爬虫策略; 2、深入了解上下游业务形态,可独立发起治理专项,快速定位问题并形成落地策略及效果评估闭环; 3、分析和调查电商平台上的异常流量和可疑活动,从海量设备、行为数据中发掘有价值的信息; 4、可协助进行建模工作,如特征分析、数据可视化呈现等,为团队决策提供数据支持; 5、与产品研发团队高效合作,优化技术架构和端上安全能力,建立端管云三位一体的反爬体系,量化防控效果,驱动反爬能力的不断提高。 职位要求: 1、计算机、信息安全、统计、数学等相关专业; 2、反爬相关经验,具备网络安全、数据保护和风险管理方面的专业知识,有电商经验者优先; 3、熟练掌握SQL、Python等编程语言,具有扎实的数据分析能力及学习能力; 4、深入了解常见的爬虫技术和工具,具有丰富的反爬虫经验,熟悉Web安全、网络协议、漏洞扫描等相关技术; 5、具有较强的问题解决能力,能够快速分析和处理安全事件,具备良好的团队合作精神和沟通能力。
-
职位职责: 1、负责保护公司电商平台的数据安全,防范和打击爬虫及其他恶意行为,研究和掌握最新的反爬虫技术,制定和实施有效的反爬虫策略; 2、深入了解上下游业务形态,可独立发起治理专项,快速定位问题并形成落地策略及效果评估闭环; 3、分析和调查电商平台上的异常流量和可疑活动,从海量设备、行为数据中发掘有价值的信息; 4、可协助进行建模工作,如特征分析、数据可视化呈现等,为团队决策提供数据支持; 5、与产品研发团队高效合作,优化技术架构和端上安全能力,建立端管云三位一体的反爬体系,量化防控效果,驱动反爬能力的不断提高。 职位要求: 1、计算机、信息安全、统计、数学等相关专业; 2、反爬相关经验,具备网络安全、数据保护和风险管理方面的专业知识,有电商经验者优先; 3、熟练掌握SQL、Python等编程语言,具有扎实的数据分析能力及学习能力; 4、深入了解常见的爬虫技术和工具,具有丰富的反爬虫经验,熟悉Web安全、网络协议、漏洞扫描等相关技术; 5、具有较强的问题解决能力,能够快速分析和处理安全事件,具备良好的团队合作精神和沟通能力。
-
25k-40k·14薪 经验5-10年 / 本科软件服务|咨询 / B轮 / 150-500人if (your_passions.includes(‘coding’)) { switch(your_stacks) { case ‘Typescript’: case ‘React’: case ‘Node.js’: case ‘micro frontend’: case ‘headless’: console.log(‘Join AfterShip’); break; } } 岗位职责 1、负责开发电商 SaaS 工具的前端和产品交互功能,包括评论管理工具等产品功能模块,以及前端性能优化等; 2、主导前端相关的需求分析、方案设计、任务拆解、开发与测试全过程,对交付质量负责; 3、负责 BFF、渲染服务等 Node.js 中间层的开发和维护,保证性能和稳定性; 4、负责编写相关的技术文档。 岗位要求 1、本科及以上学历,英语读写熟练; 2、有 4 年及以上前端开发经验,精通 React 及相关脚手架,能够独立完成复杂业务项目的开发; 3、熟悉 TypeScript、Node.js、GraphQL 等技术,关注前端领域的技术发展与最佳实践; 4、具备良好的沟通能力、跨团队协作能力; 5、具备良好的编程规范意识与安全意识,能编写可维护、符合安全最佳实践的代码; 6、关注 AI 相关技术的前沿进展,使用 AI 辅助编程有实践经验。 加分项 1、有写 Blog 的习惯,活跃技术社区,参与开源项目等; 2、有代码洁癖,对代码精益求精,对技术有极客热情。 为什么加入我们 1、朝阳行业:国际电商 SaaS 服务赛道,国际一线投资机构加持; 2、稳健发展:团队稳健扩张,业务规模及营收每年持续稳健增长; 3、多元文化:团队来自全球 20 多个不同城市,国际化视角、扁平化管理; 4、极客氛围:拥抱开源技术,实践敏捷开发,崇尚通过工具和自动化来解决问题; 5、特色福利:AI 学习基金、 一对一帮带、内部商城、提供 MacBook 及可升降办公桌。
-
工作职责: 负责设计、开发和维护高效、稳定的数据爬虫系统; 根据业务需求,制定数据抓取策略,处理反爬机制、验证码识别、IP代理等问题; 建立数据清洗、结构化处理及存储流程,保证数据质量; 持续优化爬虫性能,提升抓取速度与稳定性; 与数据分析、产品等团队紧密协作,理解数据需求,快速响应数据抓取任务; 关注行业动态,研究新的爬取技术和反爬手段,持续提升系统能力。 任职要求: 熟练掌握至少一种编程语言(Python优先,如:Scrapy、Selenium、Playwright、Requests 等常用库); 熟悉常见网站结构、前端技术(HTML、CSS、JavaScript),能够快速分析网页数据; 熟悉常用的反爬技术及应对手段(如IP代理池、UA池、验证码识别、动态渲染处理等); 熟悉异步爬虫、分布式爬虫开发,有 Scrapy-Redis / Playwright + 分布式实践经验者优先; 熟悉常用数据库(如MySQL、MongoDB)及缓存系统(如Redis); 有大型数据采集、数据清洗、数据处理项目经验优先; 具备良好的编码习惯和文档意识,责任心强,乐于学习新技术。 加分项: 有 GraphQL 接口抓取、WebSocket 抓取、APP 抓包分析经验; 有云原生(如 Kubernetes、Docker)、大数据(如Spark、Kafka)相关技术栈经验; 有参与过爬虫平台化、数据中台建设项目经验; 有算法基础,了解简单的图像识别(如验证码OCR识别)优先。
-
岗位职责: 1、解决各类反爬问题,如JS混淆逆向、APP逆向、字体加密、极验验证码、瑞数等以及采集其它疑难杂症; 2、负责相关爬虫相关技术调研与应用,包括但不限于web/app的数据采集; 3、维护采集平台中站点的稳定采集; 4、开发和维护爬虫脚本和数据处理接口,确保系统稳定运行; 5、协助团队解决爬虫相关技术问题,完成上级安排的其他任务; 任职要求: 1、本科及以上学历,计算机相关专业; 2、3年以上大规模网页爬虫项目经验,2年以上Python开发经验,熟练掌握爬虫底层框架,如scrapy、scrapy-redis、feapder,阅读过如Scrapy-redis等底层代码实现,能够进行改写; 3、精通HTTP/HTTPS协议,能熟练使用Charles、Fiddler等抓包工具分析请求; 4、能够解决封账号、封IP、JS加密、JS混淆逆向、极验验证码、瑞数等采集等问题,具备较强的反爬能力,具备较强的提升爬虫效率的意识; 5、熟练掌握Redis及MongoDB等非关系型数据库,MySQL等关系型数据库的使用; 6、熟悉多种数据提取方法,能灵活运用JsonPath、XPath、CSS选择器和正则表达式;了解ES,Kibana; 7、熟悉HTTP/HTTPS和TCP/UDP协议以及数据抓包和分析、熟悉Linux系统和shell多线程编程; 8、优秀的分析问题和解决问题的能力、思维清晰,对解决具有挑战性问题充满激情,有极强的责任心。
-
【任职要求】 1、熟悉html/css/xpath/ajax/xml等技术,熟悉HTTP传输协议,精通网页抓取原理和整合技术,熟悉正则表达式; 2、熟悉基于COOKIE等网站登录原理,JS逆向; 3、精通Python,熟悉django框架 4、熟悉MySQL 5、熟悉linux系统环境、命令,shell、python脚本编写 6、熟悉fiddler抓包工具的使用 7、熟悉Git版本管理工具 【教育背景及从业经验】 1、计算机相关专业,大学专科及以上; 2、一年以上python开发经验,三个以上爬虫项目经验 【加分项】 善于以用户场景视角,理解功能需求。 【公司项目介绍】 自主研发车险管理ToB SaaS平台,商用10年,在车险垂直领域市场占有率高。 新人入职,一对一技术培训。 【福利】 国家规定的所有带薪假期;社保五险;零食;年度旅游;地铁口; 【上班时间】 早9晚6,双休
-
工作内容: 1、通过编写新的爬虫脚本、通过修复已有爬虫脚本对网站数据进行爬取采集 2、对爬取的速度、质量负责。 3、对爬取回来的数据进行清洗(去重、缺失值、空值、乱码异常值等处理),并且进行数据存储 工作要求: 1、会使用爬虫、能独立编写爬虫脚本爬取数据 2、能够解决爬取数据过程中的反爬机制(JS逆向、验证码、封IP等) 3、能够处理千万级以上数据,保证处理存储的有效性(速度+质量) 4、能接受应届生、勤奋好学、吃苦耐劳
-
负责为海外音乐项目搜索采集数据,为团队的海外运营提供决策支持(自有项目,非乙方)。 岗位职责∣Responsibilities: 1、熟练掌握Python,熟悉Linux开发环境; 2、负责设计和开发爬虫,精通海外网页(Youtube、Spotify、Google...)抓取原理及技术,从各种web页面、APP中获取目标信息; 3、负责爬虫团队的日常工作安排及管理。 4、解决技术疑难问题,包括各种反爬、压力控制等,提升网页抓取的效率和质量。有能力解决封账号、封IP、验证码识别、图像识别等问题,有能力解决复杂的反爬限制; 5、大规模爬虫系统的设计、数据REST API的设计、开发、维护、调优,第三方数据源的对接、预处理、入库; 6、分析结构化和非结构化数据,并对数据抓取、信息提取、去重、清洗;不限于使用代码规则类进行数据清理; 7、开发代码的维护更新,Linux服务器的维护,文档维护; 8、支持部门数据需求,包括但不限于搜索数据来源、数据清洗、数据挖掘、为团队提供决策支持; 履职要求∣Requirements: 1、大学本科及以上学历,计算机相关专业; 2、耐心、细心,有较强的逻辑思考能力,和良好的工作习惯。 3、有5-10年的爬虫、数据处理、数据分析经验; 有团队管理经验;有音乐行业经验优先; 4、掌握HTML,JS,及熟悉JS反扒破解;熟悉常见的反爬虫技术如文本混淆反爬虫、验证码等; 5、熟练掌握Python数据结构与常用算法;熟悉scrapy等爬虫框架,有scrapy-redis分布式爬虫经验;熟悉正则、xpath等提取方法; 6、了解pandas、numpy掌握网络爬虫开发原理,熟悉互联网各种类型数据交互模式; 7、熟悉MySQL部署、开发与维护; 8、熟悉Linux环境,使用脚本开发维护Linux服务器; 9、具有良好的表达能力,团队合作能力;具有很强的责任心,乐于挑战,有较强的深入学习理解业务的意愿。
-
工作职责: 1.使用爬虫技术采集指定的互联网数据 2.对采集的数据进行清洗治理 3.根据项目需求导指定的项目数据 4.维护采集框架平台,维护采集脚本 5.根据公司内部的需求编写一些数据处理小工具 任职要求: 1.本科以上学历,3年以上相关工作经验; 2.计算机相关专业 3.精通Python语言,熟练掌握主流爬虫框架中的一种;熟悉常用的库requests/gevent等; 4.了解各种加密算法,能够独立解决js反爬和模拟登陆问题; 5.熟练掌握正则表达式、XPath、CSS等网页信息抽取技术; 6. 熟悉常见反爬机制,验证码识别,IP代理池、应用Ip池、headers认证和cookie等; 7. 熟练使用应用Selenium实施动态抓取; 8.熟悉熟练使用charles、fiddler等抓包工具者优先; 9. 熟悉数据清洗,能够用numpy、pandas、jieba等工具对数据进行处理者优先; 10.熟练使用sqlserver、mysql、mongodb、redis; 11.熟悉掌握rabbitMQ、kafka、spark 优先; 12.具有DBA工作经验者优先; 13.具有团队精神、积极的工作态度和对工作的责任心,有一定的稳定性。
-
base南京或苏州 职位描述: 1、负责爬虫功能的维护,各类爬虫脚本及组件的维护及升级 2、负责各类业务数据的清洗、统计、分析等相关工作 3、负责平台数据运营及数据质量的控,并配合业务人员进行数据提取、分析与验证 任职资格: 1、***本科以上学历,计算机及相关专业; 2、熟练掌握Python语言,熟练掌握JS语言、有APP数据采集经验者优先; 3、精通数据采集技术,熟悉各类反爬措施及应对策略,熟悉HTTP底层协议; 4、对数据敏感、熟悉数据分类,能结合业务目标独立对数据进行分析处理; 5、良好的数据处理能力,熟练使用pandas、numpy,有数据分析、数据挖掘经验者优先; 6、良好的编码能力,工作认真细致踏实,逻辑思维缜密,善于分析问题,具备良好的沟通交流能力。
-
岗位职责 ● 根据业务需求开发网页爬虫 ● 对爬取的数据进行标注与清洗 ● 负责爬虫项目的部署与运维 任职要求 1. 技术能力 ● 熟练掌握 Python/PHP,具备扎实的编程基础与数据结构知识 ● 熟悉 HTTP/HTTPS 协议、TCP/IP 网络模型,能使用抓包工具(如 Charles、Fiddler)分析请求 ● 熟悉 PostgreSQL/Mysql 数据库开发,掌握 SQL 优化与索引设计 ● 熟悉 Scrapy、Selenium、Playwright 等框架,了解分布式爬虫框架(如 Scrapy-Redis) 2. 经验要求 ● 1 年以上爬虫开发经验,有海外社媒类数据抓取项目经验者优先 3. 其他要求 ● ***本科及以上学历 ● 通过 CET-4 或以上英语等级认证 加分项 ● 了解前端技术(HTML/CSS/JavaScript),能逆向分析动态渲染页面 ● 熟悉常见反爬措施(如 JS 混淆、验证码识别、IP 限频),具备实战对抗经验
-
岗位职责 ● 根据业务需求开发网页爬虫 ● 对爬取的数据进行标注与清洗 ● 负责爬虫项目的部署与运维 任职要求 1. 技术能力 ● 熟练掌握 Python/PHP,具备扎实的编程基础与数据结构知识 ● 熟悉 HTTP/HTTPS 协议、TCP/IP 网络模型,能使用抓包工具(如 Charles、Fiddler)分析请求 ● 熟悉 PostgreSQL/Mysql 数据库开发,掌握 SQL 优化与索引设计 ● 熟悉 Scrapy、Selenium、Playwright 等框架,了解分布式爬虫框架(如 Scrapy-Redis) 2. 经验要求 ● 1 年以上爬虫开发经验,有海外社媒类数据抓取项目经验者优先 3. 其他要求 ● ***本科及以上学历 ● 通过 CET-4 或以上英语等级认证 加分项 ● 了解前端技术(HTML/CSS/JavaScript),能逆向分析动态渲染页面 ● 熟悉常见反爬措施(如 JS 混淆、验证码识别、IP 限频),具备实战对抗经验
-
工作职责: 1、数据源管理:负责公司数据源的发现、评估、接入、分类和维护工作,建立数据源档案。进行市场数据源的调研、收集和测试,拓展获取渠道。 2、爬虫开发配置:在采集系统中使用Groovy等脚本语言编写网络爬虫脚本,实现数据源采集。 3、任务运维:负责爬虫任务的日常监控、维护和故障排查,确保数据采集的及时性和准确性。 4、文档编写:撰写数据采集流程、配置模板文档和运维手册。 任职要求: 1、熟悉网页前端技术(HTML/CSS/JavaScript),能使用开发者工具进行元素定位和数据提取。 2、具备Groovy等脚本语言的编写能力,熟悉WebMagic爬虫框架,能够进行任务配置和自动化。 3、了解HTTP/HTTPS协议的基本原理。 4、积极好学,有自驱力,对数据和技术有好奇心,主动学习并解决问题。 5、责任心强,对源数据质量和任务稳定性负责。 6、具备良好的沟通能力,能与其他团队有效协作。 加分项: 1、有数据中心、大数据或数据中台相关业务经验,理解数据采集在业务中的价值。 2、接触过常用的数据采集平台或调度系统,有实际的网络爬虫项目经验。 3、熟练掌握正则表达式、XPath、JSON等数据解析方法。
-
【职位描述】 1. 负责设计开发针对主流海外电商平台的大规模数据采集系统,支持商品信息、价格监控、竞品分析等业务需求。 2. 构建和维护分布式浏览器集群,实现千级并发的稳定数据抓取,处理复杂的SPA应用和动态内容渲染。 3. 研究海外电商平台的反爬机制(如Cloudflare、PerimeterX、DataDome),制定针对性的反反爬策略,包括设备指纹伪造、TLS指纹处理、行为模拟等。 4. 确保数据采集符合GDPR、CCPA等国际数据保**规,处理多语言、多货币、多时区的复杂数据场景。 5. 优化浏览器资源使用,实现成本可控的大规模部署,包括资源池管理、任务调度优化、异常恢复机制等。 【任职要求】 1. 3年以上海外电商爬虫经验,具备至少5个主流海外电商平台的数据采集项目经验,深度了解各平台的技术架构和反爬策略。 2. 大规模浏览器自动化经验:有管理500+浏览器实例的实战经验,熟练掌握Playwright、Puppeteer、Selenium Grid等工具的集群化部署。 3. 精通现代反爬对抗技术:浏览器指纹伪造(Canvas、WebGL、Audio等)、TLS/JA3指纹处理和规避、验证码自动化处理(reCAPTCHA、hCaptcha、Funcaptcha)、WAF绕过策略(Cloudflare 5s盾、BotFight Mode)。 4. 编程语言:精通Python,熟悉JavaScript/TypeScript(用于浏览器脚本开发)。 5. 框架和工具:熟练使用浏览器自动化框架(Playwright、Puppeteer、Selenium 4.0+)、代理管理(住宅代理、数据中心代理轮换策略)、容器化部署(Docker、Kubernetes环境下的浏览器集群管理)。 6. 分布式系统经验:熟悉Redis、RabbitMQ、Kafka等中间件,有构建分布式任务调度系统经验。 7. 独立完成过至少3个海外电商大型项目,单项目日均数据量100万+条,涉及多平台、多地区的复杂数据采集需求。 8. 成本控制能力:有控制单条数据采集成本的实战经验,熟悉云服务器成本优化策略。 【加分项】 1. 移动端数据采集:Android/iOS App数据采集经验,熟悉Frida、Xposed等Hook技术。 2. 协议层面突破:GraphQL API逆向分析、gRPC/protobuf协议解析、WebSocket实时数据采集。 3. AI辅助技术:机器学习模型应用于验证码识别、异常检测和自动化问题诊断、智能化反爬策略调整。 4. 海外电商业务理解:熟悉跨境电商运营模式、了解各平台的商业规则和数据价值点。
-
一、 岗位职责 1、负责爬虫和数据采集系统的维护与开发,包括内外大型电商平台信息爬取和页面内容的提取分析; 2、负责定期爬取指定网站的数据,完成关键信息的数据抽取、清洗、去重、分析,并转换成业务需求所需要的格式; 3、负责爬虫相关技术的研究和实现工作,比如APP破解、小程序破解、分布式爬虫、验证码破解、JS逆向反爬机制的研究等; 4、负责公司爬虫的核心算法以及策略优化,熟悉数据采集系统的调度策略; 5、设计爬虫策略和防屏蔽规则,提升网页抓取的效率和质量; 6、负责现有部分爬虫的完善、维护工作,实时监控爬虫的进度和警报反馈,提升爬虫系统稳定性、可扩展性、实用性。 二、岗位要求 1、 有3年以上大型平台及海量数据的爬取经验,例如* 聘、*宝、*东、易贝、亚马逊等,能独立完成爬虫任务; 2、 精通Mysql,Redis,常见的算法与数据结构,具有优秀的逻辑思维能力和扎实的计算机基础和编程能力,有过数据库调优和海量数据存储经验优先; 3、本科及以上学历,计算机或相关专业; 4、熟悉HTTP、HTTPS原理,理解Cookie机制,能够进行请求抓包; 5、熟悉常见的反爬机制,并对反爬具有一定的应对措施策略且有一定研究; 6、熟悉APP逆向、JS逆向、验证码破解、图像识别等技术;熟悉常用网络协议、数据存储和数据处理技术; 7、熟悉linux系统环境、命令,shell、python脚本编写。
热门职位


