• 12k-20k 经验1-3年 / 本科
    游戏 / A轮 / 50-150人
    岗位职责: 1. 负责爬虫业务线的开发迭代,完成多平台信息和页面内容、接口的抓取工作; 2. 负责信息数据的抽取、清洗、整理等工作; 3. 负责爬虫系统的优化,监控和报警,提高爬虫脚本的稳定性和抓取效率。 任职要求: 1. 本科及以上学历,2年以上独立Python爬虫开发经验; 2. 熟练使用bs、re、xpath、jsonpath等数据提取模块; 3. 熟悉 Scrapy、 selenium / pyppeteer 等常用爬虫框架,熟悉反爬策略与应对方案; 4. 熟悉Linux开发环境,熟悉 MySql / Mongodb / Redis的基本原理,有数据清洗经验的优先; 5. 有django、flask、tornado等web框架(之一即可)的使用经验,有web项目经验的优先; 6. 有良好的沟通能力、理解能力、细节把控能力、多任务并行处理能力; 7. 有责任心,能够积极主动的发现和解决问题,化解风险。 如果您成为我公司员工,您将获得: 薪资:中电博亚将为员工提供行业内有竞争力的薪酬,确保优秀员工获得更多的认可和激励; 奖金:优秀的您将共享公司的经营业绩,奖金额度与公司年度收益及个人绩效挂钩; 基本保障福利:公司按照国家规定为员工缴纳社会保险及公积金(五险一金); 额外补充福利:餐补、车补等日常津贴,下午茶零食咖啡无限量供应; 休假:相对弹性工作制;每周双休;除国家规定的法定节假日外,将给予额外的带薪年假和带薪病假。 我们虽然独树一帜,却并不冰冷; 我们虽然行事严谨,却并不死板; 我们不害怕年轻,只害怕创意枯竭; 我们不害怕失败,只害怕止步不前; 我们喜欢朝气蓬勃的你,一起用对游戏的热爱一起创造辉煌; 我们喜欢无所畏惧的你,前人没有走过的路就让我们来开辟; 那个关于游戏的梦想,你还记得吗? 我们期待你的加入!
  • 15k-30k·14薪 经验不限 / 不限
    新零售 / 不需要融资 / 500-2000人
    岗位职责: 1. 负责原有采集程序维护 2. 针对新的数据需求进行平**控调研以及采集策略制定 3. 能够完善现有采集系统,有进行数据可视化呈现的经验 4. 能够不断精进应对风控的采集技能。 岗位要求: 1. 熟悉python,js编程,熟悉安卓、ios开发流程更佳。 2. 有过硬的web端逆向能力,有过市面上常见的验证码对抗经验。 3. 掌握常见的python爬虫框架如scrapy等 4. 掌握常见的数据库(redis,mysql,hive,impala等) 3. 有国内电商相关数据采集经验,熟悉国内各电商平台业务逻辑。
  • 30k-55k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、为字节跳动抖音、电商等业务线的反爬效果和指标负责,解决业务痛点问题; 2、提升业务风险感知能力,结合具体场景,数据指标,主动发现问题并提出解决方案,对业务风控效果负责; 3、推动智能化产品落地,不断提升平台化能力,提高风控效率; 4、研究新的产品动向和前瞻探索,借鉴业界的新思路持续优化产品策略,使反爬处于行业领先水平。 职位要求: 1、本科及以上学历,责任心强,思维逻辑严谨,对数据敏感; 2、有大型互联网公司风控策略制定经验,从事过反爬虫、流量反作弊方向工作; 3、有互联网行业安全策略管理经验,包括但不限于风险发现、制定模型或策略、推动方案落地; 4、1年以上策略产品或数据分析工作经验;熟练掌握大数据分析工具使用,不限于sql/pyspark/flink等(加分项); 5、具备攻防思维,熟练掌握常见的反爬虫技术和数据安全风险(加分项)。
  • 8k-10k 经验3-5年 / 本科
    医疗丨健康 / 上市公司 / 150-500人
    工作内容: 1.APP、网站数据爬取 2.数据分析 3.数学模型 4.建立数据清洗流程 任职要求: 1.技术扎实,必须本科计算机系或相关以上 2.擅长Python,了解分布式,多线程,正则表达式(regex) 3.自主学习能力,对各种新技术有热情,领导潜力 4.有独立完成完整APP项目的经验者会优先考虑
  • 7k-12k 经验不限 / 本科
    物联网 / 未融资 / 15-50人
    1、负责爬取HTML页面所需数据,并对数据进行清洗、解析、归档、输出等; 2、负责设计和开发分布式的网络爬虫,数据的采集与爬取、调度、监控、自动化运行等; 3、负责实时监控爬虫的进度和警报反馈,提升爬虫系统稳定性、可扩展性。  4、负责js渲染抓取,反爬虫策略研究,验证码识别等采集支撑服务建设;  5、参与公司业务平台的数据的挖掘和分析,协助进行产品改进。 任职资格 1. 本科以上,计算机或相关专业毕业,扎实的Python基础,熟悉多线程编程环境,熟悉常见开源框架; 2、熟悉基于正则表达式、XPath、CssSelector、beautifulsoup等网页信息解析技术; 3、熟悉Scrapy、feapder等主流爬虫框架框架,能够解决封账号、封IP、验证码、网页限制爬取等问题,且有实际经验; 4、熟悉常见的反爬机制,并对反爬具有一定的应对措施策略且有一定研究,如协议破解、模拟点击等;  5、熟悉代理IP池、Headers认证和Cookie等;
  • 13k-17k 经验3-5年 / 大专
    社交 / 不需要融资 / 50-150人
    一、任职要求(并不表示部分条件未达到则一定不会聘用): 1.熟练使用Python标准库和流行的第三方库,精通Python语言; 2.熟悉以下主流服务器端开源系统或者其中一部分:Redis/MongoDB/RabbitMQ/Memcache/Nginx; 3.熟悉JAVA或想转型Python者优先; 4.熟悉RESTful web service规范、熟悉面向对象的设计思想; 5.熟悉mysql的各种存储引擎,熟悉索引工作原理,有丰富的mysql性能优化经验; 6.重视Code Review,知道良好的编程习惯的标准,对代码和设计质量有严格要求; 7.熟悉Tornado/Flask/Gevent/Django等常用开发框架,至少有其中一个的最佳实践或深入研究过其源码及机制; 二、岗位职责 1.开发自动点击谷歌浏览器插件按钮; 2.收集用户信息;
  • 15k-23k 经验3-5年 / 大专
    社交 / 不需要融资 / 50-150人
    一、任职要求(并不表示部分条件未达到则一定不会聘用): 1.熟练使用Python标准库和流行的第三方库,精通Python语言; 2.熟悉以下主流服务器端开源系统或者其中一部分:Redis/MongoDB/RabbitMQ/Memcache/Nginx; 3.熟悉JAVA或想转型Python者优先; 4.熟悉RESTful web service规范、熟悉面向对象的设计思想; 5.熟悉mysql的各种存储引擎,熟悉索引工作原理,有丰富的mysql性能优化经验; 6.重视Code Review,知道良好的编程习惯的标准,对代码和设计质量有严格要求; 7.熟悉Tornado/Flask/Gevent/Django等常用开发框架,至少有其中一个的最佳实践或深入研究过其源码及机制; 二、岗位职责 1.开发自动点击谷歌浏览器插件按钮; 2.收集用户信息;
  • 6k-8k 经验1-3年 / 本科
    企业服务 / 不需要融资 / 50-150人
    岗位职责: 1、负责产品数据的抓取,并动态监控网站; 2、负责数据抓取的性能优化; 3、负责数据的规范化分析和开发工作。 任职要求: 1、2年及以上数据爬虫相关工作经验优先; 2、熟悉Django、Flask、WebPy、Tornado等其中一种; 3、熟悉Mysql、Redis、Mongo等常
  • 10k-12k·13薪 经验1-3年 / 大专
    信息安全 / 上市公司 / 50-150人
    工作内容: 1. 负责数据抓取平台规划和建设,完成数据采集与爬取、解析处理和入库; 2. 负责用python语言实现产品的后端研发; 3. 负责高质量的设计和编码; 4. 承担重难点技术攻坚任务; 5. 参与产品的讨论和开发实现; 岗位要求: 1. 二年以上工作经验良好的计算机基础知识,熟悉常用的数据结构和算法; 2. 能运用python进行各类数据处理,熟悉pandas、numpy等常用python数据处理包,有机器学习相关经验优先; 3. 熟悉python后台开发,有完整的项目开发经验,熟练使用Django或flask框架, 熟悉Restful设计规范; 4. 熟悉Windows及Linux下python的安装、部署及调试以及Docker部署; 5. 熟悉MySQL、SQL 和主流NoSQL数据库 6. 对项目安全性问题和并发问题有一定理解和相应的解决方法 7. 有良好的沟通能力,团队协作能力,对新技术敏感,有良好的代码习惯,结构清晰,命名规范,熟悉设计模式,随时贯彻最优开发思想。
  • 10k-13k 经验不限 / 本科
    数据服务、人工智能 / 未融资 / 150-500人
    (该岗位为外包岗位,优秀者入职后可转为正式员工) 职责描述: 1、负责网络爬虫,数据采集清洗等研发工作 2、负责对爬虫平台架构进行改造和优化 3、定期爬取指定数据,为业务部门提供数据支持。 技能要求: 1、会JS补环境; 2、会训练及协议过国内主流厂家的滑块,图标/文字点选验证码; 3、会使用docker容器; 4、计算机相关专业本科以上学历; 5、熟练的编程能力,熟悉数据结构;熟悉计算机网络的基础理论; 6、熟练的Python编程基础,熟练使用scrapy或feapder等爬虫框架;熟悉分布式爬虫;熟悉XPath等常用页面解析技术; 7、熟悉puppeteer等自动化工具的使用; 8、熟悉postgresql,mongodb等关系型或非关系型数据库; 9、熟悉kafka、redis等消息中间件/缓存的使用优先考虑;
  • 5k-10k 经验在校/应届 / 本科
    IT技术服务|咨询 / 不需要融资 / 50-150人
    工作职责: 1.负责规划、设计和开发爬虫相关系统,进行多平台多终端信息的抓取和分析。 2.基于抓取系统的数据抓取、清洗等设计开发。 3.配合业务线,完成实时数据与离线数据的爬取与对接。 任职要求: 1.精通Python语言\MYSQL,熟练使用常用模块,使用过Flask web框架; 2.能够解决封账号、封IP采集等问题,解决网页抓取、信息抽取等问题 3.熟悉爬虫工作原理,深入了HTTP协议内容 4.至少了解一种主流爬虫框架的架构及原理,有具体工程经验,如 scrapy / pyspider等 5.了解基于Cookie的登录原理,熟悉常用的信息抽取技术,如正则表达式、XPath等 6.对常见各类反爬方式(如账号/IP封禁、验证码、js混淆加密、滑块验证、数据混淆等)有一定解决经验
  • 10k-15k 经验3-5年 / 本科
    移动互联网,金融 / 不需要融资 / 150-500人
    岗位职责: 1、负责设计和开发分布式网络采集系统,各个渠道的财经信息,包括web端和app端的数据抓取和分析; 2、设计爬虫策略和防屏蔽规则,提升抓取的效率和质量; 3、负责爬虫逻辑的开发,快速响应业务变动。 岗位要求: 1、具有3年以上爬虫开发经验,熟悉常用的爬虫框架; 2、对模拟请求、浏览器模拟、人机对抗、App逆向、ast解混淆等采集方案有深入研究; 3、对大数据体系有了解,有采集量较大的爬虫项目经验优先; 4、对数据结构和算法设计有较为深刻的理解,具有良好的沟通能力和团队合作意识; 5、拥抱新技术,有很强的学习能力; 加分项: 1、有风控对抗经验者优先 2、还原过vmp算法的优先 公司福利: 1、周末双休,国家法定节假日休假,员工带薪年假; 2、试用期开始购买五险一金; 3、公司提供午餐补贴; 4、茶水间饮料零食;节日福利,生日福利; 5、个人评优奖; 6、公司年会活动,抽奖礼物等。
  • 7k-13k 经验1-3年 / 大专
    科技金融,人工智能服务,数据服务|咨询 / 不需要融资 / 15-50人
    (一)岗位描述: 1、负责设计和开发分布式网络爬虫系统,进行多平台信息的抓取和分析 2、负责信息抽取、数据清洗等研发和优化工作 3、负责抓取数据的深度提取和挖掘 4、参与爬虫核心算法的策略优化研究,提升网页抓取的效率和质量。 (二)任职要求: 1、熟悉linux平台开发,精通Python 2、精通网页、APP抓取原理及技术,精通正则表达式,从结构化的和非结构化的数据中获取信息 3、有分布式网络爬虫开发经验,熟悉Scrapy\PySpider等采集框架,掌握验证码识别技术、Ajax网页采集技术以及爬虫高并发技术,流式处理经验者优先; 4、熟悉Mysql,有过数据库调优和海量数据存储经验优先 5、学习能力强,有较好的沟通能力,能迅速融入团队
  • 18k-22k·13薪 经验5-10年 / 本科
    数据服务 / 不需要融资 / 50-150人
    岗位名称:爬虫工程师 岗位职责: 1、负责爬虫、逆向相关技术的研究和实现工作,比如APP逆向破解、小程序破解、分布式爬虫、验证码破解、反爬机制的研究等等。 2、设计爬虫策略和防屏蔽规则,提升抓取的效率和质量。 3、负责公司爬虫的核心算法以及策略优化,熟悉采集系统的调度策略。 4、负责现有部分爬虫的完善、维护工作,实时监控爬虫的进度和警报反馈,提升爬虫系统稳定性、可扩展性。 5、能独立解决实际开发过程碰到的各类问题。 任职要求: 1、本科及以上学历,计算机相关专业; 2、至少3年及以上爬虫逆向经验; 3、精通Python/Java语言至少一种,具有扎实的计算机基础和编程能力,熟悉常见的算法与数据结构,具有优秀的逻辑思维能力; 4、熟悉APP逆向、JS逆向、验证码破解、图像识别等技术; 5、熟悉常见的反爬机制,并对反爬具有一定的应对措施策略且有一定研究; 6、熟悉Mysql,redis,有过数据库调优和海量数据存储经验优先; 7、熟悉常用网络协议、数据存储和数据处理技术; 8、熟悉linux系统环境、命令,shell、python脚本编写; 9、有电商网站、电商APP采集经验优先; 10、对爬虫技术有专研精神;
  • 4k-6k 经验不限 / 本科
    企业服务 / 不需要融资 / 50-150人
    岗位职责: 1. 需要保证每天获取的总数居量的获取 2. 负责js逆向,能够在网站更新时,及时更新(极验,rs等)