• 30k-55k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、为字节跳动抖音、电商等业务线的反爬效果和指标负责,解决业务痛点问题; 2、提升业务风险感知能力,结合具体场景,数据指标,主动发现问题并提出解决方案,对业务风控效果负责; 3、推动智能化产品落地,不断提升平台化能力,提高风控效率; 4、研究新的产品动向和前瞻探索,借鉴业界的新思路持续优化产品策略,使反爬处于行业领先水平。 职位要求: 1、本科及以上学历,责任心强,思维逻辑严谨,对数据敏感; 2、有大型互联网公司风控策略制定经验,从事过反爬虫、流量反作弊方向工作; 3、有互联网行业安全策略管理经验,包括但不限于风险发现、制定模型或策略、推动方案落地; 4、1年以上策略产品或数据分析工作经验;熟练掌握大数据分析工具使用,不限于sql/pyspark/flink等(加分项); 5、具备攻防思维,熟练掌握常见的反爬虫技术和数据安全风险(加分项)。
  • 15k-30k·14薪 经验不限 / 不限
    新零售 / 不需要融资 / 500-2000人
    岗位职责: 1. 负责原有采集程序维护 2. 针对新的数据需求进行平**控调研以及采集策略制定 3. 能够完善现有采集系统,有进行数据可视化呈现的经验 4. 能够不断精进应对风控的采集技能。 岗位要求: 1. 熟悉python,js编程,熟悉安卓、ios开发流程更佳。 2. 有过硬的web端逆向能力,有过市面上常见的验证码对抗经验。 3. 掌握常见的python爬虫框架如scrapy等 4. 掌握常见的数据库(redis,mysql,hive,impala等) 3. 有国内电商相关数据采集经验,熟悉国内各电商平台业务逻辑。
  • 12k-20k 经验1-3年 / 本科
    游戏 / A轮 / 50-150人
    岗位职责: 1. 负责爬虫业务线的开发迭代,完成多平台信息和页面内容、接口的抓取工作; 2. 负责信息数据的抽取、清洗、整理等工作; 3. 负责爬虫系统的优化,监控和报警,提高爬虫脚本的稳定性和抓取效率。 任职要求: 1. 本科及以上学历,2年以上独立Python爬虫开发经验; 2. 熟练使用bs、re、xpath、jsonpath等数据提取模块; 3. 熟悉 Scrapy、 selenium / pyppeteer 等常用爬虫框架,熟悉反爬策略与应对方案; 4. 熟悉Linux开发环境,熟悉 MySql / Mongodb / Redis的基本原理,有数据清洗经验的优先; 5. 有django、flask、tornado等web框架(之一即可)的使用经验,有web项目经验的优先; 6. 有良好的沟通能力、理解能力、细节把控能力、多任务并行处理能力; 7. 有责任心,能够积极主动的发现和解决问题,化解风险。 如果您成为我公司员工,您将获得: 薪资:中电博亚将为员工提供行业内有竞争力的薪酬,确保优秀员工获得更多的认可和激励; 奖金:优秀的您将共享公司的经营业绩,奖金额度与公司年度收益及个人绩效挂钩; 基本保障福利:公司按照国家规定为员工缴纳社会保险及公积金(五险一金); 额外补充福利:餐补、车补等日常津贴,下午茶零食咖啡无限量供应; 休假:相对弹性工作制;每周双休;除国家规定的法定节假日外,将给予额外的带薪年假和带薪病假。 我们虽然独树一帜,却并不冰冷; 我们虽然行事严谨,却并不死板; 我们不害怕年轻,只害怕创意枯竭; 我们不害怕失败,只害怕止步不前; 我们喜欢朝气蓬勃的你,一起用对游戏的热爱一起创造辉煌; 我们喜欢无所畏惧的你,前人没有走过的路就让我们来开辟; 那个关于游戏的梦想,你还记得吗? 我们期待你的加入!
  • 7k-12k 经验不限 / 本科
    物联网 / 未融资 / 15-50人
    1、负责爬取HTML页面所需数据,并对数据进行清洗、解析、归档、输出等; 2、负责设计和开发分布式的网络爬虫,数据的采集与爬取、调度、监控、自动化运行等; 3、负责实时监控爬虫的进度和警报反馈,提升爬虫系统稳定性、可扩展性。  4、负责js渲染抓取,反爬虫策略研究,验证码识别等采集支撑服务建设;  5、参与公司业务平台的数据的挖掘和分析,协助进行产品改进。 任职资格 1. 本科以上,计算机或相关专业毕业,扎实的Python基础,熟悉多线程编程环境,熟悉常见开源框架; 2、熟悉基于正则表达式、XPath、CssSelector、beautifulsoup等网页信息解析技术; 3、熟悉Scrapy、feapder等主流爬虫框架框架,能够解决封账号、封IP、验证码、网页限制爬取等问题,且有实际经验; 4、熟悉常见的反爬机制,并对反爬具有一定的应对措施策略且有一定研究,如协议破解、模拟点击等;  5、熟悉代理IP池、Headers认证和Cookie等;
  • 8k-10k 经验3-5年 / 本科
    医疗丨健康 / 上市公司 / 150-500人
    工作内容: 1.APP、网站数据爬取 2.数据分析 3.数学模型 4.建立数据清洗流程 任职要求: 1.技术扎实,必须本科计算机系或相关以上 2.擅长Python,了解分布式,多线程,正则表达式(regex) 3.自主学习能力,对各种新技术有热情,领导潜力 4.有独立完成完整APP项目的经验者会优先考虑
  • 13k-17k 经验3-5年 / 大专
    社交 / 不需要融资 / 50-150人
    一、任职要求(并不表示部分条件未达到则一定不会聘用): 1.熟练使用Python标准库和流行的第三方库,精通Python语言; 2.熟悉以下主流服务器端开源系统或者其中一部分:Redis/MongoDB/RabbitMQ/Memcache/Nginx; 3.熟悉JAVA或想转型Python者优先; 4.熟悉RESTful web service规范、熟悉面向对象的设计思想; 5.熟悉mysql的各种存储引擎,熟悉索引工作原理,有丰富的mysql性能优化经验; 6.重视Code Review,知道良好的编程习惯的标准,对代码和设计质量有严格要求; 7.熟悉Tornado/Flask/Gevent/Django等常用开发框架,至少有其中一个的最佳实践或深入研究过其源码及机制; 二、岗位职责 1.开发自动点击谷歌浏览器插件按钮; 2.收集用户信息;
  • 15k-23k 经验3-5年 / 大专
    社交 / 不需要融资 / 50-150人
    一、任职要求(并不表示部分条件未达到则一定不会聘用): 1.熟练使用Python标准库和流行的第三方库,精通Python语言; 2.熟悉以下主流服务器端开源系统或者其中一部分:Redis/MongoDB/RabbitMQ/Memcache/Nginx; 3.熟悉JAVA或想转型Python者优先; 4.熟悉RESTful web service规范、熟悉面向对象的设计思想; 5.熟悉mysql的各种存储引擎,熟悉索引工作原理,有丰富的mysql性能优化经验; 6.重视Code Review,知道良好的编程习惯的标准,对代码和设计质量有严格要求; 7.熟悉Tornado/Flask/Gevent/Django等常用开发框架,至少有其中一个的最佳实践或深入研究过其源码及机制; 二、岗位职责 1.开发自动点击谷歌浏览器插件按钮; 2.收集用户信息;
  • 18k-25k 经验不限 / 大专
    工具,电商 / 不需要融资 / 15-50人
    岗位职责: 1、负责抖音/淘宝/拼多多/1688等热门电商平台的爬取工作,包括数据抓取和爬取链路优化,提升抓取能力; 2、负责反爬虫策略研究,代理IP、验证码识别等采集支撑服务建设; 3、负责大规模文本、图像数据的抓取、抽取,去重、分类,垃圾过滤,质量识别等工作。 任职要求: 1、三年以上大规模爬虫/反爬经验,熟悉HTTP协议/浏览器原理/前端JS/APP抓取; 2、有解决复杂的反爬限制实践经验, 能解决如图片验证码/滑块/账号限制/ip限制等问题,熟悉反爬虫、签名破解、验证码识别技术者优先; 3、熟悉app端数据抓取(有逆向、脱壳等经验),掌握Apktool、dex2jar、JD-GUI、frida、ida等工具,能独立完成主流电商平台和主流app软件大量级的数据抓取优先; 4、有电商数据爬虫经验优先。
  • 60k-90k 经验5-10年 / 本科
    企业服务 / 不需要融资 / 150-500人
    职位描述: • 负责分布式网络爬虫系统平台的架构设计与开发(如抓取调度,多样化抓取,页面解析和结构化抽取,海量数据存储和读取等)、技术选型 • 研究爬虫策略和防屏蔽规则,解决封账号、封IP、验证码、页面跳转等难点攻克,提升网页抓取的效率和质量 • 把握网络爬虫核心技术研究方向,研究优化策略,提升爬虫系统的稳定性、可扩展性 • 管理并带领爬虫团队完成社交媒体数据(文本、视频、音频和图像)开发工作 职位要求: • 深度参与过至少一个分布式网络爬虫系统的架构设计; • 良好的代码能力,扎实的数据结构和算法功底,有快速迭代、逐步优化的工程项目经验 • 精通爬虫和反爬技术,精通底层协议;精通深度抓取、动态网页技术抓取、浏览器模拟抓取、APP抓取等技术 • 熟悉分布式系统、多线程,精通scrapy框架以及原理,有开发爬虫框架经验 • 对主流爬虫架构有深入研究,具有成熟爬虫工具的设计及运维经验 • 有很强的学习能力和技术钻研能力,积极主动,思维灵活开放,有良好的沟通能力,善于跨团队合作 • 良好的逻辑能力,善于把复杂问题梳理清晰,责任安排到人,完成情况监督到位
  • 6k-8k 经验1-3年 / 本科
    企业服务 / 不需要融资 / 50-150人
    岗位职责: 1、负责产品数据的抓取,并动态监控网站; 2、负责数据抓取的性能优化; 3、负责数据的规范化分析和开发工作。 任职要求: 1、2年及以上数据爬虫相关工作经验优先; 2、熟悉Django、Flask、WebPy、Tornado等其中一种; 3、熟悉Mysql、Redis、Mongo等常
  • 5k-10k 经验在校/应届 / 本科
    IT技术服务|咨询 / 不需要融资 / 50-150人
    工作职责: 1.负责规划、设计和开发爬虫相关系统,进行多平台多终端信息的抓取和分析。 2.基于抓取系统的数据抓取、清洗等设计开发。 3.配合业务线,完成实时数据与离线数据的爬取与对接。 任职要求: 1.精通Python语言\MYSQL,熟练使用常用模块,使用过Flask web框架; 2.能够解决封账号、封IP采集等问题,解决网页抓取、信息抽取等问题 3.熟悉爬虫工作原理,深入了HTTP协议内容 4.至少了解一种主流爬虫框架的架构及原理,有具体工程经验,如 scrapy / pyspider等 5.了解基于Cookie的登录原理,熟悉常用的信息抽取技术,如正则表达式、XPath等 6.对常见各类反爬方式(如账号/IP封禁、验证码、js混淆加密、滑块验证、数据混淆等)有一定解决经验
  • 15k-25k 经验1-3年 / 本科
    软件服务|咨询,IT技术服务|咨询,营销服务|咨询 / D轮及以上 / 150-500人
    大模型数据采集与使用工程师(3名,初级,11月底前入职) 职责: 1、负责设计和实施数据爬取方案,包括各种攻关如爬虫验证码破解、模拟登录、数据签名解签、请求包解析等; 2、负责数据存储、管理,包括mysql、pgsql、ES、hadoop/spark、arangodb等; 3、负责使用大模型为业务场景赋能,挖掘大模型的潜能,使用场景知识+大模型为业务提效; 职位要求: 1、具有爬虫工作经验,熟悉http请求、加密解密签名基础理论、用户授权等技术,有使用深度学习算法模型经验优先; 2、熟练掌握Python、SQL语言,掌握JAVA或GO是加分项; 3、有使用过大模型并对大模型的prompt有调优经验者优先; 4、具备良好的逻辑思维和问题分析解决能力; 5、具备良好的沟通和团队合作能力,能够与其他团队合作完成项目。
  • 10k-12k·13薪 经验1-3年 / 大专
    信息安全 / 上市公司 / 50-150人
    工作内容: 1. 负责数据抓取平台规划和建设,完成数据采集与爬取、解析处理和入库; 2. 负责用python语言实现产品的后端研发; 3. 负责高质量的设计和编码; 4. 承担重难点技术攻坚任务; 5. 参与产品的讨论和开发实现; 岗位要求: 1. 二年以上工作经验良好的计算机基础知识,熟悉常用的数据结构和算法; 2. 能运用python进行各类数据处理,熟悉pandas、numpy等常用python数据处理包,有机器学习相关经验优先; 3. 熟悉python后台开发,有完整的项目开发经验,熟练使用Django或flask框架, 熟悉Restful设计规范; 4. 熟悉Windows及Linux下python的安装、部署及调试以及Docker部署; 5. 熟悉MySQL、SQL 和主流NoSQL数据库 6. 对项目安全性问题和并发问题有一定理解和相应的解决方法 7. 有良好的沟通能力,团队协作能力,对新技术敏感,有良好的代码习惯,结构清晰,命名规范,熟悉设计模式,随时贯彻最优开发思想。
  • 10k-13k 经验不限 / 本科
    数据服务、人工智能 / 未融资 / 150-500人
    (该岗位为外包岗位,优秀者入职后可转为正式员工) 职责描述: 1、负责网络爬虫,数据采集清洗等研发工作 2、负责对爬虫平台架构进行改造和优化 3、定期爬取指定数据,为业务部门提供数据支持。 技能要求: 1、会JS补环境; 2、会训练及协议过国内主流厂家的滑块,图标/文字点选验证码; 3、会使用docker容器; 4、计算机相关专业本科以上学历; 5、熟练的编程能力,熟悉数据结构;熟悉计算机网络的基础理论; 6、熟练的Python编程基础,熟练使用scrapy或feapder等爬虫框架;熟悉分布式爬虫;熟悉XPath等常用页面解析技术; 7、熟悉puppeteer等自动化工具的使用; 8、熟悉postgresql,mongodb等关系型或非关系型数据库; 9、熟悉kafka、redis等消息中间件/缓存的使用优先考虑;
  • 18k-35k 经验3-5年 / 本科
    移动互联网,数据服务 / C轮 / 50-150人
    岗位薪资open,欢迎沟通~ 职位描述: 1、遵循robots协议,爬取互联网上允许搜索爬虫采集的公开信息,参与爬虫系统的建设与优化,满足各类业务数据需求; 2、负责分布式爬虫系统的建设,优化数据调度、抓取、解析、存储全栈流程; 3、帮助团队攻克各种爬虫技术难关,提升海量数据系统的抓取效果与性能。 职位要求: 1、本科及以上学历,3年以上爬虫抓取采集相关工作经验; 2、熟悉主流爬取技术及爬虫框架工具; 3、具备扎实的编码能力; 4、熟悉常见反爬封禁策略,并具备相关的实战经验; 5、加分项:逆向、混淆、脱壳、分布式、数据分析、数据挖掘。