-
工作职责 1.对站内个人用户上传的视频按照规则要求进行审核、过滤等等; 2.实时监控上级监管部门以及相关法律法规所不允许上传的内容,并提供每日监控结果报告; 3.了解每周网上舆情,并针对相关热点事件有一定关注分析能力; 4.根据运营需要把握内容尺度,确保网站内容的合法性。 任职资格 1.大专以上学历,对视频网站有一定的了解,熟悉计算机操作,能熟练使用Office办公软件; 2.熟悉网络热门事件、名词、人物等新兴事物,并有一定的分析研判能力; 3.有责任心,诚实稳重,条理清晰,能承受一定的压力,能严格遵守公司各项规章制度; 4.具备一定的社会经验,能根据国家相关政策把握各种视频内容的尺度; 5.有较强的学习能力,学习熟记国家管理部门的政策法规; 6.本职位为三班倒,早班、午班、夜班,应聘者需能适应轮班制度; 7.有视频网站内容审核工作者优先。
-
■岗位职责 负责爬虫软件设计开发及系统维护工作; 根据业务需求完成数据采集与爬取、解析处理、入库及备份数据日常工作; 负责信息抽取、数据清洗等研发和优化工作,对数据结果进行解释和汇报,向相关部门提供数据分析技术支持; 负责python相关系统的开发、维护和优化。 ■岗位条件 (1)学历:普通高招大学本科及以上学历。 (2)年龄:原则上本科生不超过28周岁,硕士研究生不超过30岁,博士研究生不超过32岁,特别优秀者可适当放宽。 (3)专业:计算机科学与技术、软件工程、网络工程、信息与计算科学、信息安全、电子与计算机工程、信息与通信工程、网络空间安全、数据科学与大数据技术、人工智能等相关专业。 (4)基础能力: 熟练掌握Python编程语言及其主流框架和第三方库; 熟练使用爬虫相关技术,如scrapy、pyspider、appium、puppeteer等; 掌握Pyhton的Web框架Django、Flask等,并且有使用过其中一个框架开发; 具有扎实的数据结构和算法基础,深入理解面向对象编程思想及常用设计模式; 熟悉缓存、多线程、消息队列等相关技术; 具备较高的编程素养、良好的编码习惯。 (5)放宽及优先条件: 具有符合本岗位特殊才能的,学历和年龄可适当放宽; 具有互联网政务服务相关工作经验,或具有“大厂”工作经验者,学历和年龄可适当放宽,并优先考虑; 具有算法开发相关经验的优先; 具有Js逆向经验、App数据抓取经验者优先; 其他符合放宽或优先条件的。
-
招聘要求: 1.计算机及相关专业,211院校***本科及以上学历; 2.熟悉Python、Mysql、html,编程功底扎实; 3.有网络爬虫开发相关经验; 4.具备极强的动手能力、学习能力和抗压能力; 5.可连续实习半年以上;
-
工作职责: 1、独立负责网络爬虫系统的设计与开发; 2、负责和业务沟通抓取需求,满足业务的发展需要; 3、负责大数据产品所需网站的信息抓取、解析、清洗等研发与优化工作; 任职要求: 1. 计算机或相关专业,本科及以上学历; 2. 熟悉软件工程,熟悉常用数据结构和算法; 3. 熟悉Python语言 、掌握爬虫框架scrapy , 熟悉分布式爬虫管理框架Gerapy, 爬虫管理scrapyd ,分布式爬虫scrapy-redis 4. 熟悉Linux操作系统以及shell脚本; 5. 熟悉HTML,JavaScript,xpath,css selector,熟悉HTTP协议; 6. 英语水平达到CET6或以上; 7. 工作细心,认真负责,具备较强的学习能力; 8.了解Git版本管理工具。
-
负责: 负责设计和开发分布式网络爬虫系统scrapy-redis,提取分析各种国内外千形万态的平台页面内容; 研究各种网站、链接、APP的形态,发现它们的特点和规律; 解决技术疑难问题,包括反爬、压力控制等,提升网页抓取的效率和质量; 要求: 精通python、计算机网络,熟练使用多线程,熟悉Scrapy等常用爬虫框架; 熟悉Linux操作、正则表达式,MongoDB、Redis、MySQL等常用数据库,了解各种Web前端技术; 能够解决封账号、封IP、验证码识别、图像识别等问题;
-
(一)岗位描述: 1、负责设计和开发分布式网络爬虫系统,进行多平台信息的抓取和分析 2、负责信息抽取、数据清洗等研发和优化工作 3、负责抓取数据的深度提取和挖掘 4、参与爬虫核心算法的策略优化研究,提升网页抓取的效率和质量。 (二)任职要求: 1、熟悉linux平台开发,精通Python/Java两种编程语言中的至少一种 2、精通网页抓取原理及技术,精通正则表达式,从结构化的和非结构化的数据中获取信息 3、熟悉Mysql,有过数据库调优和海量数据存储经验优先 4、具有搜索相关技术研发经验者优先
-
任职要求: 1. 本科及以上学历 2. 有Python爬虫相关经验,有web端JS逆向经验,熟练使用Scrapy框架 3. 熟悉HTML、XPath、正则表达式、AJAX、HTTP协议等 4. 熟悉MySQL、NoSQL等,了解Git版本管理工具 5. 熟悉分布式爬虫以及各种抓包工具 6. 熟悉消息队列,如rabbitmq,kafka等 加分项: 1. 有GUI工具pyqt开发经验 2. 有app逆向开发经验,熟悉ast,frida,objection,能够独立逆向小程序,app等 3. 有爬虫平台相关开发经验,如xxljob等
-
工作内容: 1.开发并测试新爬虫, 2.维护现有爬虫 3.完成其他领导分配的工作 职位要求: 有python编程经验 有爬虫开发经验,及scrapy框架使用经验 了解面向对象编程 了解http协议及相关技术,css,html,js等 做事认真负责,能吃苦耐劳 计算机相关专业 英语4级以上 6个月以上实习时间 毕业可转正
-
温馨提示:公司主要会涉及到的方向 视频网站、电商相关数据平台数据采集 列如:抖音、快手、视频号、百家、小红书等 职位描述 1、 负责开发和维护爬虫数据清洗系统,完成数据的聚合、清洗、去重、分析等; 2、 负责爬虫数据与业务系统的整合对接; 4、 负责爬虫相关技术的研究和实现工作,比如分布式爬虫、验证码破解、反爬机制的研究等等; 5、可独立完成爬虫系统任务。 6、负责ai的相关算法研究 任职要求: 1、专科以上学历,计算机相关专业。两年以上python开发经验(需要有工作经验,暂时不需要应届生) 2、熟悉分布式、多线程任务等; 3、有完整的python爬虫开发经验,能独立完成爬虫任务; 4、熟悉HTTP、HTTPS原理,理解Cookie机制,能够进行请求抓包; 5、熟悉开源爬虫框架、抓包技术,能够熟练运用抓包工具分析发包过程并模拟; 6、熟练掌握Mysql,Redis, Mongo等相关开发。 7、有ai的相关开发经验 上班时间:9:30-18:30 大小休 薪资待遇:8-13K (具体定薪是用人部门负责人确定) 面试流程:简历接收用人部门查阅---电话线上沟通---线下面试
-
岗位职责: 1. 根据业务需求,研究爬虫策略和防屏蔽规则,设计和开发分布式爬虫,支持高并发多平台抓取; 2. 负责网页信息抽取、简单清洗、数据入库等开发; 3. 提升爬虫稳定性及可扩展性,充分利用资源,优化爬虫效率和质量。 任职资格: 1. 计算机软件及相关专业本科毕业; 2. 至少1年爬虫项目开发经验; 3. 熟悉爬虫原理及常见的反爬虫技术,如cookie、js加密、base64等; 3. 熟练运用python及多进程、多线程开发; 4. 熟练使用scrapy、requests、selenium、pyppeteer等爬虫包; 5. 熟悉html,正则、xpath等提取技术; 6. 熟悉Mysql、Redis等数据库及相关操作; 7. 熟悉Linux基础命令; 8. 有Django/Flask等web框架开发经验者优先。
-
岗位职责: 1. 进行多平台(主要是视频类)信息的抓取和分析工作,实时监控爬虫的进度和警报反馈 2. 网页信息和APP数据抽取、清洗、消重等工作 任职资格: 1. 本科学历,计算机相关专业,2024年或者2025年毕业,可以实习半年以上; 2. 熟悉Python,有扎实的算法和数据结构能力 3. 熟悉爬虫原理,熟悉常见的反爬虫技术,熟悉常用开源爬虫框架(如 scrapy / pyspider等) 4. 掌握http协议,熟悉html、dom、xpath等常见的数据抽取技术 5. 有数据处理、数据挖掘、信息提取等经验者优先 6. 沟通能力好,认真好学,有责任心
-
岗位职责: 1、设计编写数据采集器或爬虫代码; 2、维护现有爬虫系统 岗位要求: 1、python语言熟练使用selenium、requests、flask、pymysql等组件,能使用Scrapy,Redis,Kafka之一; 2、熟知HTTP、TCP、Socket等底层知识,了解反爬原理; 3、熟练掌握正则表达式、XPath、HTML,CSS等网页信息抽取技术,熟悉web相关数据处理;
-
职位描述: 在Mentor指导下,进行爬虫及反爬系统开发。 要求: 1、熟练的Python或C++编程能力 2、善于解决开放式问题(提供证明) 3、熟悉网络协议和操作系统基本原理(编码级别) 4、有爬虫相关系统开发经历(加分项) 5、有逆向工程能力或经历(加分项) 6、数理化生等基础专业的同学(加分项)
-
---岗位职责--- 1.编写抓取互联网内容的爬虫; 2.研究各种网页、app接口,探寻特点和规律; ---任职要求--- 1.本科及以上计算机相关专业在校生,毕业前可实习6个月以上; 2.熟悉Python,掌握爬虫技术,熟悉scrapy框架、pyspider框架等,有爬虫系统开发实习经验者优先;
-
工作内容: 1、通过编写新的爬虫脚本、通过修复已有爬虫脚本对网站数据进行爬取采集 2、对爬取的速度、质量负责。 3、对爬取回来的数据进行清洗(去重、缺失值、空值、乱码异常值等处理),并且进行数据存储 工作要求: 1、会使用爬虫、能独立编写爬虫脚本爬取数据 2、能够解决爬取数据过程中的反爬机制(JS逆向、验证码、封IP等) 3、能够处理千万级以上数据,保证处理存储的有效性(速度+质量) 4、能接受应届生、勤奋好学、吃苦耐劳
热门职位


