爬取网站(爬取网站总是被封)

摘要本文作者:崔庆才GitHub地址:https://github.com/Python3WebSpider/CookiesPool小编推荐一本崔大大写的网络爬虫的书籍《Python3网络爬虫开发实战》关注后私信【网络爬虫】即可获取很多时候,在爬取没有登录的情况下,我们也可以访问一部分页面或请求一些接口,因为毕竟网站本身需要做SEO,不会对所有页面都设置登录限制。但是,不登录直接爬取会有一些弊端,弊端主要有以下两点。设置了登录限制的页面无法爬取。比如论坛,博客等等如果没有登录请求频繁就很容易被限制或者IP直接被封下面我们就第二种情况做一个简单的实验。以微博为例,我们先找到一个Ajax接口,例如新浪财经官方微博的信息接口如果用浏览器直接访问,返回的数据是JSON格式,如下图所示:但是如果频繁访问的话:登录微博账号之后重新打开此链接,则页面正常显示接口的结果,而未登录的页面仍然显示请求过于频繁,如下图所示:我们以新浪微博为例来实现一个Cookies池的搭建过程。准备工作搭建之前肯定需要一些微博的账号。需要安装好Redis数据库并使其正常运行。需要安装Python的RedisPy、requests、Selelnium、Flask库。另外,还需要安装Chrome浏览器并配置好ChromeDriver。Cookies池架构Cookies的架构和代理池类似,同样是4个核心模块,如下图所示。Cookies池架构的基本模块分为4块:存储模块、生成模块、检测模块、接口模块。Cookies池的实现存储模块需要存储的内容无非就是账号信息和Cookies信息。建立两个Hash,结构分别如下图所示。Hash的Key就是账号,Value对应着密码或者Cookies。接下来我们创建一个存储模块类,用以提供一些Hash的基本操作,代码如下:生成模块生成模块负责获取各个账号信息并模拟登录,随后生成Cookies并保存。这里主要逻辑就是找出那些还没有对应Cookies的账号,然后再逐个获取Cookies,代码如下:因为我们对接的是新浪微博,前面我们已经破解了新浪微博的四宫格验证码,在这里我们直接对接过来即可,不过现在需要加一个获取Cookies的方法,并针对不同的情况返回不同的结果,逻辑如下所示:这里返回结果的类型是字典,并且附有状态码status,在生成模块里我们可以根据不同的状态码做不同的处理。例如状态码为1的情况:表示成功获取Cookies,我们只需要将Cookies保存到数据库即可。状态码为2的情况:代表用户名或密码错误,那么我们就应该把当前数据库中存储的账号信息删除。状态码为3的情况:代表登录失败的一些错误,此时不能判断是否用户名或密码错误,也不能成功获取Cookies,那么简单提示再进行下一个处理即可。代码实现如下所示:检测模块检测模块需要做的就是检测Cookies失效,然后将其从数据中移除。我们还需要增加一个定时检测模块,它负责遍历池中的所有Cookies,同时设置好对应的检测链接,我们用一个个Cookies去请求这个链接。为了实现通用可扩展性,我们首先定义一个检测器的父类,声明一些通用组件,实现如下所示:如检测微博的就可以定义为WeiboValidTester,实现其独有的test()方法来检测微博的Cookies是否合法,然后做相应的处理,所以在这里我们还需要再加一个子类来继承这个ValidTester,重写其test()方法,实现如下:接口模块调度模块运行效果三个进程全部开启:关注后私信【学习资料】领取小编精心准备的海量Python学习资料


本文出自快速备案,转载时请注明出处及相应链接。

本文永久链接: https://www.xiaosb.com/beian/46341/