且构网

分享程序员开发的那些事...
且构网 - 分享程序员编程开发的那些事

Python网络爬虫之利用urllib2通过URL抓取网页内容

更新时间:2022-01-18 08:32:21

所谓网页抓取,就是把URL地址中指定的网络资源从网络流中读取出来,保存到本地。 类似于使用程序模拟IE浏览器的功能,把URL作为HTTP请求的内容发送到服务器端, 然后读取服务器端的响应资源。

一、通过urllib2抓取百度网页

在Python中,我们使用urllib2这个组件来抓取网页。urllib2是Python的一个获取URLs(Uniform Resource Locators)的组件。它以urlopen函数的形式提供了一个非常简单的接口。最简单的urllib2的应用代码只需要四行。

Python网络爬虫之利用urllib2通过URL抓取网页内容
urllib2抓取百度网页

我们通过浏览器可以打开百度主页,右击,选择查看源代码(火狐OR谷歌浏览器均可),会发现也是完全一样的内容。也就是说,上面这四行代码将我们访问百度时浏览器收到的代码们全部打印了出来。这就是一个最简单的urllib2的例子。

当然,除了"http:",URL同样可以使用"ftp:","file:"等等来替代。HTTP是基于请求和应答机制的:客户端提出请求,服务端提供应答。

二、urllib结合Request用法

urllib2用一个Request对象来映射你提出的HTTP请求。在它最简单的使用形式中你将用你要请求的地址创建一个Request对象,通过调用urlopen并传入Request对象,将返回一个相关请求response对象,这个应答对象如同一个文件对象,所以你可以在Response中调用.read()客户端提出请求,服务端提供应答。

Python网络爬虫之利用urllib2通过URL抓取网页内容
urllib+Request用法

可以看到,以上两种用法的输出结果都是一致的。

三、HTTP请求的同时传入参数data

设置Headers到http请求

有一些网站不喜欢被程序(非人为访问)访问,或者发送不同版本的内容到不同的浏览器。默认的urllib2把自己作为“Python-urllib/x.y”(x和y是Python主版本和次版本号,例如Python-urllib/2.7),浏览器确认自己身份是通过User-Agent头,当你创建了一个请求对象,你可以给他一个包含头数据的字典。

Python网络爬虫之利用urllib2通过URL抓取网页内容
Headers请求HTTP