Linux中国

Python 学习:urllib 简介

接下来我们会分开讨论除了 urllib.error 以外的几部分。官方文档实际推荐你尝试第三方库, requests,一个高级的 HTTP 客户端接口。然而我依然认为知道如何不依赖第三方库打开 URL 并与之进行交互是很有用的,而且这也可以帮助你理解为什么 requests 包是如此的流行。

urllib.request

urllib.request 模块期初是用来打开和获取 URL 的。让我们看看你可以用函数 urlopen 可以做的事:

>>> import urllib.request
>>> url = urllib.request.urlopen('https://www.google.com/')
>>> url.geturl()
'https://www.google.com/'
>>> url.info()
<http.client.HTTPMessage object at 0x7fddc2de04e0>
>>> header = url.info()
>>> header.as_string()
(&apos;Date: Fri, 24 Jun 2016 18:21:19 GMTn&apos;
 &apos;Expires: -1n&apos;
 &apos;Cache-Control: private, max-age=0n&apos;
 &apos;Content-Type: text/html; charset=ISO-8859-1n&apos;
 &apos;P3P: CP="This is not a P3P policy! See &apos;
 &apos;https://www.google.com/support/accounts/answer/151657?hl=en for more info."n&apos;
 &apos;Server: gwsn&apos;
 &apos;X-XSS-Protection: 1; mode=blockn&apos;
 &apos;X-Frame-Options: SAMEORIGINn&apos;
 &apos;Set-Cookie: &apos;
 &apos;NID=80=tYjmy0JY6flsSVj7DPSSZNOuqdvqKfKHDcHsPIGu3xFv41LvH_Jg6LrUsDgkPrtM2hmZ3j9V76pS4K_cBg7pdwueMQfr0DFzw33SwpGex5qzLkXUvUVPfe9g699Qz4cx9ipcbU3HKwrRYA; &apos;
 &apos;expires=Sat, 24-Dec-2016 18:21:19 GMT; path=/; domain=.google.com; HttpOnlyn&apos;
 &apos;Alternate-Protocol: 443:quicn&apos;
 &apos;Alt-Svc: quic=":443"; ma=2592000; v="34,33,32,31,30,29,28,27,26,25"n&apos;
 &apos;Accept-Ranges: nonen&apos;
 &apos;Vary: Accept-Encodingn&apos;
 &apos;Connection: closen&apos;
 &apos;n&apos;)
>>> url.getcode()
200

在这里我们包含了需要的模块,然后告诉它打开 Google 的 URL。现在我们就有了一个可以交互的 HTTPResponse 对象。我们要做的第一件事是调用方法 geturl ,它会返回根据 URL 获取的资源。这可以让我们发现 URL 是否进行了重定向。

接下来调用 info ,它会返回网页的元数据,比如请求头信息。因此,我们可以将结果赋给我们的 headers 变量,然后调用它的方法 as_string 。就可以打印出我们从 Google 收到的头信息。你也可以通过 getcode 得到网页的 HTTP 响应码,当前情况下就是 200,意思是正常工作。

如果你想看看网页的 HTML 代码,你可以调用变量 url 的方法 read。我不准备再现这个过程,因为输出结果太长了。

请注意 request 对象默认发起 GET 请求,除非你指定了它的 data 参数。如果你给它传递了 data 参数,这样 request 对象将会变成 POST 请求。

下载文件

urllib 一个典型的应用场景是下载文件。让我们看看几种可以完成这个任务的方法:

>>> import urllib.request
>>> url = &apos;http://www.blog.pythonlibrary.org/wp-content/uploads/2012/06/wxDbViewer.zip&apos;
>>> response = urllib.request.urlopen(url)
>>> data = response.read()
>>> with open(&apos;/home/mike/Desktop/test.zip&apos;, &apos;wb&apos;) as fobj:
...     fobj.write(data)
...

这个例子中我们打开一个保存在我的博客上的 zip 压缩文件的 URL。然后我们读出数据并将数据写到磁盘。一个替代此操作的方案是使用 urlretrieve :

>>> import urllib.request
>>> url = &apos;http://www.blog.pythonlibrary.org/wp-content/uploads/2012/06/wxDbViewer.zip&apos;
>>> tmp_file, header = urllib.request.urlretrieve(url)
>>> with open(&apos;/home/mike/Desktop/test.zip&apos;, &apos;wb&apos;) as fobj:
...     with open(tmp_file, &apos;rb&apos;) as tmp:
...         fobj.write(tmp.read())

方法 urlretrieve 会把网络对象拷贝到本地文件。除非你在使用 urlretrieve 的第二个参数指定你要保存文件的路径,否则这个文件将被拷贝到临时文件夹的随机命名的一个文件中。这个可以为你节省一步操作,并且使代码看起来更简单:

>>> import urllib.request
>>> url = &apos;http://www.blog.pythonlibrary.org/wp-content/uploads/2012/06/wxDbViewer.zip&apos;
>>> urllib.request.urlretrieve(url, &apos;/home/mike/Desktop/blog.zip&apos;)
(&apos;/home/mike/Desktop/blog.zip&apos;,
 <http.client.HTTPMessage object at 0x7fddc21c2470>)

如你所见,它返回了文件保存的路径,以及从请求得来的头信息。

设置你的用户代理

当你使用浏览器访问网页时,浏览器会告诉网站它是谁。这就是所谓的 user-agent (用户代理)字段。Python 的 urllib 会表示它自己为 Python-urllib/x.y , 其中 x 和 y 是你使用的 Python 的主、次版本号。有一些网站不认识这个用户代理字段,然后网站可能会有奇怪的表现或者根本不能正常工作。辛运的是你可以很轻松的设置你自己的 user-agent 字段。

>>> import urllib.request
>>> user_agent = &apos; Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:47.0) Gecko/20100101 Firefox/47.0&apos;
>>> url = &apos;http://www.whatsmyua.com/&apos;
>>> headers = {&apos;User-Agent&apos;: user_agent}
>>> request = urllib.request.Request(url, headers=headers)
>>> with urllib.request.urlopen(request) as response:
...     with open(&apos;/home/mdriscoll/Desktop/user_agent.html&apos;, &apos;wb&apos;) as out:
...         out.write(response.read())

这里设置我们的用户代理为 Mozilla FireFox ,然后我们访问 http://www.whatsmyua.com/ , 它会告诉我们它识别出的我们的 user-agent 字段。之后我们将 url 和我们的头信息传给 urlopen 创建一个 Request 实例。最后我们保存这个结果。如果你打开这个结果,你会看到我们成功的修改了自己的 user-agent 字段。使用这段代码尽情的尝试不同的值来看看它是如何改变的。

urllib.parse

urllib.parse 库是用来拆分和组合 URL 字符串的标准接口。比如,你可以使用它来转换一个相对的 URL 为绝对的 URL。让我们试试用它来转换一个包含查询的 URL :

>>> from urllib.parse import urlparse
>>> result = urlparse(&apos;https://duckduckgo.com/?q=python+stubbing&t=canonical&ia=qa&apos;)
>>> result
ParseResult(scheme=&apos;https&apos;, netloc=&apos;duckduckgo.com&apos;, path=&apos;/&apos;, params=&apos;&apos;, query=&apos;q=python+stubbing&t=canonical&ia=qa&apos;, fragment=&apos;&apos;)
>>> result.netloc
&apos;duckduckgo.com&apos;
>>> result.geturl()
&apos;https://duckduckgo.com/?q=python+stubbing&t=canonical&ia=qa&apos;
>>> result.port
None

这里我们导入了函数 urlparse , 并且把一个包含搜索查询字串的 duckduckgo 的 URL 作为参数传给它。我的查询字串是搜索关于 “python stubbing” 的文章。如你所见,它返回了一个 ParseResult 对象,你可以用这个对象了解更多关于 URL 的信息。举个例子,你可以获取到端口信息(本例中没有端口信息)、网络位置、路径和很多其它东西。

提交一个 Web 表单

这个模块还有一个方法 urlencode 可以向 URL 传输数据。 urllib.parse 的一个典型使用场景是提交 Web 表单。让我们通过搜索引擎 duckduckgo 搜索 Python 来看看这个功能是怎么工作的。

>>> import urllib.request
>>> import urllib.parse
>>> data = urllib.parse.urlencode({&apos;q&apos;: &apos;Python&apos;})
>>> data
&apos;q=Python&apos;
>>> url = &apos;http://duckduckgo.com/html/&apos;
>>> full_url = url + &apos;?&apos; + data
>>> response = urllib.request.urlopen(full_url)
>>> with open(&apos;/home/mike/Desktop/results.html&apos;, &apos;wb&apos;) as f:
...     f.write(response.read())

这个例子很直接。基本上我们是使用 Python 而不是浏览器向 duckduckgo 提交了一个查询。要完成这个我们需要使用 urlencode 构建我们的查询字符串。然后我们把这个字符串和网址拼接成一个完整的正确 URL ,然后使用 urllib.request 提交这个表单。最后我们就获取到了结果然后保存到磁盘上。

urllib.robotparser

robotparser 模块是由一个单独的类 RobotFileParser 构成的。这个类会回答诸如一个特定的用户代理是否获取已经设置了 robot.txt 的网站的 URL。 robot.txt 文件会告诉网络爬虫或者机器人当前网站的那些部分是不允许被访问的。让我们看一个简单的例子:

>>> import urllib.robotparser
>>> robot = urllib.robotparser.RobotFileParser()
>>> robot.set_url(&apos;http://arstechnica.com/robots.txt&apos;)
None
>>> robot.read()
None
>>> robot.can_fetch(&apos;*&apos;, &apos;http://arstechnica.com/&apos;)
True
>>> robot.can_fetch(&apos;*&apos;, &apos;http://arstechnica.com/cgi-bin/&apos;)
False

这里我们导入了 robot 分析器类,然后创建一个实例。然后我们给它传递一个表明网站 robots.txt 位置的 URL 。接下来我们告诉分析器来读取这个文件。完成后,我们给它了一组不同的 URL 让它找出那些我们可以爬取而那些不能爬取。我们很快就看到我们可以访问主站但是不能访问 cgi-bin 路径。

总结一下

现在你就有能力使用 Python 的 urllib 包了。在这一节里,我们学习了如何下载文件、提交 Web 表单、修改自己的用户代理以及访问 robots.txt。 urllib 还有一大堆附加功能没有在这里提及,比如网站身份认证。你可能会考虑在使用 urllib 进行身份认证之前切换到 requests 库,因为 requests 已经以更易用和易调试的方式实现了这些功能。我同时也希望提醒你 Python 已经通过 http.cookies 模块支持 Cookies 了,虽然在 request 包里也很好的封装了这个功能。你应该可能考虑同时试试两个来决定那个最适合你。

via: http://www.blog.pythonlibrary.org/2016/06/28/python-101-an-intro-to-urllib/

作者:Mike 译者:Ezio 校对:wxy

本文由 LCTT 原创翻译,Linux中国 荣誉推出


本文转载来自 Linux 中国: https://github.com/Linux-CN/archive

对这篇文章感觉如何?

太棒了
0
不错
0
爱死了
0
不太好
0
感觉很糟
0
雨落清风。心向阳

    You may also like

    Leave a reply

    您的邮箱地址不会被公开。 必填项已用 * 标注

    此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据

    More in:Linux中国