分享

详解:Python2中的urllib、urllib2与Python3中的urllib以及第三方模块requests

 imelee 2017-03-14

先说说Python2中的url与urllib2(参考此处):


在python2中,urlliburllib2都是接受URL请求的相关模块,但是提供了不同的功能。两个最显著的不同如下:

1、urllib2可以接受一个Request类的实例来设置URL请求的headers,例如:

[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. req = urllib2.Request(  
[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1.         url=url,  
  2.         data=postdata,  
  3.         headers=headers  
  4. )  
  5. result = urllib2.urlopen(req)  


我们知道,HTTP是无连接的状态协议,但是客户端和服务器端需要保持一些相互信息,比如cookie,有了cookie,服务器才能知道刚才是这个用户登录了网站,才会给予客户端访问一些页面的权限。所以我们需要保存cookie,之后附带cookie再来访问网站,才能够达到效果。这里就需要Python的cookielib和urllib2等的配合,将cookielib绑定到urllib2在一起,就能够在请求网页的时候附带cookie。在构造req请求之前可以获取一个保存cookies的对象,并把该对象和http处理器、http的handler资源以及urllib2的对象绑定在一起:

[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. cj = cookielib.LWPCookieJar()  
  2. cookie_support = urllib2.HTTPCookieProcessor(cj)  
  3. # 创建一个opener,将保存了cookie的http处理器,还有设置一个handler用于处理http的URL的打开  
  4. opener = urllib2.build_opener(cookie_support, urllib2.HTTPHandler)  
  5. # 将包含了cookie、http处理器、http的handler的资源和urllib2对象板顶在一起  
  6. urllib2.install_opener(opener)  


2、urllib仅可以接受URL。这意味着,你不可以伪装你的User Agent字符串等。

但是urllib提供urlencode方法用来GET查询字符串的产生,而urllib2没有。这是就是为何urllib常和urllib2一起使用的原因,如下:

[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. postdata = urllib.urlencode(postdata)  


(把字典形式的postdata编码一下)
Tip: if you are planning to do HTTP stuff only, check out httplib2, it is much better than httplib or urllib or urllib2.


》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》

下面说说Python3x中的urllib包、http包以及其他比较好使的第三方包

1、Python3 urllib、http

Python3不像2x中酷虎的和服务器模块结构散乱,Python3中把这些打包成为了2个包,就是http与urllib,详解如下:

http会处理所有客户端--服务器http请求的具体细节,其中:

(1)client会处理客户端的部分

(2)server会协助你编写Python web服务器程序

(3)cookies和cookiejar会处理cookie,cookie可以在请求中存储数据

使用cookiejar示例可以在前几篇博客中基于Python3的爬虫中找到示例,如下:

[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. import http.cookiejar  
  2. import urllib.request  
  3. import urllib.parse</span></span>  
  4. def getOpener(head):  
  5.     # deal with the Cookies  
  6.     cj = http.cookiejar.CookieJar()  
  7.     pro = urllib.request.HTTPCookieProcessor(cj)  
  8.     opener = urllib.request.build_opener(pro)  
  9.     header = []  
  10.     for key, value in head.items():  
  11.         elem = (key, value)  
  12.         header.append(elem)  
  13.     opener.addheaders = header  
  14.     return opener  




urllib是基于http的高层库,它有以下三个主要功能:

(1)request处理客户端的请求

(2)response处理服务端的响应

(3)parse会解析url

下面是使用Python3中urllib来获取资源的一些示例:

[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. 1、最简单  
  2. import urllib.request  
  3. response = urllib.request.urlopen('http:///')  
  4. html = response.read()  
[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. 2、使用 Request  
  2. import urllib.request  
  3. req = urllib.request.Request('http:///')  
  4. response = urllib.request.urlopen(req)  
  5. the_page = response.read()  
[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. 3、发送数据  
  2. import urllib.parse  
  3. import urllib.request  
  4. url = '"  
  5. values = {  
  6. 'act' : 'login',  
  7. 'login[email]' : '',  
  8. 'login[password]' : ''  
  9. }  
  10. data = urllib.parse.urlencode(values)  
  11. req = urllib.request.Request(url, data)  
  12. req.add_header('Referer', 'http://www./')  
  13. response = urllib.request.urlopen(req)  
  14. the_page = response.read()  
  15. print(the_page.decode("utf8"))  
[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. 4、发送数据和header  
  2. import urllib.parse  
  3. import urllib.request  
  4. url = ''  
  5. user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'  
  6. values = {  
  7. 'act' : 'login',  
  8. 'login[email]' : '',  
  9. 'login[password]' : ''  
  10. }  
  11. headers = { 'User-Agent' : user_agent }  
  12. data = urllib.parse.urlencode(values)  
  13. req = urllib.request.Request(url, data, headers)  
  14. response = urllib.request.urlopen(req)  
  15. the_page = response.read()  
  16. print(the_page.decode("utf8"))  
[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. 5、http 错误  
  2. import urllib.request  
  3. req = urllib.request.Request(' ')  
  4. try:  
  5. urllib.request.urlopen(req)  
  6. except urllib.error.HTTPError as e:  
  7. print(e.code)  
  8. print(e.read().decode("utf8"))  
[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. 6、异常处理1  
  2. from urllib.request import Request, urlopen  
  3. from urllib.error import URLError, HTTPError  
  4. req = Request("http://www..net /")  
  5. try:  
  6. response = urlopen(req)  
  7. except HTTPError as e:  
  8. print('The server couldn't fulfill the request.')  
  9. print('Error code: ', e.code)  
  10. except URLError as e:  
  11. print('We failed to reach a server.')  
  12. print('Reason: ', e.reason)  
  13. else:  
  14. print("good!")  
  15. print(response.read().decode("utf8"))  
[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. 7、异常处理2  
  2. from urllib.request import Request, urlopen  
  3. from urllib.error import  URLError  
  4. req = Request("http://www.Python.org/")  
  5. try:  
  6. response = urlopen(req)  
  7. except URLError as e:  
  8. if hasattr(e, 'reason'):  
  9. print('We failed to reach a server.')  
  10. print('Reason: ', e.reason)  
  11. elif hasattr(e, 'code'):  
  12. print('The server couldn't fulfill the request.')  
  13. print('Error code: ', e.code)  
  14. else:  
  15. print("good!")  
  16. print(response.read().decode("utf8"))  
[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1.   
[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. 8、HTTP 认证  
  2. import urllib.request  
  3. # create a password manager  
  4. password_mgr = urllib.request.HTTPPasswordMgrWithDefaultRealm()  
  5. # Add the username and password.  
  6. # If we knew the realm, we could use it instead of None.  
  7. top_level_url = ""  
  8. password_mgr.add_password(None, top_level_url, 'rekfan', 'xxxxxx')  
  9. handler = urllib.request.HTTPBasicAuthHandler(password_mgr)  
  10. # create "opener" (OpenerDirector instance)  
  11. opener = urllib.request.build_opener(handler)  
  12. # use the opener to fetch a URL  
  13. a_url = ""  
  14. x = opener.open(a_url)  
  15. print(x.read())  
  16. # Install the opener.  
  17. # Now all calls to urllib.request.urlopen use our opener.  
  18. urllib.request.install_opener(opener)  
  19. a = urllib.request.urlopen(a_url).read().decode('utf8')  
  20. print(a)  
[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1.   
[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. 9、使用代理  
  2. import urllib.request  
  3. proxy_support = urllib.request.ProxyHandler({'sock5': 'localhost:1080'})  
  4. opener = urllib.request.build_opener(proxy_support)  
  5. urllib.request.install_opener(opener)  
  6. a = urllib.request.urlopen("").read().decode("utf8")  
  7. print(a)  
[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. 10、超时  
  2. import socket  
  3. import urllib.request  
  4. # timeout in seconds  
  5. timeout = 2  
  6. socket.setdefaulttimeout(timeout)  
  7. # this call to urllib.request.urlopen now uses the default timeout  
  8. # we have set in the socket module  
  9. req = urllib.request.Request('')  
  10. a = urllib.request.urlopen(req).read()  
  11. print(a)  

上面例子大概把常用的一些情况都罗列出来了,其中对异常的处理要严格按照:

try...exceptA...exceptB...except...else...finally...

的语法格式来写,详情请参考我的另一篇相关博文

》》》》》》》》》》》》》》》》》》》》》》》》

2、除了使用官方标准库的urllib,我们可以使用更好用的第三方模块,如requests

Requests 完全满足如今网络的需求,其功能有以下:

  • 国际化域名和 URLs
  • Keep-Alive & 连接池
  • 持久的 Cookie 会话
  • 类浏览器式的 SSL 加密认证
  • 基本/摘要式的身份认证
  • 优雅的键/值 Cookies
  • 自动解压
  • Unicode 编码的响应体
  • 多段文件上传
  • 连接超时
  • 支持 .netrc
  • 适用于 Python 2.6—3.4
  • 线程安全

请参考中文官方文档,写的非常详细:传送门     

其中快速上手页面写的非常棒,我就不赘述了,请看:传送门

正如介绍所说:Requests 是使用 Apache2 Licensed 许可证的 HTTP 库。用 Python 编写,真正的为人类着想。





    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多