分享

python-09:将网页源码爬取下来

 217小月月坑 2015-11-18
第一步我们先来爬取糗事百科的网页源码
糗事百科的网址是:http://www./    这也是我们等下要传入的url
其实前面的最简单的爬虫程序就是爬取网页的源代码,现在我们试着用它来爬取糗事百科的源码,看看能不能成功
#!/usr/bin/env python
# -*- coding:UTF-8 -*-
__author__ = '217小月月坑'

import urllib2

url = 'http://www./'
request = urllib2.Request(url)

response = urllib2.urlopen(request)
print response.read()
额......结果出错了,妈蛋,真是出师不利,那好吧,既然如此那我们就先来来认识错误

程序运行出错是很正常的,出的错误越多,我们就越能够在实践中积累知识,所以不要害怕错误。有的错误很明显,一检查程序就知道了,有的错误很隐蔽,可能要改几天结果发现却是多了一个空格或者是少了一个符号,所以我们要掌握一些方法来检查错误

不仅仅是python,其他的编程语言在程序出错时会将错误信息输出,这个信息包括错误的类型,错误的代码在第几行,甚至是哪个变量出错了,所以我们要学会通过查找出错信息来分析错误原因并且解决错误,当然,为了方便,我们还需要一个能够显示行号的编辑器
现在我们来看看上面这段程序报了什么错误
 
 
urllib2.HTTPError: HTTP Error 502: Server Hangup 就是我们的错误信息
实际上找到了这个错误信息并没有什么卵用,反正我是看不懂,所以我选择百度
百度查到了很多条匹配的信息,但是不要急,多看几条,会让你对这个错误有更深的认识或者能看到一些相关的信息

"可能是那个网站阻止了这类的访问,只要在请求中加上伪装成浏览器的header就可以了"

好了,错误的原因和解决方法已经找到了,那么问题来了
1. 什么是浏览器的header
2. 怎么在python代码里面伪装header

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多