一、基础入门 1.1什么是爬虫 爬虫(spider,又网络爬虫),是指向网站/网络发起请求,获取资源后分析并提取有用数据的程序。 从技术层面来说就是 通过程序模拟浏览器请求站点的行为,把站点返回的HTML代码/JSON数据/二进制数据(图片、视频) 爬到本地,进而提取自己需要的数据,存放起来使用。 想要学习Python又缺少系统化学习方案的朋友可以关注并私信“01”免费领取系统化的Python学习资料...愿大家都能在编程这条路,越走越远。1.2爬虫基本流程 用户获取网络数据的方式: 方式1:浏览器提交请求--->下载网页代码--->解析成页面 方式2:模拟浏览器发送请求(获取网页代码)->提取有用的数据->存放于数据库或文件中 爬虫要做的就是方式2。 1 发起请求 使用http库向目标站点发起请求,即发送一个Request Request包含:请求头、请求体等 Request模块缺陷:不能执行JS 和CSS 代码 2 获取响应内容 如果服务器能正常响应,则会得到一个Response Response包含:html,json,图片,视频等 3 解析内容 解析html数据:正则表达式(RE模块)、xpath(主要使用)、beautiful soup、css 解析json数据:json模块 解析二进制数据:以wb的方式写入文件 4 保存数据 数据库(MySQL,Mongdb、Redis)或 文件的形式。 1.3http协议 请求与响应 http协议 Request:用户将自己的信息通过浏览器(socket client)发送给服务器(socket server) Response:服务器接收请求,分析用户发来的请求信息,然后返回数据(返回的数据中可能包含其他链接,如:图片,js,css等) ps:浏览器在接收Response后,会解析其内容来显示给用户,而爬虫程序在模拟浏览器发送请求然后接收Response后,是要提取其中的有用数据。 1.3.1 request (1) 请求方式 常见的请求方式:GET / POST (2)请求的URL url全球统一资源定位符,用来定义互联网上一个唯一的资源 例如:一张图片、一个文件、一段视频都可以用url唯一确定 (3)请求头 User-agent:请求头中如果没有user-agent客户端配置,服务端可能将你当做一个非法用户host; cookies:cookie用来保存登录信息 注意:一般做爬虫都会加上请求头。 请求头需要注意的参数:
(4)请求体 请求体 如果是get方式,请求体没有内容 (get请求的请求体放在 url后面参数中,直接能看到) 如果是post方式,请求体是format data ps:1、登录窗口,文件上传等,信息都会被附加到请求体内 2、登录,输入错误的用户名密码,然后提交,就可以看到post,正确登录后页面通常会跳转,无法捕捉到post 1.3.2 response (1)响应状态码
(2)response header 响应头需要注意的参数:Set-Cookie:BDSVRTM=0; path=/:可能有多个,是来告诉浏览器,把cookie保存下来 (3)preview就是网页源代码 json数据 如网页html,图片 二进制数据等 02 二、基础模块 2.1requests requests是python实现的简单易用的HTTP库,是由urllib的升级而来。 开源地址: https://github.com/kennethreitz/requests
中文API: http://docs./zh_CN/latest/index.html 2.2re 正则表达式 在 Python 中使用内置的 re 模块来使用正则表达式。 缺点:处理数据不稳定、工作量大 2.3XPath Xpath(XML Path Language) 是一门在 XML 文档中查找信息的语言,可用来在 XML 文档中对元素和属性进行遍历。 在python中主要使用 lxml 库来进行xpath获取(在框架中不使用lxml,框架内直接使用xpath即可) lxml 是 一个HTML/XML的解析器,主要的功能是如何解析和提取 HTML/XML 数据。 lxml和正则一样,也是用 C 实现的,是一款高性能的 Python HTML/XML 解析器,我们可以利用之前学习的XPath语法,来快速的定位特定元素以及节点信息。 2.4BeautifulSoup 和 lxml 一样,Beautiful Soup 也是一个HTML/XML的解析器,主要的功能也是如何解析和提取 HTML/XML 数据。 使用BeautifulSoup需要导入bs4库 缺点:相对正则和xpath处理速度慢 优点:使用简单 2.5Json JSON(JavaScript Object Notation) 是一种轻量级的数据交换格式,它使得人们很容易的进行阅读和编写。同时也方便了机器进行解析和生成。适用于进行数据交互的场景,比如网站前台与后台之间的数据交互。 在python中主要使用 json 模块来处理 json数据。Json解析网站: https://www./simple_json.html
2.6threading 使用threading模块创建线程,直接从threading.Thread继承,然后重写__init__方法和run方法 03 三、方法实例 3.1get方法实例 demo_get.py 3.2post方法实例 demo_post.py 3.3添加代理 demo_proxies.py 3.4获取ajax类数据实例 demo_ajax.py 3.5使用多线程实例 demo_thread.py 04 四、爬虫框架 4.1Srcapy框架
4.2Scrapy架构图 4.3Scrapy主要组件
4.4Scrapy的运作流程
4.5制作Scrapy爬虫4步曲 1新建爬虫项目scrapy startproject mySpider2明确目标 (编写items.py)打开mySpider目录下的items.py3制作爬虫 (spiders/xxspider.py)scrapy genspider gushi365 'gushi365.com'4存储内容 (pipelines.py)设计管道存储爬取内容 05 五、常用工具 5.1fidder fidder是一款抓包工具,主要用于手机抓包。 5.2XPath Helper xpath helper插件是一款免费的chrome爬虫网页解析工具。可以帮助用户解决在获取xpath路径时无法正常定位等问题。 谷歌浏览器插件xpath helper 的安装和使用: https://jingyan.baidu.com/article/1e5468f94694ac484861b77d.html 06 六、分布式爬虫 6.1scrapy-redis Scrapy-redis是为了更方便地实现Scrapy分布式爬取,而提供了一些以redis为基础的组件(pip install scrapy-redis) github网站:https://github.com/rolando/scrapy-redis
6.2分布式策略
|
|