分享

手把手教你写网络爬虫(3):开源爬虫框架对比

 LibraryPKU 2018-05-10


来源: 拓海

ProjectLanguageStarWatchFork
NutchJava1111195808
webmagicJava42166182306
WebCollectorJava1222255958
heritrix3Java773141428
crawler4jJava18312421136
PyspiderPython85816872273
ScrapyPython1964214055261

看到了吗?星星数排名第一的Scrapy比其他所有的加起来都要多,我仿佛听到他这样说:

优点:

  1. 极其灵活的定制化爬取。

  2. 社区人数多、文档完善。

  3. URL去重采用布隆过滤器方案。

  4. 可以处理不完整的HTML,Scrapy已经提供了selectors(一个在lxml的基础上提供了更高级的接口),可以高效地处理不完整的HTML代码。

缺点:

  1. 不支持分布式部署。

  2. 原生不支持抓取JavaScript的页面。

  3. 全命令行操作,对用户不友好,需要一定学习周期。

结论

篇幅有限,就先选择这三个最有代表性的框架进行PK。他们都有远超别人的优点,比如:Nutch天生的搜索引擎解决方案、Pyspider产品级的WebUI、Scrapy最灵活的定制化爬取。也都各自致命的缺点,比如Scrapy不支持分布式部署,Pyspider不够灵活,Nutch和搜索绑定。究竟该怎么选择呢?

我们的目标是做纯粹的爬虫,不是搜索引擎,所以先把Nutch排除掉,剩下人性化的Pyspider和高可定制的Scrapy。Scrapy的灵活性几乎能够让我们完成任何苛刻的抓取需求,它的“难用”也让我们不知不觉的研究爬虫技术。现在还不是享受Pyspider的时候,目前的当务之急是打好基础,应该学习最接近爬虫本质的框架,了解它的原理,所以把Pyspider也排除掉。

最终,理性的从个人的需求角度对比,还是Scrapy胜出!其实Scrapy还有更多优点:

  1. HTML, XML源数据选择及提取的原生支持。

  2. 提供了一系列在spider之间共享的可复用的过滤器(即 Item Loaders),对智能处理爬取数据提供了内置支持。

  3. 通过 feed导出 提供了多格式(JSON、CSV、XML),多存储后端(FTP、S3、本地文件系统)的内置支持。

  4. 提供了media pipeline,可以 自动下载 爬取到的数据中的图片(或者其他资源)。

  5. 高扩展性。您可以通过使用 signals ,设计好的API(中间件, extensions, pipelines)来定制实现您的功能。

  6. 内置的中间件及扩展为下列功能提供了支持:

    1. cookies and session 处理

    2. HTTP 压缩

    3. HTTP 认证

    4. HTTP 缓存

    5. user-agent模拟

    6. robots.txt

    7. 爬取深度限制

  7. 针对非英语语系中不标准或者错误的编码声明, 提供了自动检测以及健壮的编码支持。

  8. 支持根据模板生成爬虫。在加速爬虫创建的同时,保持在大型项目中的代码更为一致。

  9. 针对多爬虫下性能评估、失败检测,提供了可扩展的 状态收集工具 。

  10. 提供 交互式shell终端 , 为您测试XPath表达式,编写和调试爬虫提供了极大的方便。

  11. 提供 System service, 简化在生产环境的部署及运行。

  12. 内置 Telnet终端 ,通过在Scrapy进程中钩入Python终端,使您可以查看并且调试爬虫。

  13. Logging 为您在爬取过程中捕捉错误提供了方便。

  14. 支持 Sitemaps 爬取。

  15. 具有缓存的DNS解析器。

下一步

吹了半天的Scrapy,时间也到了,如果大家能够喜欢上它,学习的效率一定会成倍提升!下次我会为大家带来满满的干货,并完成更具挑战性的爬虫任务,我们下期再见!

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多