做一个网络爬虫的程序吧,根据客户的需求,要求把相关的内容爬取到本地 最终选择的是apache nutch,到目前为止最新的版本是1.3 1. Nutch是什么?Nutch是一个开源的网页抓取工具,主要用于收集网页数据,然后对其进行分析,建立索引,以提供相应的接口来对其网页数据进行查询的一套工具。其底层使用了Hadoop来做分布式计算与存储,索引使用了Solr分布式索引框架来做,Solr是一个开源的全文索引框架,从Nutch 1.3开始,其集成了这个索引架构 2. 在哪里要可以下载到最新的Nutch?在下面地址中可以下载到最新的Nutch 1.3二进制包和源代码 3. 如何配置Nutch?3.1 对下载后的压缩包进行解压,然后cd $HOME/nutch-1.3/runtime/local 3.2 配置bin/nutch这个文件的权限,使用chmod +x bin/nutch 3.3 配置JAVA_HOME,使用export JAVA_HOME=$PATH 4. 抓取前要做什么准备工作?4.1 配置http.agent.name这个属性,在conf目录下
4.2 建立一个地址目录,mkdir -p urls在这个目录中建立一个url文件,写上一些url,如
4.3 然后运行如下命令
注意,这里是不带索引的,如果要对抓取的数据建立索引,运行如下命令 -dir 选项设置抓取结果存放目录 -depth 选项设置爬取的深度 -threads 选项设置并行爬取的线程数 -topN 选项设置每个深度爬取的最大页数 最后就可以查看mydir中的结果了 一个典型的爬虫主要有如下阶段
不知道为什么在Nutch-1.3中没了Nutch自带的搜索war文件,而且在Nutch-1.3中,抓取文件后,生成的目录只有crawldb,linkdb,segments 查了一下官网Wiki,上面是把Nutch的索引映射到solr,用solr来提供搜索功能,详见官网Wiki说明:http://wiki./nutch/RunningNutchAndSolr 对比这两个,搜索同一关键字,发现Nutch搜索的展示结果有重复,而solr没有重复,还有solr可以在conf/schema.xml配置字段属 性,nutch好像改了这个配置文件,也没起效果,比如,我想让索引中存储content和termvector,可是搜索结果,并没有存储 下面安装并且配置solr 从官方下载 http://www./dyn/closer.cgi/lucene/solr/ 下载完成后解压缩 到solr的example目录下,运行 java -jar start.jar 运行成功如图 打开浏览器 http://localhost:8983/solr/ 进入solradmin出现如下界面,运行成功
hadoop使用:hbase实战:
|
|