分享

在Ubuntu下使用Eclispe连接hadoop时拒绝链接解决方案总结

 qweertt4747 2017-04-11
用eclipse连接集群查看文件信息提示9000端口拒绝连接的错误
Cannot connect to the Map/Reduce location: hadoop1.0.3

Call to ubuntu/192.168.1.111:9000 failed on connection exception: Java.NET.ConnectException: 拒绝连接

1.常见解决办法:配置都很正常,就是连接不了。后来重新配置Hadoop location,把Map/Reduce Master 和 DFS Master中的Host由localhost改成了ip地址(192.168.1.111),然后问题就解决了。奇怪,localhost不就是本机嘛,而namenode主机(192.168.1.111)也是本机。

2.eclipse的hadoop插件与hadoop的版本号不一致导致的,你最好使用下载的hadoop包解压后的contri文件中的eclipse插件

3.hadoop-site.xml文件配置错误

  1. <property>  
  2. <name>fs.default.name</name>  
  3. <value>hdfs://你的用户名:9000</value>  
  4. </property>  
  5. <property>  
  6. <name>mapred.job.tracker</name>  
  7. <value>hdfs://用户名:9001</value>  
  8. </property>  

4.关闭hdfs权限:hdfs-site.xml中
  1. <property>      
  2.     <!-- 是否对DFS中的文件进行权限控制(测试中一般用false)-->      
  3.     <name>dfs.permissions</name>      
  4.     <value>false</value>      
  5. </property>  
  6. 5.检查eclipse插件是否设置了hadoop安装目录:将与linux下安装的hadoop相同版本的hadoop解压到windows下一个文件夹,然后指定hadoop插件目录,插件目录在preferences的map/reduce的hadoop installation location  
  7. 6.在windows的hosts文件中添加hadoop所有节点的ip和主机名  
  8. 7.关闭linux系统防火墙  
  9. 8.把hadoop三个配置文件中涉及到的主机名全部改成ip地址,master和salves文件也改成ip  
  10. 9/etc/hosts出错  
10,补充一种最有意思也是最坑人的问题!也许你得hadoop根本就没有启动!!!


    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多