安装Hadoop教程 蓝色字为输入的命令,所需要文件已经打包好。 注意:路径记得配置你自己的路径,主机名也是你自己的。 一、修改主机名(注意本教程主机名为 hadoop 如果不一样记得以自己的为准) cd /etc/sysconfig (进入目录) vim network (编辑地址,主机名修改) cat network 修改主机名和IP地址具有映射关系 vim /etc/hosts (进入目录) 命令reboot,重新 二、正式开始安装: 前面的上传就不说了,就从解压开始。 1. 首先,你的目录要指定:/usr/local/soft/ (在这个目录下解压你的文件) 2. tar -zxvf hadoop的文件名(解压命令) 3. 接下来你会用到 putty中文版1.0v.exe,这个工具 4. 点击,输入你虚拟机的IP即可连接 5. 然后进入目录: cd /usr/local/soft/hadoop-2.4.1/etc/hadoop 1). vi core-site.xml(修改文件) <configuration> <property> <name>fs.default.name</name> <value>hdfs://hadoop:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>file:/usr/local/soft/hadoop-2.4.1/tmp</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> 2). vi hdfs-site.xml(修改文件) <configuration> <property> <name>dfs.datanode.data.dir</name> <value>/usr/local/soft/hadoop-2.4.1/hdf/data</value> <final>true</final> </property> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/usr/local/soft/hadoop-2.4.1/hdf/name</value> <final>true</final> </property> </configuration> 3). mv mapred-site.xml.template mapred-site.xml 4). vi mapred-site.xml(修改文件) <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>hadoop:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>hadoop:19888</value> </property> <property> <name>mapred.job.tracker</name> <value>hadoop:9001</value> </property> </configuration> 5). vi yarn-site.xml(修改文件) <property> <name>yarn.resourcemanager.hostname</name> <value>hadoop</value> </property> <!-- reducer --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <value>org.apache.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>hadoop:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>hadoop:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>hadoop:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>hadoop:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>hadoop:8088</value> </property> 5.1) vi hadoop-env.sh 配置环境 export JAVA_HOME=/usr/jdk/jdk1.7.0_79 export HADOOP_HOME=/usr/local/soft/hadoop-2.4.1 export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_HOME}/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib" 5.2)vi yarn-env.sh 配置环境 export HADOOP_YARN_USER=${HADOOP_YARN_USER:-yarn} export JAVA_HOME=/usr/jdk/jdk1.7.0_79 export HADOOP_HOME=/usr/local/soft/hadoop-2.4.1 export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_HOME}/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib" 6). vi /etc/profile 把Hadoop的安装目录配置到环境变量中 7). 让配置文件生效’执行命令 source /etc/profile 8).前面没有错误之后再格式化,切记 hdfs namenode -format 或者 hadoop namenode -format 实现格式化 9).首先执行命令 start-dfs.sh 10). 启动Yarn,执行命令start-yarn.sh 11).启动之后,在任意目录下执行 jps 命令 12).首先在浏览器地址栏中输入 http:// 192.168.43.170:50070 13).配置免密: 进入: cd /root/.ssh 生成: ssh-keygen -t rsa 查看公钥和私钥内容,执行命令 cat id_rsa 和 cat id_rsa.pub 完成!!! |
|