分享

【小白视角】大数据基础实践(一)搭建Hadoop集群

 小生凡一 2021-11-30

大数据实践第一篇,面向小白编程

搭建Hadoop集群

Ubuntu的操作

1.下载文件

1.1下载ubuntu镜像文件

注:推荐使用16.04或是18.04版本

下载地址链接pub.mirrors.aliyun.com

进入下载页面,如下图,选择版本进入选择 ubuntu-X.X.X-desktop-amd64.iso 下载即可

1.2 下载及安装VMware

百度搜索随便安装即可,建议安装到磁盘比较大的地方,其他选择默认就可以了,网上找找破解码即可。

1.3在VMware安装Ubuntu

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Uopq21rb-1622253791581)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20210529090233011.png)]

在这里插入图片描述

选择下载的iso文件

在这里插入图片描述

然后随便搞搞这个,密码最好简单一点,我是用root

虚拟机名字可以整成Hadoop,位置最好不要放C盘,放其他大一点的盘,

在这里插入图片描述

然后一直按下一步就行了

在这里插入图片描述

然后等待安装完就行了。

进去之后

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

继续就可了 在这里插入图片描述

选择城市

在这里插入图片描述

在这里插入图片描述

密码就随便搞搞吧

在这里插入图片描述

然后就可以了

在这里插入图片描述

1.4安装VMware Tools工具

点击虚拟机进行安装即可。然后重启一下就行了。

在这里插入图片描述

2.安装必要配置

2.1换源

我们先要换源

找到这个Software & Update

在这里插入图片描述

找到自己想要换的源头

在这里插入图片描述

即可

2.2 安装vim

sudo apt-get install vim
sudo apt-get update

2.3 安装net-tools

在这里插入图片描述

2.4 安装jdk1.8

2.4.1创建

创建一个文件将jdk包放入

在这里插入图片描述

2.4.2配置环境

vim ~/.bashrc

在这里插入图片描述

像这样配置环境即可

在这里插入图片描述

退出并保存.bashrc文件,用source命令使之生效,能在任意目录下查看Java版本号、或执行java命令表示JDPK配置成功

2.5 open-server

sudo apt-get install openssh-server 

3 配置静态IP

3.1设置

Vmware 菜单栏“虚拟机”→“设置”→“网络适配器”→“桥接模式”

在这里插入图片描述

3.2 配置

虚拟网络编辑器中设置虚拟网络连接到的外部网络 Vmware 菜单栏“编辑”→“虚拟网络编辑器”

在这里插入图片描述

在这里插入图片描述

3.3修改配置文件

3.3.1 interfaces文件

sudo vim /etc/network/interfaces

在这里插入图片描述

3.3.2 DNS服务文件

sudo vim /etc/systemd/resolved.conf

在这里插入图片描述

3.4 重启网卡

sudo /etc/init.d/networking restart

在这里插入图片描述

出现ok即可

测试ping百度,发现可以就行了。

在这里插入图片描述

查看ip是否被修改了。

在这里插入图片描述

4 安装IDEA

找到下载中心安装即可。

在这里插入图片描述

运行hello world可以,即可 在这里插入图片描述

5 配置ssh免密登陆

5.1确认ssh服务安装并启动

在这里插入图片描述

使用

dpkg –l | grep ssh
ps –e | grep ssh

确认ssh服务安装并启动

在这里插入图片描述

在用户根目录输入指令

ssh-keygen -t rsa

在这里插入图片描述

免密登陆所以直接回车就可以了

在这里插入图片描述

id_rsa为私钥,id_rsa.pub为公钥

创建一个authorized_keys文件用于存放远程免密登录机器的公钥,再将本机公钥追加到authorized_keys文件中,实现本机免密登录。最后赋予authorized_keys文件有效权限。

最后

ssh localhost

免密登陆成功。

在这里插入图片描述

6 搭建Hadoop集群

6.1 克隆

在这里插入图片描述

在这里插入图片描述

按照指示就可以完成克隆了。建议命名成Hadoop1,Hadoop2

然后按照要求再将其中地址更改,防止一样的造成冲突。

我是主机Hadoop 192.168.43.200

Hadoop-Clone1192.168.43.201

Hadoop-Clone2 192.168.43.202

在这里插入图片描述

6.2 使用xftp6

使用xftp6辅助,将每台机器的公钥文件id_rsa.pub分别复制到其他两台机器上。

在这里插入图片描述

在这里插入图片描述

另外克隆的两台机子的也要进行步骤5的ssh免密登陆的操作。

6.3 将私钥放入其他两台机子当中


在这里插入图片描述
在这里插入图片描述

6.4 测试 ssh 是否成功

注意ssh 后面跟着是你的主机 我的是031904102 所以ssh 031904102 ,031904102是我主节点的名字。

在这里插入图片描述

成功Hadoop集群便搭建成功了!

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多