用于测试,我用4台虚拟机搭建成了hadoop结构
我用了两个台式机。一个xp系统,一个win7系统。每台电脑装两个虚拟机,要不然内存就满了。
1、安装虚拟机环境
Vmware,收费产品,占内存较大。
或
Oracle的VirtualBox,开源产品,占内存较小,但安装ubuntu过程中,重启会出错。
我选Vmware。
2、安装操作系统
Centos,红帽开源版,接近于生产环境。
Ubuntu,操作简单,方便,界面友好。
我选Ubuntu12.10.X 32位
3、安装一些常用的软件
在每台linux虚拟机上,安装:vim,ssh
sudo apt-get install vim
sudo apt-get install ssh
在客户端,也就是win7上,安装SecureCRT,Winscp或putty,这几个程序,都是依靠ssh服务来操作的,所以前提必须安装ssh服务。
service ssh status 查看ssh状态。如果关闭使用service ssh start开启服务。
SecureCRT,可以通过ssh远程访问linux虚拟机。
winSCP或putty,可以从win7向linux上传文件。
4、修改主机名和网络配置
主机名分别为:master,host2,host3,host4。
sudo vim /etc/hostname
网络配置,包括ip地址,子网掩码,DNS服务器。如上图所示。
5、修改/etc/hosts文件。
修改每台电脑的hosts文件。
hosts文件和windows上的功能是一样的。存储主机名和ip地址的映射。
在每台linux上,sudo vim /etc/hosts 编写hosts文件。将主机名和ip地址的映射填写进去。编辑完后,结果如下:
6、配置ssh,实现无密码登陆
无密码登陆,效果也就是在master上,通过 ssh host2 或 ssh host3 或 ssh host4 就可以登陆到对方计算机上。而且不用输入密码。
四台虚拟机上,使用 ssh-keygen -t rsa 一路按回车就行了。
刚才都作甚了呢?主要是设置ssh的密钥和密钥的存放路径。 路径为~/.ssh下。
打开~/.ssh 下面有三个文件
authorized_keys,已认证的keys
id_rsa,私钥
id_rsa.pub,公钥 三个文件。
下面就是关键的地方了,(我们要做ssh认证。进行下面操作前,可以先搜关于认证和加密区别以及各自的过程。)
①在master上将公钥放到authorized_keys里。命令:sudo cat id_rsa.pub >> authorized_keys
②将master上的authorized_keys放到其他linux的~/.ssh目录下。
命令:sudo scp authorized_keys hadoop@10.10.11.192:~/.ssh
sudo scp authorized_keys 远程主机用户名@远程主机名或ip:存放路径。
③修改authorized_keys权限,命令:chmod 644 authorized_keys
④测试是否成功
ssh host2 输入用户名密码,然后退出,再次ssh host2不用密码,直接进入系统。这就表示成功了。
7、上传jdk,并配置环境变量。
通过winSCP将文件上传到linux中。将文件放到/usr/lib/java中,四个linux都要操作。
解压缩:tar -zxvf jdk1.7.0_21.tar
设置环境变量 sudo vim ~/.bashrc
在最下面添加:
export JAVA_HOME = /usr/lib/java/jdk1.7.0_21
export PATH = $JAVA_HOME/bin:$PATH
修改完后,用source ~/.bashrc让配置文件生效。
8、上传hadoop,配置hadoop
通过winSCP,上传hadoop,到/usr/local/下,解压缩tar -zxvf hadoop1.2.1.tar
再重命名一下,sudo mv hadoop1.2.1 hadoop
这样目录就变成/usr/local/hadoop
①修改环境变量,将hadoop加进去(最后四个linux都操作一次)
sudo vim ~/.bashrc
export HADOOP_HOME = /usr/local/hadoop
export PATH = $JAVA_HOme/bin:$HADOOP_HOME/bin:$PATH
修改完后,用source ~/.bashrc让配置文件生效。
②修改/usr/local/hadoop/conf下配置文件
hadoop-env.sh,
(上面这张图片,有一些问题,只export JAVA_HOME进去就可以了,不用export HADOOP_HOME和PATH了 )
core-site.xml,
hdfs-site.xml,
mapred-site.xml,
master,
slave,
上面的hadoop-env.sh,core-site.xml,mapred-site.xml,hdfs-site.xml,master,slave几个文件,在四台linux中都是一样的。
配置完一台电脑后,可以将hadoop包,直接拷贝到其他电脑上。
③最后要记得,将hadoop的用户加进去,命令为
sudo chown -R hadoop:hadoop hadoop
sudo chown -R 用户名@用户组 目录名
④让hadoop配置生效
source hadoop-env.sh
⑤格式化namenode,只格式一次
hadoop namenode -format
⑥启动hadoop
切到/usr/local/hadoop/bin目录下,执行 start-all.sh启动所有程序
⑦查看进程,是否启动
jps
master,
host2,
host3,host4,的显示结果,与host2相同。
如何配置Hadoop环境
可以通过附加下面的命令到 ~\/.bashrc 文件中设置 Hadoop 环境变量。export HADOOP_HOME=\/usr\/local\/hadoop 在进一步讨论之前,需要确保Hadoop工作正常。发出以下命令:hadoop version 如果设置的一切正常,那么应该看到以下结果:Hadoop 2.4.1 Subversion https:\/\/svn.apache.org\/repos\/asf\/hadoop\/common -...
Intelj IDEA 配置 Hadoop 远程调试环境
1. 下载并安装Hadoop:从官方下载hadoop-3.0.0.tar.gz,将其解压至D:\\BigData\\并重命名目录为hadoop。2. 配置环境变量:- 设置HADOOP_HOME,指向Hadoop安装目录。- 对于HADOOP_USER_NAME,Windows用户需要更改以确保Big Data Tools的权限。默认情况下,HADOOP_USER_NAME应与本地Windows用户匹配,否则...
hadoop分布式集群搭建
1、解压安装包:在主节点下载并解压Hadoop安装包,创建基本目录。2、配置环境变量:修改配置文件,设置HADOOP_HOME和PATH环境变量,使得在终端立即生效。3、配置核心文件:分别配置core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml,通过参数指定NameNode、DataNode、ResourceManager和NodeManager...
简述hadoop大数据平台搭建的主要步骤
搭建Hadoop大数据平台的主要步骤包括:环境准备、Hadoop安装与配置、集群设置、测试与验证。环境准备 在搭建Hadoop大数据平台之前,首先需要准备相应的硬件和软件环境。硬件环境通常包括多台服务器或者虚拟机,用于构建Hadoop的分布式集群。软件环境则包括操作系统、Java运行环境等。例如,可以选择CentOS或Ubuntu等Linu...
使用root用户完成相关配置,安装hadoop需要配置前置环境?
下载 Hadoop 的最新版本,例如 Apache Hadoop 2.9.2。解压 Hadoop 压缩包,并将其放置在某个有读写权限的目录下。配置 Hadoop 的环境变量,以便系统可以找到 Hadoop 的二进制文件。在 Linux 系统中,可以在 .bashrc 文件中添加以下语句:Copy code export HADOOP_HOME=\/usr\/local\/hadoop ex...
hadoop安装\/基于KOS大数据环境搭建
安装步骤1. 安装Java在KOS上通过官方源安装Java 8:`dnf install java-1.8.0 java-1.8.0-openjdk-devel -y`,然后检查安装版本。2. 获取Hadoop访问Apache基金会网站下载Hadoop二进制包,然后解压到指定目录如`\/hadoop`。3. 配置环境变量修改`\/root\/.bashrc`或`\/etc\/profile`,添加JAVA_HOME、...
linux平台下Hadoop下载、安装、配置
在配置环境阶段,使用CentOS 6.4版本操作系统。首先确保虚拟网卡与Linux网卡在同一个网段,修改Linux的IP地址和主机名,关闭防火墙。安装Java JDK,使用共享文件夹工具将Windows文件共享至Linux平台,并添加到环境变量中。紧接着安装Hadoop,下载hadoop-2.2.0.tar.gz并上传至Linux根目录,解压并配置Hadoop伪...
Hadoop 在mac本地的配置
下载Hadoop:下载Hadoop-2.9.2版本,并解压至本地目录。添加环境变量:使用vim编辑.bash_profile文件,添加JAVA_HOME、HADOOP_CONF_DIR和HADOOP_HOME配置。修改配置文件:使用vim编辑core_site.xml、hdfs-site.xml和yarn-site.xml文件,根据本地环境修改。启动Hadoop:进入Hadoop解压目录的sbin文件夹,启动...
怎么搭建两个hadoop集群的测试环境
6、配置ssh,实现节点间的无密码登录 ssh node1\/2指令验证时候成功7、master配置hadoop,并将hadoop文件传输到node节点 8、配置环境变量,并启动hadoop,检查是否安装成功,执行wordcount检查是否成功。 1.安装虚拟机 在VM上安装下载好的Ubuntu的系统,具体过程自行百度。可以安装完一个以后克隆,但是本人安装过程中遇到很多...
Hadoop--HDFS的API环境搭建、在IDEA里对HDFS简单操作
Hadoop HDFS API环境搭建与IDEA操作指南 在Windows系统中,首先安装Hadoop。安装完成后,可以利用Maven将其与Hadoop集成,便于管理和操作。在项目的resources目录中,创建一个名为"log4j.properties"的配置文件,以配置日志相关设置。接着,在Java项目中,创建一个名为"hdfs"的包,然后在其中创建一个类。这个...