采用伪分布模式安装和设置CDH,前提是已经安装了Java和SSH。
1. 下载hadoop-2.6.0-cdh5.9.0,复制到/opt/下,再解压;
2. 进入/opt/hadoop-2.6.0-cdh5.9.0/etc/hadoop/,在hadoop-env.sh中添加:
export JAVA_HOME=/opt/jdk1.8.0_121export HADOOP_HOME=/opt/hadoop-2.6.0-cdh5.9.0
修改配置文件core-tite.xml:
hadoop.tmp.dir /home/hadoop/tmp fs.default.name hdfs://192.168.1.104:9000
其中hadoop.tmp.dir最好自己设置,不要采用默认的设置,因为默认的设置是在/tmp/下面,机器重启以后会被删除掉,造成Hadoop不能运行,要再次格式化NameNode才能运行。
hdfs-site.xml:
dfs.replication 1 dfs.name.dir /opt/hdfs/name dfs.data.dir /opt/hdfs/data dfs.tmp.dir /opt/hdfs/tmp
mapred-site.xml:
mapreduce.framework.name yarn mapred.job.tracker hdfs://192.168.1.104:9001
3. 在/etc/profile后面加上:
export HADOOP_HOME=/opt/hadoop-2.6.0-cdh5.9.0export PATH=$PATH:$HADOOP_HOME/bin
并且输入命令:
source /etc/profile
使设置生效。
4. 输入命令:
hadoop namenode -format
格式化NameNode,如果结果提示Successful表明格式化成功。
5. 进入/opt/hadoop-2.6.0-cdh5.9.0/etc/hadoop/sbin,输入命令:
./start-all.sh
启动Hadoop。为了检验是否启动成功,输入命令:
jps
如果结果包含了以下几个进程,则表明启动成功:
也可以在浏览器里面输入地址http://localhost:50070,检验是否启动成功: