环境:
Jdk1.6
Hadoop-2.20.1
Fuse-2.8.1
Jdk1.6下载地址
hadoop-2.20.1下载地址http://www.apache.org/dyn/closer.cgi/hadoop/core/
Fuse-2.8.1下载地址http://sourceforge.net/projects/fuse/files/fuse-2.X/
NameNode 192.168.1.11 Centos 5.3 hostname master-dfs
JobTracker 192.168.1.11 (这个也可单独配置一台)
DataNode 192.168.1.12 Centos 5.3 hostname:data-dfs
Client 192.168.1.13 Centos 5.3 hostname:client-dfs
先决条件
配置ssh自动登陆,详细见http://hadoop.apache.org/common/docs/r0.20.0/quickstart.html
安装
1、JDK安装,解压到/usr/local/jdk1.6,并配置/etc/profile环境
| export JAVA_HOME=/usr/local/jdk1.6 export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre:$PATH export CLASSPATH=$JAVA_HOME/lib:$JAVA_HOME/lib/tools.jar | 
2、下载Hadoop 解压到每台服务器的/data/soft目录下,最好目录都相同。
| tar zxvf hadoop-2.20.1.tar.gz | 
配置说明
具体配置选项说明详见
http://www.hadoop.org.cn/document/cn/r0.18.2/cluster_setup.html
1、修改conf/hadoop-env.sh,添加jdk支持
| export JAVA_HOME=/usr/local/jdk1.6 | 
| <configuration> <property>    <property> <property> 
 </configuration> | 
| <property> <name>mapred.job.tracker</name> //JobTracker的主机(或者IP)和端口。 <value>ws:54311</value> </property> | 
| master-dfs | 
| 192.168.1.11 master-dfs 192.168.1.12 data-dfs 192.168.1.13 client-dfs | 
| data-dfs | 
| scp -rp /data/soft/hadoop-2.20.1 192.168.1.12:/data/soft scp -rp /data/soft/hadoop-2.20.1 192.168.1.13:/data/soft | 
| [master@hadoop]$bin/hadoop namenode -format | 
不出意外,应该会提示格式化成功。如果不成功,就去hadoop/logs/目录下去查看日志文件。
7、启动Hdfs分布式文件系统
进入hadoop目录,在bin/下面有很多启动脚本,可以根据自己的需要来启动。
| * start-all.sh 启动所有的Hadoop守护。包括namenode, datanode, jobtracker, tasktrack * stop-all.sh 停止所有的Hadoop * start-mapred.sh 启动Map/Reduce守护。包括Jobtracker和Tasktrack * stop-mapred.sh 停止Map/Reduce守护 * start-dfs.sh 启动Hadoop DFS守护.Namenode和Datanode * stop-dfs.sh 停止DFS守护 | 
| [master@hadoop]bin/start-all.sh  //会自动找到conf/slaves文件里的IP或者机器名,启动相应的slaves服务端 同样,如果要停止hadoop,则 [master@hadoop]$bin/stop-all.sh | 
进入Hadoop目录,运行bin/目录的hadoop命令,可以查看Haoop所有支持的操作及其用法,这里以几个简单的操作为例。
建立目录
| [master@hadoop]$bin/hadoop dfs -mkdir testdir 在HDFS中建立一个名为testdir的目录 复制文件 [master@hadoop]$bin/hadoop dfs -put /home/dbrg/large.zip testfile.zip 把本地文件large.zip拷贝到HDFS的根目录/user/dbrg/下,文件名为testfile.zip 查看现有文件 [master@hadoop]$bin/hadoop dfs -ls | 
| Name node is in safe mode错误: rmr: org.apache.hadoop.dfs.SafeModeException: Cannot delete /user/hadoop/input. Name node is in safe mode | 
| bin/hadoop dfsadmin -safemode leave #关闭safe mode | 



