这是Hadoop学习全程记录第1篇,在这篇里我将介绍一下如何在Linux下安装Hadoop1.x。
先说明一下我的开发环境:
虚拟机:VMware8.0;
操作系统:CentOS6.4;
版本:jdk1.8;hadoop1.2.1
①下载hadoop1.2.1,网盘:链接: https://pan.baidu.com/s/1sl5DMIp 密码: 5p67
下载jdk1.8,网盘:链接: https://pan.baidu.com/s/1boN1gh5 密码: t36h
将 jdk-8u144-linux-x64.tar.gz 解压至 /home/wyt/jdk8 文件夹下,将 hadoop-1.2.1.tar.gz 解压至 /home/wyt/hadoop 文件夹下。
②配置jdk及hadoop环境变量:修改/etc/profile文件
vim /etc/profile //输入I,进入编辑模式
export JAVA_HOME=/home/wyt/jdk8 export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib export HADOOP_HOME=/home/wyt/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$JAVA_HOME/bin
//按Esc,按Shift,输入:wq source /etc/profile //保存并退出
③测试
java,javac,java -version hadoop
④修改hadoop配置文件
<!-- hadoop-env.sh --> export JAVA_HOME=/usr/java/jdk8 <!-- core-site.xml --> <property> <name>hadoop.tmp.dir</name> <value>/hadoop</value> </property> <property> <name>dfs.name.dir</name> <value>/hadoop/name</value> </property> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> <!-- hdfs-site.xml --> <property> <name>dfs.data.dir</name> <value>/hadoop/data</value> </property> <!-- mapred-site.xml --> <property> <name>mapred.job.tracker</name> <value>localhost:9001</value> </property>
并在hadoop安装目录下新建data、name、tmp文件夹。
⑤名称节点格式化,并查看运行状态
hadoop namenode -format //cd 命令切换至 hadoop/bin/文件夹下,输入 ls 命令查看 start-all.sh jps //查看运行状态,运行正常的话需要多次输入密码 //最后结果为: // Jps // JobTracker // NameNode // DataNode // SecondaryNameNode // NodeManager
⑥测试hdfs
//常用hdfs命令: hadoop fs -ls /查看目录 hadoop fs -put a.txt /user/hadoop/放入 hadoop fs -cat /user/hadoop/a.txt 查看内容 hadoop fs -rmr /output:删除文件/文件夹
附:linux常用命令:
cd .. //返回上级目录 cd ~ //返回Home目录 cd / //返回根目录 cd var/ //进入var/文件夹下(使用tab) su - //超级管理员模式 ifconfig //查看ip
附:其他常用linux操作软件:
//windows与虚拟机centos文件传输: filezilla;Xftp 5;或者安装VMware Tools(可便捷使用剪切板及文件复制功能) //脱离虚拟机centos输入命令行: Xshell 5
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持呐喊教程。
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:notice#nhooo.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。