CentOS 6.5 配置hadoop 2.6.0伪分布式
分类:CentOS运维 阅读:75515 次
操作系统:CentOS 6.5 32位
Java环境:jdk 1.7.0_71
hadoop下载地址:http://apache.fayea.com/hadoop/common/stable/hadoop-2.6.0.tar.gz
1.创建用户组和用户
使用su命令切换用户为root
- groupaddhadoop
- useraddhadoophadoop
- passwdhadoop#为用户添加密码可以不设置密码
2.安装ssh
- rpm-qa|grepssh#检查是否装了SSH包
- yuminstallopenssh-server#安装ssh
- chkconfig--listsshd#检查SSHD是否设置为开机启动
- chkconfig--level2345sshdon#如果没设置启动就设置下.
- servicesshdrestart#重新启动
3.配置ssh无密码登录
切换至hadoop用户
- suhadoop
- ssh-keygen-trsa-P""
进入.ssh目录,并将id_rsa.pub追加到authorized_keys文件中
- cd./.ssh
- catid_rsa.pub>>authorized_keys
- chmod600authorized_keys#修改用户权限
测试是否可以登录
- sshlocalhost#执行后会提示输入yesorno.输入yes后如果提示为最后一次登录时间则表明成功。
将下载的hadoop解压并移动到期望的安装目录,修改其访问权限
- tar-xvfhadoop-2.6.0.tar.gz
- mvhadoop-2.6.0/usr/opt/hadoop
- chmod-R775/usr/opt/hadoop
- chown-Rhadoop:hadoop/usr/opt/hadoop
- su
- vim/etc/profile
- exportHADOOP_INSTALL=/usr/opt/hadoop
- exportPATH=${HADOOP_INSTALL}/bin:${HADOOP_INSTALL}/sbin${PATH}
- exportHADOOP_MAPRED_HOME=${HADOOP_INSTALL}
- exportHADOOP_COMMON_HOME=${HADOOP_INSTALL}
- exportHADOOP_HDFS_HOME=${HADOOP_INSTALL}
- exportYARN_HOME=${HADOOP_INSTALLL}
- exportHADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_INSTALL}/lib/natvie
- exportHADOOP_OPTS="-Djava.library.path=${HADOOP_INSTALL}/lib:${HADOOP_INSTALL}/lib/native"
- cd/usr/opt/hadoop
- vim./etc/hadoop/hadoop-env.sh
- exportJAVA_HOME={你的java环境变量}
5.配置伪分布式
hadoop的配置文件主要有core-site.xml 、 hdfs-site.xml 、 yarn-site.xml 三个文件。
- cd/usr/opt/hadoop/etc/hadoop
core-site.xml
- <configuration>
- <property>
- <name>hadoop.tmp.dir</name>
- <value>/usr/opt/hadoop/tmp</value><!--一定要配置系统默认的缓存文件夹在每次重启后会被删除-->
- </property>
- <property>
- <name>fs.defaultFS</name>
- <value>hdfs://localhost:9000</value>
- </property>
- </configuration>
hdfs.xml
- <configuration>
- <property>
- <name>dfs.replication</name>
- <value>1</value>
- </property>
- <property>
- <name>dfs.namenode.name.dir</name>
- <value>file:/usr/opt/hadoop/dfs/name</value>
- </property>
- <property>
- <name>dfs.datanode.data.dir</name>
- <value>file:/usr/opt/hadoop/dfs/data</value>
- </property>
- <property><!--这个属性节点是为了防止后面eclipse存在拒绝读写设置的-->
- <name>dfs.permissions</name>
- <value>false</value>
- </property>
- </configuration>
yarn-site.xml
- <configuration>
- <property>
- <name>mapreduce.framework.name</name>
- <value>yarn</value>
- </property>
- <property>
- <name>yarn.nodemanager.aux-services</name>
- <value>mapreduce_shuffle</value>
- </property>
- </configuration>
接下来创建需要的文件夹
- cd/usr/local/hadoop
- mkdirtmpdfsdfs/namedfs/data
到目前为止所有的配置都已经完成。
6.运行
首先格式化文件系统
- .bin/hdfsnamenode-format
- ./sbin/start-dfs.sh
- ./sbin/start-yarn.sh
提示如下则表明成功了。
- Startingnamenodeson[localhost]
- localhost:startingnamenode,loggingto/usr/opt/hadoop-2.6.0/logs/hadoop-hadoop-namenode-.out
- localhost:startingdatanode,loggingto/usr/opt/hadoop-2.6.0/logs/hadoop-hadoop-datanode-.out
- Startingsecondarynamenodes[0.0.0.0]
- 0.0.0.0:startingsecondarynamenode,loggingto/usr/opt/hadoop-2.6.0/logs/hadoop-hadoop-secondarynamenode-.out
PS :如果出现警告提示:
- Unabletoloadnative-hadooplibraryforyourplatform
出现这个问题有两种情况:
一、没有设置HADOOP_OPTS这个环境变量
二、是操作系统与hadoop.so文件不兼容导致的。
hadoop 2.5以后的release版本都是64位编译的,如果自己的电脑是32位的就出现不兼容的情况。这时需要重新编译hadoop源码(编译hadoop源码时,不要使用jdk1.8.0,使用1.6和1.7就可以了,不然会报这个错误[ERROR] Failed to execute goal org.apache.maven.plugins:maven-javadoc-plugin:2.8.1:jar (module-javadocs) on project hadoop-annotations: MavenReportException: Error while creating archive ):
热门推荐
- 机房日常技术总结——Windows篇
- 机房日常技术总结——Linux篇
- 解读IT人员的从业方向
- Linux与超级计算机的二十年发展史
- 使用cwRsync实现windows下文件定时同步(备份)
- 浅谈Linux服务器究竟设置多大交换分区合适
- Centos 运维工程师面试题
- 美国机房大介绍
- 走出IT管理员与IT工程师的误区
- linux才是云时代数据中心的首选操作系统
- Linux操作系统对用户说的七个“不”
- 运维工程师在服务器上排除问题的头五分钟
- 18个常用的网站性能测试工具
- Linux内核的文件预读详细详解
- python中使用epoll开发服务端程序
- python的接口和抽象类
- python 的日志logging模块学习
- python的sitecustomize.py妙用
- 用python 来当配置文件
- Python使用UUID库生成唯一ID