专业只做数据库实训和认证的品牌机构

微信公众号新浪微博
免费咨询电话:400-0909-964
当前位置: 网站首页 > Hadoop > Hadoop课程 > Hadoop培训课程:Hadoop1.X伪分布安装

Hadoop培训课程:Hadoop1.X伪分布安装

文章来源: 更新时间:2016/6/24 14:20:54

在线老师点击咨询:

最新学讯:近期OCP认证正在报名中,因考试人员较多请尽快报名获取最近考试时间,报名费用请联系在线老师,甲骨文官方认证,报名从速!

我要咨询

Hadoop安装有如下三种方式

l单机模式:安装简单,几乎不用作任何配置,但仅限于调试用途;

l伪分布模式:在单节点上同时启动NameNode、DataNode、JobTracker、TaskTracker、Secondary Namenode等5个进程,模拟分布式运行的各个节点;

l完全分布式模式:正常的Hadoop集群,由多个各司其职的节点构成

由于实验环境的限制,本节课程将讲解伪分布模式安装,并在随后的课程中以该环境为基础进行其他组件部署实验。以下为伪分布式环境下在CentOS6中配置Hadoop-1.1.2,该配置可以作为其他Linux系统和其他版本的Hadoop部署参考。

1软硬件环境说明

所有节点均是CentOS系统,防火墙和SElinux禁用,所有节点上均创建了一个shiyanlou用户,并在系统根目录下创建/app目录,用于存放Hadoop等组件运行包。因为该目录用于安装Hadoop等组件程序,用户对shiyanlou必须赋予rwx权限(一般做法是root用户在根目录下创建/app目录,并修改该目录拥有者为shiyanlou(chown –R shiyanlou:shiyanlou /app)。

Hadoop搭建环境:

l 虚拟机操作系统: CentOS6.6 64位,单核,1G内存

l JDK:1.7.0_55 64位

l Hadoop:1.1.2

2环境搭建(实验楼虚拟机已设置,以下提供参考)

实验环境的虚拟机已经完成的安装环境的配置,其他环境部署时可以参考该章节进行环境搭建。

2.1配置本地环境

该部分对服务器的配置需要在服务器本地进行配置,配置完毕后需要重启服务器确认配置是否生效,特别是远程访问服务器需要设置固定IP地址。

2.1.1设置IP地址

1. 点击System-->Preferences-->Network Connections,如下图所示:

2. 修改或重建网络连接,设置该连接为手工方式,设置如下网络信息:

IP地址: 192.168.42.11

子网掩码: 255.255.255.0

网关: 192.168.42.1

DNS: 221.12.1.227 (需要根据所在地设置DNS服务器)

Domain: 221.12.33.227

注意:网关、DNS等根据所在网络实际情况进行设置,并设置连接方式为"Available to all users",否则通过远程连接时会在服务器重启后无法连接服务器

3.在命令行中,使用ifconfig命令查看设置IP地址信息,如果修改IP不生效,需要重启机器再进行设置(如果该机器在设置后需要通过远程访问,建议重启机器,确认机器IP是否生效)

2.1.2设置机器名

使用sudo vi /etc/sysconfig/network 打开配置文件,根据实际情况设置该服务器的机器名,新机器名在重启后生效

2.1.3设置Host映射文件

1. 设置IP地址与机器名的映射,设置信息如下:

sudo vi /etc/hosts

l 192.168.42.8 b393a04554e1 Hadoop

2.使用如下命令对网络设置进行重启

sudo /etc/init.d/network restart

3.使用ping命令验证设置是否成功

2.2设置操作系统环境

2.2.1关闭防火墙

在Hadoop安装过程中需要关闭防火墙和SElinux,否则会出现异常

1.使用sudo service iptables status 查看防火墙状态,如下所示表示iptables已经开启

2.以root用户使用如下命令关闭iptables

chkconfig iptables off

2.2.2关闭SElinux

1.使用sudo getenforce命令查看是否关闭,如果显示Enforcing表示没有关闭

2. 修改/etc/selinux/config 文件

将SELINUX=enforcing改为SELINUX=disabled,执行该命令后重启机器

2.2.3JDK安装及配置

1.下载JDK1.7 64bit安装包

打开JDK1.7 64bit安装包下载链接为:

http://www.Oracle.com/technetwork/Java/Javase/downloads/jdk7-downloads-1880260.html

打开界面之后,先选中 Accept License Agreement ,然后下载 jdk-7u55-linux-x64.tar.gz,如下图所示:

2.创建/app目录,把该目录的所有者修改为shiyanlou

sudo mkdir /app

sudo chown -R shiyanlou:shiyanlou /app

3. 创建/app/lib目录,使用命令如下:

mkdir /app/lib

4.把下载的安装包解压并迁移到/app/lib目录下

cd /home/shiyanlou/install-pack

tar -zxf jdk-7u55-linux-x64.tar.gz

mv jdk1.7.0_55/ /app/lib

ll /app/lib

5.使用sudo vi /etc/profile命令打开配置文件,设置JDK路径

export JAVA_HOME=/app/lib/jdk1.7.0_55

export PATH=$JAVA_HOME/bin:$PATH

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

6.编译并验证

source /etc/profile

Java -version

2.2.4更新OpenSSL

CentOS自带的OpenSSL存在bug,如果不更新OpenSSL在Ambari部署过程会出现无法通过SSH连接节点,使用如下命令进行更新:

yum update openssl

2.2.5SSH无密码验证配置

1.使用sudo vi /etc/ssh/sshd_config打开sshd_config配置文件,开放三个配置,如下图所示:

RSAAuthentication yes

PubkeyAuthentication yes

AuthorizedKeysFile .ssh/authorized_keys

2.配置后重启服务

sudo service sshd restart

3.使用shiyanlou用户登录使用如下命令生成私钥和公钥;

ssh-keygen -t rsa

4.进入/home/shiyanlou/.ssh目录把公钥命名为authorized_keys,使用命令如下:

cp id_rsa.pub authorized_keys

5.使用如下设置authorized_keys读写权限

chmod 400 authorized_keys

6.测试ssh免密码登录是否生效

2.3 Hadoop变量配置

3.1解压并移动Hadoop安装包

在Apache的归档目录中下载Hadoop-1.1.2-bin.tar.gz安装包,也可以在/home/shiyanlou/install-pack目录中找到该安装包,解压该安装包并把该安装包复制到/app目录中

cd /home/shiyanlou/install-pack

tar -xzf Hadoop-1.1.2-bin.tar.gz

mv Hadoop-1.1.2 /app

3.2在Hadoop-1.1.2目录下创建子目录

cd /app/hadoop-1.1.2

mkdir tmp

mkdir hdfs

mkdir hdfs/name

mkdir hdfs/data

ls

把hdfs/data设置为755,否则DataNode会启动失败

3.3配置Hadoop-env.sh

1.进入Hadoop-1.1.2/conf目录,打开配置文件Hadoop-env.sh

cd /app/hadoop-1.1.2/conf

vi Hadoop-env.sh

2.加入配置内容,设置了Hadoop中jdk和Hadoop/bin路径

export JAVA_HOME=/app/lib/jdk1.7.0_55

export PATH=$PATH:/app/hadoop-1.1.2/bin

3.编译配置文件Hadoop-env.sh并确认生效

source Hadoop-env.sh

Hadoop version

3.4配置core-site.xml

1.使用如下命令打开core-site.xml配置文件

cd /app/hadoop-1.1.2/conf

sudo vi core-site.xml

2.在配置文件中,按照如下内容进行配置

fs.default.name

hdfs://hadoop:9000

Hadoop.tmp.dir

/app/hadoop-1.1.2/tmp

3.5配置hdfs-site.xml

1.使用如下命令打开hdfs-site.xml配置文件

cd /app/hadoop-1.1.2/conf

sudo vi hdfs-site.xml

2.在配置文件中,按照如下内容进行配置

dfs.replication

1

dfs.name.dir

/app/hadoop-1.1.2/hdfs/name

dfs.data.dir

/app/hadoop-1.1.2/hdfs/data

3.6配置mapred-site.xml

1.使用如下命令打开mapred-site.xml配置文件

cd /app/hadoop-1.1.2/conf

sudo vi mapred-site.xml

2.在配置文件中,按照如下内容进行配置

mapred.job.tracker

Hadoop:9001

3.7配置masters和slaves文件

1.设子主节点

cd /app/hadoop-1.1.2/conf

vi masters

设置Hadoop机器为master节点

2.设置从节点

cd /app/hadoop-1.1.2/conf

vi slaves

设置Hadoop机器为slaves节点,即本身即是master也是slaves节点

3.8格式化namenode

在Hadoop机器上使用如下命令进行格式化namenode

cd /app/hadoop-1.1.2/bin

./hadoop namenode -format

3.9启动Hadoop

cd /app/hadoop-1.1.2/bin

./start-all.sh

3.10 用jps检验各后台进程是否成功启动

使用jps命令查看Hadoop相关进程是否启动

这时我们发现少了一个DataNode进程,到$HADOOP_HOME/logs目下,使用cat Hadoop-shiyanlou-datanode-5****.log(***表示所在机器名)查看日志文件,可以看到在日志中提示:Invalid directory in dfs.data.dir:Incorrect permission for /app/hadoop-1.1.2/hdfs/data, expected:rwxr-xr-x, while actual: rwxrwxr-x

sudo chmod 755 /app/hadoop-1.1.2/hdfs/data

重新启动Hadoop集群,可以看到DataNode进程

本文地址:http://www.cuug.com.cn/hadoop/kecheng/12299890096.html 转载请注明!


在线预约 抢先报名 获取课程排期

Oracle培训机构

金牌讲师<>

冉乃纲-老师CUUG金牌讲师
冉老师 CUUG金牌讲师 Oracle及RedHat高级讲师、Unix/Linux 资深专家...[详细了解老师]

免费咨询上课流程 客服在线中

陈卫星-老师CUUG金牌讲师
陈老师 CUUG金牌讲师 精通Oracle管理、备份恢复、性能优化 11年Ora...[详细了解老师]

免费咨询上课流程 客服在线中

选学校如何选择适合自己的学校

CUUG -CHINA UNIX USER GROUP,是国际UNIX组织UNIFORUM的中国代表,是国内悠久的专业UNIX培训机构,被誉为中国UNIX 的摇篮。多年来,以提高教学质量为本,强调素质教育,积极引进、消化国外的新技术,有效的结合中国....[详情]

一站式服务(从入学到就业一帮到底)

入学

学习

就业

实操

食宿
地址:北京市海淀区北清路164号28-38号院
课程咨询:010-59426307 010-59426319 400-0909-964
企业服务:137 1818 8639(陈经理)
部分信息来源于网络,如有错误请联系指正!
版权所有@北京神脑资讯技术有限公司 (CUUG,中国UNIX用户协会) Copyright 2016 ALL Rights Reserved 京ICP备11008061号-1