`
cloudeagle_bupt
  • 浏览: 537180 次
文章分类
社区版块
存档分类
最新评论

hadoop 初始配置

 
阅读更多

配置NFS

配置 NFS (root 用户 )

(1) master 上检查是否已经安装了 nfs

[root@hadoop01~]# rpm -qa|grep nfs

nfs -utils-1.0.6-46

system-config-nfs-1.2.8-1

[root@hadoop01~]# rpm -qa|grep portmap

portmap-4.0-63

若没有安装,可下载 rpm 包,通过 rpm –ivh ***.rpm 来安装

(2)共享 master 上的/home 目录

[root@hadoop01~]# vi /etc/exports //*表示对任何网段都可连接

/home*(rw,no_root_squash, s ync) //async 是异步的,速度比较慢

(3) master 上启动 nfs s erver

[root@hadoop01~]# service portmap

用法:/etc/init.d/portmap{start|stop|status|restart|reload|condrestart}

[root@hadoop01~]# service portmap start

[root@hadoop01~]# service nfs

用法:nfs{start|stop|status|restart|reload|condrestart}

[root@hadoop01~]# service nfs start

或者 [root@hadoop01 ~]#/etc/init.d/nfs start

[root@hadoop01~]# service nfslock start

(4) master 上设置开机自动启动 nfs

# chkconfig--level 2345 nfs on

//可以把 chkconfig 理解为开关,不过这个开关主要是用来设置系统启动时,各服务在0-6 运行级别下的开启状态的。

(5) slave 端以 root 用户在 hadoop02~hadoop08 上设置开机自动挂载/home

编辑 /etc/fstab

hadoop01:/home/homenfs defaults 00

或者在/etc/rc.d/rc.local中添加

命令行模式:# mount -t nfshadoop01:/home /home

-------------------------------------------------------------

(6) 排错

如果出现mount: mountto NFS server 'node1' failed: System Error: No route to host. 则可能是防火墙惹的祸。

通过setup把防火墙关掉,应该就可以了。

SSH login without password

for root user

  • [root@A ~]vi /etc/hosts

#[IP address] [hostname]

192.168.1.X A

192.168.1.Y B

  • generateauthentication keys anddistribute

[root@A ~]# ssh-keygen -t rsa

[root@A ~]# cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys

[root@A ~]# scp ~/.ssh/* root@B:~/.ssh/

  • check

[root@A ~]# ssh B

[root@A ~]# ssh A

for non-root users

  • just like what has to do for root user

Hadoop集群安装(1)

1. 机器配置

(1) 机器规划

master(NameNode, JobTracker)192.168.100.123 node14

slave1(DataNode, TaskTracker)192.168.100.124 node15

slave2(DataNode, TaskTracker)192.168.100.125 node16

(2) 添加hadoop用户

在三台机器上分别 groupadd hadoop useradd -g hadoophadoop添加hadoop用户

(3) NFS设置

通过root用户在master上配置NFS server,并共享/home目录;

slaves上挂在master上的/home到本地/home

(4) ssh无密码(node14上对hadoop)

[plain]view plaincopy

1. ssh-keygen-trsa

2. cp~/.ssh/id_rsa.pub~/.ssh/authorized_keys

(5) 目录结构

~/soft

~/program

~/study

2. 安装JDK (master上安装,hadoop用户)

(1) 解压

(2) 配置环境变量

[plain]view plaincopy

1. [hadoop@node14~]$vi.bashrc

2. exportJAVA_HOME=/home/hadoop/program/jdk1.6.0_22

3. exportPATH=$JAVA_HOME/bin:$PATH

4. exportCLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$CLASSPATH

5. [hadoop@node14~]$source.bashrc

6. [hadoop@node14~]$whichjava

7. ~/program/jdk1.6.0_22/bin/java

3. 安装Hadoop0.21(master上安装,hadoop用户)

(1) ~/program下面解压

[hadoop@node14 ~]$ cp soft/hadoop-0.21.0.tar.gz program/

[hadoop@node14 program]$ tar -zxvf hadoop-0.21.0.tar.gz

(2)配置环境变量

[hadoop@node14 ~]$ vi .bashrc

export HADOOP_HOME=/home/hadoop/program/hadoop-0.21.0

export HADOOP_LOG_DIR=$HADOOP_HOME/logs

[hadoop@node14 ~]$ source .bashrc

(3) 配置环境

[hadoop@node14 hadoop-0.21.0]$ vi conf/hadoop-env.sh

export JAVA_HOME=/home/hadoop/program/jdk1.6.0_22

export HADOOP_LOG_DIR=${HADOOP_HOME}/logs

(4)修改masterslave文件

[hadoop@node14 hadoop-0.21.0]$ cat conf/masters

node14

[hadoop@node14 hadoop-0.21.0]$ cat conf/slaves

node15

node16

配置conf/core-site.xml

1.配置NameNode

[html]view plaincopy

1. [hadoop@node14conf]$catcore-site.xml

2. <configuration>

3. <property>

4. <name>fs.default.name</name>

5. <value>hdfs://node14:9000</value>

6. </property>

7. </configuration>

配置conf/hdfs-site.xml

1. 配置NameNodeDataNode的目录 ()

说明:配置dfs.name.dir dfs.data.dir

[html]view plaincopy

1. <property>

2. <name>dfs.namenode.name.dir</name>

3. <value>file://${hadoop.tmp.dir}/dfs/name</value>

4. <description>DetermineswhereonthelocalfilesystemtheDFSnamenode

5. shouldstorethenametable(fsimage).Ifthisisacomma-delimitedlist

6. ofdirectoriesthenthenametableisreplicatedinallofthe

7. directories,forredundancy.</description>

8. </property>

9.

10.

11. <property>

12. <name>dfs.datanode.data.dir</name>

13. <value>file://${hadoop.tmp.dir}/dfs/data</value>

14. <description>DetermineswhereonthelocalfilesystemanDFSdatanode

15. shouldstoreitsblocks.Ifthisisacomma-delimited

16. listofdirectories,thendatawillbestoredinallnamed

17. directories,typicallyondifferentdevices.

18. Directoriesthatdonotexistareignored.

19. </description>

20. </property>

2. 配置副本度

[plain]view plaincopy

1. <property>

2. <name>dfs.replication</name>

3. <value>2</value>

4. </property>

配置JobTracker_conf/mapred-site.xml

conf/mapred-site.xml

总结:主要配置JobTrackeraddressschedulerqueue等。

1. 配置JobTracker (必须设置)

[html]view plaincopy

1. <configuration>

2. <property>

3. <name>mapreduce.jobtracker.address</name>

4. <value>node14:9001</value>

5. <description>jobtracker'saddress</description>

6. </property>

7. </configuration>

2. 还有其他可配置项

具体见hadoop-0.21.0/mapred/src/java/mapred-default.xml中,如

(1)设置作业调度器

[html]view plaincopy

1. <property>

2. <name>mapreduce.jobtracker.taskscheduler</name>

3. <value>org.apache.hadoop.mapred.JobQueueTaskScheduler</value>

4. <description>Theclassresponsibleforschedulingthetasks.</description>

5. </property>

(2) 作业队列

[html]view plaincopy

1. <property>

2. <name>mapreduce.job.queuename</name>

3. <value>Queue-A:Queue-B:Queue-C</value>

4. </property>

mapreduce.jobtracker.system.dir

mapreduce.cluster.local.dir

分享到:
评论

相关推荐

    新版Hadoop视频教程 段海涛老师Hadoop八天完全攻克Hadoop视频教程 Hadoop开发

    04-hadoop-HA机制的配置文件.avi 05-hadoop分布式集群HA模式部署.avi 06-hdfs--HA测试.avi 07-hdfs--动态增加节点和副本数量管理.avi 08-HA的java api访问要点.avi 09-hive入门.avi 第六天 hbase hive 01-...

    Hadoop权威指南 第二版(中文版)

     Hadoop配置  配置管理  环境设置  Hadoop守护进程的关键属性  Hadoop守护进程的地址和端口  Hadoop的其他属性  创建用户帐号  安全性  Kerberos和Hadoop  委托令牌  其他安全性改进  利用基准测试程序...

    hadoop应用开发实例教程 之Greenplum架构

    安装并初始化GPDB系统;启停数据库;配置GP系统。 hadoop应用开发实例教程-基于Greenplum Hadoop分布式平台的大数据解决方案及商业应用案例剖析,课程实战、实用、实际,总共96课时,系史上最全最深入的讲解...

    Hadoop权威指南(中文版)2015上传.rar

    Hadoop配置 配置管理 环境设置 Hadoop守护进程的关键属性 Hadoop守护进程的地址和端口 Hadoop的其他属性 创建用户帐号 安全性 Kerberos和Hadoop 委托令牌 其他安全性改进 利用基准测试程序测试Hadoop集群 Hadoop基准...

    hadoop段海涛老师八天实战视频

    10-hadoop集群搭建的无密登陆配置.avi 第二天 hdfs的原理和使用操作、编程 01-NN元数据管理机制.avi 02-NN工作机制2.avi 03-DN工作原理.avi 04-HDFS的JAVA客户端编写.avi 05-filesystem设计思想总结.avi ...

    Linux系统上安装Hadoop的详细步骤

    Linux系统上安装Hadoop的详细步骤,该文档详细的描述了在linux上面如何安装hadoop,如何信息配置,初始化,启动hadoop等等,喜欢的朋友可以拿去使用

    hadoop-2.4.1安装软件包以及教程jdk.zip

    注意:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop 伪分布式需要修改5个配置文件 3.1配置hadoop 第一个:hadoop-env.sh vim hadoop-env.sh #第27行 export JAVA_HOME=/usr/java/jdk1.7.0_65 第二个:core...

    Hadoop入门实战手册

    4.5 ..................................................................................15 初始化和启动hadoop集群 4.5.1 .....................................................................................

    Hadoop环境搭建-如何进行Hive的安装

    Hadoop环境搭建下如何...包括安装前提,上传安装包,解压安装包,修改目录名称,配置环境变量,配置jar包,修改hive配置文件,修改hadoop配置文件,开启服务,初始化hive元数据库,启动hive。这十一个板块。描述详细。

    Kettle 整合大数据平台(Hadoop、Hive、HBase)

    2、 kettle与Hive 整合配置 3、从hive 中读取数据 4、把数据保存到hive数据库 5、Hadoop Copy Files组件 6、执行Hive的HiveSQL语句 三、Kettle整合HBase 1、HBase初始化 2. HBase input组件 3、HBase output组件 ...

    基于CDH5的Hadoop2大数据集群详解

    基于CDH5的Hadoop2大数据集群详解,从Linux系统的初始化配置准备工作到最后完成Hadoop集群的全部过程,仔细到每个步骤;每个步骤会提示所有需要准备的事项;这是本人亲自在公司真实机器做了三次集群后最后完善的最终...

    hades:Hadoop开发人员服务

    )入门克隆存储库通过安装安装依赖项pipenv install或全局安装依赖项运行init命令./cli.py init初始化命令init命令生成Hades配置文件的样板。 可以根据集群类型生成集群配置(有关此信息,请参阅–help)。指令 命令...

    oozie配置mysql:表结构详解

    oozie配置mysql所需表结构。Apache Oozie是用于Hadoop平台的一种工作流调度引擎。

    Hadoop单机伪分布式搭建教程1

    3.1 下载并解压 3.2 配置环境变量 3.4 关闭防火墙 3.5 初始化 3.7 验证是否启动成功 3.8 单机伪分布式官方wordcount案例测试 3.

    accumulo-formula:设置Apache Accumulo-基于Apache Hadoop和Zookeeper的安全键值存储

    哪些服务最终会在给定的主机上运行,​​将取决于配置目录中类似hadoop的文本列表文件,进而取决于通过盐粒定义的角色: accumulo_master将运行master,monitor和gc(如果还存在开发角色,则运行示踪剂) accumulo_...

    longhai3395#BigData-Notes#Hadoop集群环境搭建1

    3.1 生成密匙 3.2 免密登录 3.3 验证免密登录 3.1 下载并解压 3.2 配置环境变量 3.3 修改配置 3.4 分发程序 3.5 初始化 3.6

    haddop群集环境准备

    安装hadoop,centos环境初始化,包括免ssh,jdk部署,centos初始化配置

    Oozie安装教程

    修改配置文件3.1hadoop-env.sh3.2mapred-env.sh3.3yarn-env.sh3.4core-site.xml3.5hdfs-site.xml3.6mapred-site.xml3.7yarn-site.xml3.8slaves4.远程发送配置文件5.格式化集群并启动二、部署oozie1.上传安装包2.解压...

    Hbase 基本操作类

    //初始化配置文件 System.setProperty("java.security.krb5.conf", krbStr); //使用用户hezhong登录 UserGroupInformation.setConfiguration(conf); UserGroupInformation.loginUserFromKeytab...

    heibaiying#BigData-Notes#Linux环境下Hive的安装部署1

    1.1 下载并解压 1.2 配置环境变量 1.3 修改配置 1.4 拷贝数据库驱动 1.5 初始化元数据库 1.6 启动 2.2 启动hiveserver2 1

Global site tag (gtag.js) - Google Analytics