Linux下安装Hadoop集群详细步骤

 更新时间:2021年12月17日 16:28:32   作者:七号楼少女..  
大家好,本篇文章主要讲的是Linux下安装Hadoop集群详细步骤,感兴趣的同学赶快来看一看吧,对你有帮助的话记得收藏一下,方便下次浏览

1.在usr目录下创建Hadoop目录,将安装包导入目录中并解压文件

 

2.进入vim /etc/profile文件并编辑配置文件

#hadoop
export HADOOP_HOME=/usr/hadoop/hadoop-2.6.0
export CLASSPATH=$CLASSPATH:$HADOOP_HOME/lib
export PATH=$PATH:$HADOOP_HOME/bin

3.使文件生效

source /etc/profile

4.进入Hadoop目录下

cd /usr/hadoop/hadoop-2.6.0/etc/hadoop

5.编辑配置文件

(1)进入vim hadoop-env.sh文件添加(java jdk文件所在位置)

export JAVA_HOME=/usr/java/jdk1.8.0_181

 (2)进入 vim core-site.xml(z1:在主节点的ip或者映射名(改成自己的))

<configuration>
<property>
        <name>hadoop.tmp.dir</name>
        <value>file:/root/hadoop/tmp</value>
</property>
<!--端口号9000-->
<property>
        <name>fs.default.name</name>
        <value>hdfs://z1:9000</value>
</property>
<!--开启垃圾桶机制单位分钟-->
<property>
    <name>fs.trash .insterval</name>
    <value>10080</value>
</property>
<!--缓冲区大小,实际工作根据服务器性能-->
<property>
    <name>io.file. buffer.sizei</name>
    <value>4096</value>
</property>
</configuration>
                                                                                                                                                                  39,9         底端

(3)Hadoop没有mapred-site.xml这个文件现将文件复制到这然后进入mapred-site.xml

cp mapred-site.xml.template mapred-site.xml
vim mapred-site.xml

 (z1:在主节点的ip或者映射名(改成自己的))

<configuration>
<property>
<!--指定Mapreduce运行在yarn上-->
   <name>mapreduce.framework.name</name>
   <value>yarn</value>
 </property>
<!--开启MapReduce的小任务模式-->
<property>
      <name>mapred.job.ubertask.enable</name>
      <value>true</value>
</property>
<property>
      <name>mapred.job.tracker</name>
      <value>z1:9001</value>
</property>
 
<property>
<name>mapreduce.jobhistory.address</name>
<value>CMaster:10020</value>
</property>
</configuration>

 (4)进入yarn-site.xml

vim yarn-site.xml

  (z1:在主节点的ip或者映射名(改成自己的))

<configuration>
 
<!-- Site specific YARN configuration properties -->
 
<!--配置yarn主节点的位置-->
<property>
        <name>yarn.resourcemanager.hostname</name>
        <value>z1</value>
</property>
<property>
<!-- mapreduce ,执行shuff1e时获取数据的方式.-->
<description>The address of the appiications manager interface inthe RM.</description>
     <name>yarn.resourcemanager.address</name>
     <value>z1:8032</value>
</property>
<property>
  <name>yarn.resourcemanager.scheduler.address</name>
  <value>z1:8030</value>
</property>
 
<property>
  <name>yarn.resourcemanager.webapp.address</name>
  <value>z1:8088</value>
</property>
 
<property>
  <name>yarn.resourcemanager.webapp.https.address</name>
  <value>z1:8090</value>
</property>
<property>
  <name>yarn.resourcemanager.resource-tracker.address</name>
  <value>z1:8031</value>
</property>
<property>
  <name>yarn.resourcemanager.admin.address</name>
  <value>z1:8033</value>
</property>
<property><!--mapreduce执行shuff1e时获取数据的方式,-->
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>
<property>
<!--设置内存,yarn的内存分配-->
  <name>yarn.scheduler.maximum-a11ocation-mb</name>
  <value>2024</value>
  <discription>每个节点可用内存,单位M,默认8182MB</discription>
</property>
<property>
  <name>yarn.nodemanager.vmem-pmem-ratio</name>
  <value>2.1</value>
</property>
<property>
  <name>yarn.nodemanager.resource.memory-mb</name>
  <value>1024</value>
</property>
<property>
  <name>yarn.nodemanager.vmem-check-enabled</name>
  <value>false</value>
</property>
 
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
 
 
</configuration>
                                                    

(5)进入hdfs-site.xml

vim hdfs-site.xml

<configuration>
<property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/hadoop/hadoop-2.6.0/hadoopDesk/namenodeDatas</value>
</property>
 <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/hadoop/hadoop-2.6.0/hadoopDatas/namenodeDatas</value>
    </property>
<property>
<!--副本个数-->
<name>dfs.replication</name>
<value>3</value>
</property>
<!--设置hdfs的文件权限-->
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
<!--设置一个文件切片的大小:128m-->
<property>
<name>dfs.bloksize</name>
<value>134217728</value>
</property>
</configuration>

6.进入slaves添加主节点和从节点

vim slaves

 添加自己的主节点和从节点(我的是z1,z2,z3)

7.将各个文件复制到其他虚拟机上

scp -r /etc/profile root@z2:/etc/profile #将环境变量profile文件分发到z2节点
scp -r /etc/profile root@z3:/etc/profile #将环境变量profile文件分发到z3节点
scp -r /usr/hadoop root@z2:/usr/   #将hadoop文件分发到z2节点
scp -r /usr/hadoop root@z3:/usr/   #将hadoop文件分发到z3节点

生效两个从节点的环境变量

source /etc/profile

8.格式化hadoop (仅在主节点中进行操作)

首先查看jps是否启动hadoop

hadoop namenode -format

当看到Exiting with status 0时说明格式化成功

9.回到Hadoop目录下(仅在主节点操作)

cd /usr/hadoop/hadoop-2.6.0
sbin/start-all.sh  启动Hadoop仅在主节点操作

主节点输入jps效果: 

 

从节点输jps效果:

 

到此这篇关于Linux下安装Hadoop集群详细步骤的文章就介绍到这了,更多相关Linux安装Hadoop集群内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • Ubuntu下各种压缩与解压的方式小结

    Ubuntu下各种压缩与解压的方式小结

    这篇文章主要给大家介绍了在Ubuntu系统下各种压缩与解压的方式,其中包括.tar、.gz、.bz2、.bz、.Z、.tgz、.zip、.rar以及.lha等各个的解压与压缩方法,每一种都给出了示例代码,需要的朋友可以参考学习,一起来看看吧。
    2017-04-04
  • Manjaro Linux安装singularity-container的解决方案

    Manjaro Linux安装singularity-container的解决方案

    这篇文章主要介绍Singularity容器在Manjaro平台的安装,以及一些常见的使用场景:拉取沙箱制作容器镜像、远程制作容器镜像以及修改容器镜像的方法,感兴趣的朋友跟随小编一起看看吧
    2024-05-05
  • CentOS服务器离线部署DeepSeek用作AI本地知识库

    CentOS服务器离线部署DeepSeek用作AI本地知识库

    本文介绍了如何在CentOS服务器离线部署DeepSeek用作AI本地知识库,首先,通过Ollama工具下载并安装DeepSeek模型,根据硬件配置选择合适的模型大小,然后使用Docker安装AnythingLLM,并提供了建立知识库的步骤,最后,对比了AnythingLLM、Dify和Open-WebUI的功能和适用场景
    2025-02-02
  • Linux开机启动过程详解

    Linux开机启动过程详解

    这篇文章主要为大家详细介绍了Linux开机启动过程,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2017-04-04
  • 使用apachetop实时监控日志、动态分析服务器运行状态

    使用apachetop实时监控日志、动态分析服务器运行状态

    这篇文章主要介绍了使用apachetop实时监控日志、动态分析服务器运行状态,通过apachetop这个工具可以动态的查看apache的日志文件,还可以直观的看到访问的每个地址的请求数、速度及流量等信息,需要的朋友可以参考下
    2014-06-06
  • 在Linux上使用xargs命令的详细教程

    在Linux上使用xargs命令的详细教程

    这篇文章主要介绍了如何在Linux上使用xargs命令,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
    2020-08-08
  • linux 使用bond实现双网卡绑定单个IP的示例代码

    linux 使用bond实现双网卡绑定单个IP的示例代码

    这篇文章主要介绍了linux 使用bond实现双网卡绑定单个IP的示例代码,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2020-08-08
  • Linux(在线)部署Redis教程(下载、安装、配置、启动、连接)

    Linux(在线)部署Redis教程(下载、安装、配置、启动、连接)

    这篇文章主要介绍了Linux(在线)部署Redis教程(下载、安装、配置、启动、连接),具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教
    2025-03-03
  • Ubuntu16.04搭建NFS 文件共享服务器的方法

    Ubuntu16.04搭建NFS 文件共享服务器的方法

    这篇文章主要介绍了Ubuntu16.04搭建NFS 文件共享服务器的方法,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
    2018-04-04
  • Linux分区格式化的命令

    Linux分区格式化的命令

    当硬盘分区完成后,需要对分区进行格式化。 下面小编给大家带来了Linux分区格式化的命令,感兴趣的朋友一起看看吧
    2018-08-08

最新评论