Hadoop环境搭建过程中遇到的问题及解决方法
1.启动hadoop之前,ssh免密登录slave主机正常,使用命令start-all.sh
启动hadoop时,需要输入slave主机的密码,说明ssh文件权限有问题,需要执行以下操作:
1)进入.ssh目录下查看是否有公钥私钥文件authorized_keys、id_rsa、id_rsa.pub
2)如果没有公钥私钥文件,则执行ssh-keygen -t
rsa生成秘钥(master主机和slave主机都需要执行)
3)公钥私钥文件生成完成后,执行cat id_rsa.pub >> authorized_keys
,将生成的公钥添加到认证文件中
4)将slave服务器公钥写入master服务器authorized_keys
文件中
[root@master ~]# ssh-copy-id -i slave01 [root@master ~]# ssh-copy-id -i slave02
5)登录slave服务器(ssh slave01),看是否需要输入密码,如果仍然需要输入密码,说明uthorized_keys文件权限有问题,则执行下一步
6)使用ssh -vvv slave01调试命令,进入到slave01调试界面
7)设置authorized_keys文件权限为600,chmod 600 ~/.ssh/authorized_keys
8)同理,slave01也要同样进行设置,在master主机的终端中继续执行步骤6和步骤7中的命令
9)设置完成后在master主机中,登录slave01和slave02,如果不需要输入密码,则配置完成
10)停止hadoop的所有进程:stop-all.sh
11)重新启动hadoop:start-all.sh
2.启动hadoop之后,使用jps查看,master服务器中没有namenode服务,解决方案如下:
1)首先停止hadoop的所有进程:stop-all.sh
2)格式化namenode:hdfs namenode -format
3)重新启动hadoop:start-all.sh
4)输入jps查看,可以看到namenode进程
3.启动hadoop之后,使用jps查看,slave服务器中没有datanode服务,解决方案如下:
1)首先停止hadoop的所有进程:stop-all.sh
2)进入hadoop安装目录下:/software/hadoop中删除hadoopdate文件夹
3)进入hadoop安装目录下:/software/hadoop中的hadoop-2.7.3文件夹中删除logs文件夹
4)在slave01主机和slave02主机的终端执行步骤2和步骤3,确保步骤2和步骤3的文件夹都删除干净
5)格式化namenode:hdfs namenode -format
6)重新启动hadoop:start-all.sh
7)在slave01主机和slave02主机的终端输入jps查看,可以看到datanode进程
总结
以上所述是小编给大家介绍的Hadoop环境搭建过程中遇到的问题及解决方法 ,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对脚本之家网站的支持!
如果你觉得本文对你有帮助,欢迎转载,烦请注明出处,谢谢!
相关文章
K8ssandra入门教程之Linux上部署K8ssandra到Kubernetes的过程
K8ssandra不仅帮助我们可以快速可靠地在Kubernetes上部署Cassandra,同时提供了许多组件,如监控、备份、同步、访问等,这篇文章给大家介绍K8ssandra入门教程之Linux上部署K8ssandra到Kubernetes的过程,一起看看吧2021-10-10HttpGet请求与Post请求中参数乱码原因剖析与解决方案
这篇文章主要介绍了HttpGet请求与Post请求中参数乱码原因剖析,文中有相关的代码示例,具有一定的参考价值,需要的朋友可以参考下2023-07-07Notepad++文本比较插件Compare详解(最新免费)
Notepad++是一款强大的文本编辑器,它提供了文件对比功能,可以帮助我们快速找出两个文件之间的差异点,这篇文章主要介绍了Notepad++文本比较插件Compare详解(最新免费),感兴趣的朋友一起看看吧2024-01-01大数据HelloWorld-Flink实现WordCount
这篇文章主要介绍了大数据HelloWorld-Flink实现WordCount的相关知识,非常不错,具有一定的参考借鉴价值,需要的朋友可以参考下2019-08-08
最新评论