hadoop集群使用中的一些问题记录

不适合人类阅读的学习笔记

无法运行spark-shell

  • 一般出现这种情况是集群的内存满了

  • 使用df -h命令来查看存储情况

  • 空间几乎占满的状况:

Linux下/proc目录简介

删除文件夹
  • 尽量使用rmdir来删除一个空目录,如果目录下存在多个文件,要一次性删除所有的使用rm -rf来实现。-r表示递归删除,-f表示强制执行。不过在删除之前一定要仔细确认,一旦删除无法撤销