hdfs 命令

2020-03-01  本文已影响0人  吾为天帝乎

ls


格式:  hdfs dfs -ls  URI

作用:类似于Linux的ls命令,显示文件列表


hdfs  dfs  -ls  /

lsr


格式  :  hdfs  dfs -lsr URI

作用  : 在整个目录下递归执行ls, 与UNIX中的ls-R类似


hdfs  dfs  -lsr  /

mkdir


格式 : hdfs  dfs [-p] -mkdir <paths>

作用 :  以<paths>中的URI作为参数,创建目录。使用-p参数可以递归创建目录

put


格式  : hdfs dfs -put <localsrc >  ... <dst>

作用 :  将单个的源文件src或者多个源文件srcs从本地文件系统拷贝到目标文件系统中(<dst>对应的路径)。也可以从标准输入中读取输入,写入目标文件系统中


hdfs dfs -put  /rooot/a.txt  /dir1

moveFromLocal


格式: hdfs  dfs -moveFromLocal  <localsrc>  <dst>

作用:  和put命令类似,但是源文件localsrc拷贝之后自身被删除


hdfs  dfs -moveFromLocal  /root/install.log  /

moveToLocal


未实现

get


格式  hdfs dfs  -get [-ignorecrc ]  [-crc]  <src> <localdst>

作用:将文件拷贝到本地文件系统。 CRC 校验失败的文件通过-ignorecrc选项拷贝。 文件和CRC校验和可以通过-CRC选项拷贝


hdfs dfs  -get  /install.log  /export/servers

mv


格式  : hdfs  dfs -mv URI  <dest>

作用: 将hdfs上的文件从原路径移动到目标路径(移动之后文件删除),该命令不能夸文件系统


hdfs  dfs  -mv  /dir1/a.txt  /dir2

rm


格式: hdfs dfs -rm [-r] 【-skipTrash】 URI 【URI 。。。】

作用:   删除参数指定的文件,参数可以有多个。   此命令只删除文件和非空目录。

如果指定-skipTrash选项,那么在回收站可用的情况下,该选项将跳过回收站而直接删除文件;

否则,在回收站可用时,在HDFS Shell 中执行此命令,会将文件暂时放到回收站中。


hdfs  dfs  -rm  -r  /dir1

cp


格式:     hdfs  dfs  -cp URI [URI ...] <dest>

作用:    将文件拷贝到目标路径中。如果<dest>  为目录的话,可以将多个文件拷贝到该目录下。

-f

选项将覆盖目标,如果它已经存在。

-p

选项将保留文件属性(时间戳、所有权、许可、ACL、XAttr)。


hdfs dfs -cp /dir1/a.txt  /dir2/b.txt

cat


hdfs dfs  -cat  URI [uri  ...]

作用:将参数所指示的文件内容输出到stdout


hdfs dfs  -cat /install.log

chmod


格式:      hdfs   dfs  -chmod  [-R]  URI[URI  ...]

作用:    改变文件权限。如果使用  -R 选项,则对整个目录有效递归执行。使用这一命令的用户必须是文件的所属用户,或者超级用户。


hdfs dfs -chmod -R 777 /install.log

chown


格式:      hdfs   dfs  -chmod  [-R]  URI[URI  ...]

作用:    改变文件的所属用户和用户组。如果使用  -R 选项,则对整个目录有效递归执行。使用这一命令的用户必须是文件的所属用户,或者超级用户。


hdfs  dfs  -chown  -R hadoop:hadoop  /install.log

appendToFile


格式: hdfs dfs -appendToFile <localsrc> ... <dst>

作用: 追加一个或者多个文件到hdfs指定文件中.也可以从命令行读取输入.


 hdfs dfs -appendToFile  a.xml b.xml  /big.xml

高级命令

HDFS文件限额配置

在多人共用HDFS的环境下,配置设置非常重要。特别是在Hadoop处理大量资料的环境,如果没有配额管理,很容易把所有的空间用完造成别人无法存取。Hdfs的配额设定是针对目录而不是针对账号,可以 让每个账号仅操作某一个目录,然后对目录设置配置。

​ hdfs文件的限额配置允许我们以文件个数,或者文件大小来限制我们在某个目录下上传的文件数量或者文件内容总量,以便达到我们类似百度网盘网盘等限制每个用户允许上传的最大的文件的量。


hdfs dfs -count -q -h /user/root/dir1  #查看配额信息

所谓的空间限额

数量限额


hdfs dfs  -mkdir -p /user/root/dir    #创建hdfs文件夹

hdfs dfsadmin -setQuota 2  dir      # 给该文件夹下面设置最多上传两个文件,发现只能上传一个文件


hdfs dfsadmin -clrQuota /user/root/dir  # 清除文件数量限制

空间大小限额

在设置空间配额时,设置的空间至少是block_size * 3大小


hdfs dfsadmin -setSpaceQuota 4k /user/root/dir  # 限制空间大小4KB

hdfs dfs -put  /root/a.txt  /user/root/dir

生成任意大小文件的命令:


dd if=/dev/zero of=1.txt  bs=1M count=2    #生成2M的文件

清除空间配额限制


hdfs dfsadmin -clrSpaceQuota /user/root/dir

hdfs的安全模式

安全模式操作命令


hdfs  dfsadmin  -safemode  get #查看安全模式状态

hdfs  dfsadmin  -safemode  enter #进入安全模式

hdfs  dfsadmin  -safemode  leave #离开安全模式

hdfs 基准测试

实际生产环境当中,hadoop的环境搭建完成之后,第一件事情就是进行压力测试,测试我们的集群的读取和写入速度,测试我们的网络带宽是否足够等一些基准测试

测试写入速度

向HDFS文件系统中写入数据,10个文件,每个文件10MB,文件存放到/benchmarks/TestDFSIO中


hadoop jar /export/servers/hadoop-2.7.5/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-2.7.5.jar  TestDFSIO -write -nrFiles 10  -fileSize 10MB

完成之后查看写入速度结果


hdfs dfs -text  /benchmarks/TestDFSIO/io_write/part-00000

测试读取速度

测试hdfs的读取文件性能

在HDFS文件系统中读入10个文件,每个文件10M


hadoop jar /export/servers/hadoop-2.7.5/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-2.7.5.jar  TestDFSIO -read -nrFiles 10 -fileSize 10MB

查看读取果


hdfs dfs -text /benchmarks/TestDFSIO/io_read/part-00000

清除测试数据


hadoop jar /export/servers/hadoop-2.7.5/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-2.7.5.jar  TestDFSIO -clean

上一篇下一篇

猜你喜欢

热点阅读