大数据专题

HDFS

2019-03-29  本文已影响0人  歌哥居士

简介

NameNode

负责响应客户端请求。
负责管理元数据(文件名、副本数、Block存放的DN)。

DataNode

存储数据。
向NN发送心跳,汇报本身及Block信息。
默认block为128mb。

Secondary NameNode

监控HDFS状态的辅助后台程序,合并fsimage与edits。
fsimage:元数据镜像文件,存储NameNode元数据信息(Secondary Namenode通过合并edits来更新内容)
edits:操作日志文件。

HDFS优缺点

优点

缺点

HDFS shell

hdfs dfs 也可以用hadoop fs
-ls

       ls [-R] <path>  显示当前目录下所有文件
示例:
       hadoop fs -ls /  [显示根目录文件
       hadoop fs -ls -R /   [递归展示

-put

       -put <localsrc> <dst>  //本地文件上传到hdfs
示例:
       hadoop fs -put hello.txt /           [上传文件到hdfs
       hadoop fs -put hello.dir /           [上传一个文件夹,并且文件夹中有文件
       hadoop fs -put ./salesFile ./wcFile /    [上传多个文件

-get

       -get [-ignoreCrc] <src> <localdst>  //复制文件到本地,可以忽略crc校验
示例:
       hadoop fs -get /hello.dir hello2.dir [从hdfs下载一个文件夹包括文件
       hadoop fs -get /hello.txt hello2.txt [从hdfs下载一个文件

-cat

       -cat <src>  //在终端显示文件内容
示例:
       hadoop fs -cat /hello.txt            [查看文件内容
       hadoop fs -cat /hello.dir/hello2.txt

-mkdir

       -mkdir <path>  //创建文件夹
示例:
       hadoop fs -mkdir /hello3.dir     [创建文件夹

-touchz

       -touchz <path>  //创建一个空文件
示例:
       hadoop fs -touchz /hello3.dir/hello3.txt [创建一个空文件

-mv

       -mv <src> <dst>  //移动多个文件到目标目录
示例:
       hadoop fs -mv /hello.txt /hello3.dir [移动文件
       hadoop fs -mv /hello.dir /hello3.dir [移动一个目录包括子文件

-cp

       -cp <src> <dst>  //复制多个文件到目标目录
       注意这是拷贝hdfs中的文件,而不能用来上传。
示例:
       hadoop fs -cp /hello3.dir/hello.txt /hello3.dir/hello2.txt   [拷贝一个文件
       hadoop fs -cp /hello3.dir /hello.dir                    [拷贝一整个目录

-rm

       -rm   [-r] //删除文件(夹)
示例:
       hadoop fs -rm /hello3.dir/hello.txt  [删除文件
       hadoop fs -rm -R /hello3.dir         [删除文件夹
       hadoop fs -rm -r /hello.dir          [删除文件夹

HDFS JavaAPI

添加依赖

    <dependency>
         <groupId>org.apache.hadoop</groupId>
         <artifactId>hadoop-client</artifactId>
         <version>2.6.0-cdh5.7.0</version>
    </dependency>
因为用的CDH的版本,所以需要加上这个
   <repositories>
      <repository>
         <id>cloudera</id>
         <url>https://repository.cloudera.com/artifactory/cloudera-repos/</url>
      </repository>
   </repositories>

上传文件

    /**
    * 上传文件
    * @throws URISyntaxException
    * @throws IOException
    * @throws InterruptedException
    */
   @Test
   public void put() throws URISyntaxException, IOException, InterruptedException {
      FileSystem fileSystem = FileSystem.get(
            new URI("hdfs://host000:8020"),
            new Configuration(), "user000");
//    //写法1-----------------------------
//    使用copyFromLocalFile方法
//    fileSystem.copyFromLocalFile(new Path("./file"), new Path("/file1"));

//    //写法2-----------------------------
//    使用create创建输出流
//    FileInputStream in = new FileInputStream("./file");
//    FSDataOutputStream out = fileSystem.create(new Path("/file2"));
//    IOUtils.copy(in, out);
//    in.close();
//    out.close();

//    //---------------------------------
//    带有进度提示
      FileInputStream in = new FileInputStream(
            "/Users/baozi/dev/doc/bigdata/hadoop-2.6.0-cdh5.7.0.tar.gz");
      FSDataOutputStream out = fileSystem.create(new Path("/file3"),
            () -> System.out.print("."));//这是实现Progressable接口
      IOUtils.copy(in, out);
      in.close();
      out.close();
   }

下载文件

    /**
    * 下载文件
    * @throws URISyntaxException
    * @throws IOException
    * @throws InterruptedException
    */
   @Test
   public void get() throws URISyntaxException, IOException, InterruptedException {
      FileSystem fileSystem = FileSystem.get(
            new URI("hdfs://host000:8020"),
            new Configuration(), "user000");
//    //写法1-----------------------------
//    使用copyToLocalFile方法
      fileSystem.copyToLocalFile(new Path("/file1"), new Path("./file1"));

//    //写法2-----------------------------
//    使用open创建输入流。(create和open都是相对hdfs的)
//    FSDataInputStream in = fileSystem.open(new Path("/file2"));
//    FileOutputStream out = new FileOutputStream("./file2");
//    IOUtils.copy(in, out);
//    out.close();
//    in.close();
   }

显示所有文件

/**
 * 查看某个目录下的所有文件
 * 这里会发现一个问题,我hadoop配置里副本数配置为1,但是我查看到的有些副本数是3
 * 原因是:使用Java API上传的文件使用的是Hadoop默认的副本3。
 *         但使用Hadoop命令上传的使用的是我们配置的,这里配置的是1。
 * @throws URISyntaxException
 * @throws IOException
 * @throws InterruptedException
 */
@Test
public void listFiles() throws URISyntaxException, IOException, InterruptedException {
   FileSystem fileSystem = FileSystem.get(
         new URI("hdfs://host000:8020"),
         new Configuration(), "user000");
   FileStatus[] fileStatus = fileSystem.listStatus(new Path("/"));
   for (FileStatus f : fileStatus) {
      String fileType = f.isDirectory() ? "目录" : "文件";
      String path = "Path:" + f.getPath();
      String blockSize = "BlockSize:" + f.getBlockSize();
      String len = "Len:" + f.getLen();
      String replications = "副本数:" + f.getReplication();
      System.out.printf("%s\t%s\t%s\t%s\t%s\n",fileType,path,blockSize,len,replications);
   }
}

显示文件内容

其实就是下载

/**
 * 查看HDFS文件的内容
 * @throws URISyntaxException
 * @throws IOException
 * @throws InterruptedException
 */
@Test
public void cat() throws URISyntaxException, IOException, InterruptedException {
   FileSystem fileSystem = FileSystem.get(
         new URI("hdfs://host000:8020"),
         new Configuration(), "user000");
   //其实和下载一样,就是不输出到文件,输出到控制台
   FSDataInputStream in = fileSystem.open(new Path("/file1"));
   IOUtils.copy(in,System.out);
   in.close();
}

创建文件夹

/**
 * 创建HDFS目录
 * @throws URISyntaxException
 * @throws IOException
 * @throws InterruptedException
 */
@Test
public void mkdirs() throws URISyntaxException, IOException, InterruptedException {
   FileSystem fileSystem = FileSystem.get(
         new URI("hdfs://host000:8020"),
         new Configuration(), "user000");
   fileSystem.mkdirs(new Path("/baozi/baozi2"));
}

创建文件

其实就是上传

/**
 * 创建文件
 * @throws URISyntaxException
 * @throws IOException
 * @throws InterruptedException
 */
@Test
public void touchz() throws URISyntaxException, IOException, InterruptedException {
   FileSystem fileSystem = FileSystem.get(
         new URI("hdfs://host000:8020"),
         new Configuration(), "user000");
   //就是创建一个输出流,写文件,其实和上传一样。
   FSDataOutputStream out = fileSystem.create(new Path("/baozi/baozi2/newFile"));
   out.write("baozi".getBytes());
   out.flush();
   out.close();
}

重命名文件

/**
 * 重命名
 * @throws URISyntaxException
 * @throws IOException
 * @throws InterruptedException
 */
@Test
public void rename() throws URISyntaxException, IOException, InterruptedException {
   FileSystem fileSystem = FileSystem.get(
         new URI("hdfs://host000:8020"),
         new Configuration(), "user000");
   fileSystem.rename(new Path("/baozi/baozi2/newFile"),new Path("/baozi/baozi2/oldFile"));
}

删除文件

/**
 * 删除
 * @throws URISyntaxException
 * @throws IOException
 * @throws InterruptedException
 */
@Test
public void rm() throws URISyntaxException, IOException, InterruptedException {
   FileSystem fileSystem = FileSystem.get(
         new URI("hdfs://host000:8020"),
         new Configuration(), "user000");
   //true递归删除
   fileSystem.delete(new Path("/baozi"),true);
}
上一篇下一篇

猜你喜欢

热点阅读