我爱编程

二、HDFS分布式文件系统

2018-03-29  本文已影响0人  薛定谔的猫_1406

一、课程内容

二、想当然的分布式文件系统

三、什么是分布式文件系统

HDFS架构 HDFS副本存放策略(Rack指的是机架)

四、HDFS环境搭建之伪分布式安装步骤

修改配置文件

五、JAVA API操作HDFS

5.1 使用IDEA创建maven项目并且引入依赖的jar包

5.2 使用Java API操作HDFS

·

package com.imooc.hadoop.hdfs;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.*;

import org.apache.hadoop.io.IOUtils;

import org.apache.hadoop.util.Progressable;

import org.junit.After;

import org.junit.Before;

import org.junit.Test;

import java.io.BufferedInputStream;

import java.io.File;

import java.io.FileInputStream;

import java.io.InputStream;

import java.net.URI;

/**

* Hadoop HDFS Java API 操作

*/

public class HDFSApp {

    public static final String HDFS_PATH = "hdfs://hadoop000:8020";

    FileSystem fileSystem = null;

    Configuration configuration = null;

    /**

    * 创建HDFS目录

    */

    @Test

    public void mkdir() throws Exception {

        fileSystem.mkdirs(new Path("/hdfsapi/test"));

    }

    /**

    * 创建文件

    */

    @Test

    public void create() throws Exception {

        FSDataOutputStream output = fileSystem.create(new Path("/hdfsapi/test/a.txt"));

        output.write("hello hadoop".getBytes());

        output.flush();

        output.close();

    }

    /**

    * 查看HDFS文件的内容

    */

    @Test

    public void cat() throws Exception {

        FSDataInputStream in = fileSystem.open(new Path("/hdfsapi/test/a.txt"));

        IOUtils.copyBytes(in, System.out, 1024);

        in.close();

    }

    /**

    * 重命名

    */

    @Test

    public void rename() throws Exception {

        Path oldPath = new Path("/hdfsapi/test/a.txt");

        Path newPath = new Path("/hdfsapi/test/b.txt");

        fileSystem.rename(oldPath, newPath);

    }

    /**

    * 上传文件到HDFS

    *

    * @throws Exception

    */

    @Test

    public void copyFromLocalFile() throws Exception {

        Path localPath = new Path("/Users/rocky/data/hello.txt");

        Path hdfsPath = new Path("/hdfsapi/test");

        fileSystem.copyFromLocalFile(localPath, hdfsPath);

    }

    /**

    * 上传文件到HDFS

    */

    @Test

    public void copyFromLocalFileWithProgress() throws Exception {

        InputStream in = new BufferedInputStream(

                new FileInputStream(

                        new File("/Users/rocky/source/spark-1.6.1/spark-1.6.1-bin-2.6.0-cdh5.5.0.tgz")));

        FSDataOutputStream output = fileSystem.create(new Path("/hdfsapi/test/spark-1.6.1.tgz"),

                new Progressable() {

                    public void progress() {

                        System.out.print(".");  //带进度提醒信息

                    }

                });

        IOUtils.copyBytes(in, output, 4096);

    }

    /**

    * 下载HDFS文件

    */

    @Test

    public void copyToLocalFile() throws Exception {

        Path localPath = new Path("/Users/rocky/tmp/h.txt");

        Path hdfsPath = new Path("/hdfsapi/test/hello.txt");

        fileSystem.copyToLocalFile(hdfsPath, localPath);

    }

    /**

    * 查看某个目录下的所有文件

    */

    @Test

    public void listFiles() throws Exception {

        FileStatus[] fileStatuses = fileSystem.listStatus(new Path("/"));

        for(FileStatus fileStatus : fileStatuses) {

            String isDir = fileStatus.isDirectory() ? "文件夹" : "文件";

            short replication = fileStatus.getReplication();

            long len = fileStatus.getLen();

            String path = fileStatus.getPath().toString();

            System.out.println(isDir + "\t" + replication + "\t" + len + "\t" + path);

        }

    }

    /**

    * 删除

    */

    @Test

    public void delete() throws Exception{

        fileSystem.delete(new Path("/"), true);

    }

    @Before

    public void setUp() throws Exception {

        System.out.println("HDFSApp.setUp");

        configuration = new Configuration();

        fileSystem = FileSystem.get(new URI(HDFS_PATH), configuration, "hadoop");

    }

    @After

    public void tearDown() throws Exception {

        configuration = null;

        fileSystem = null;

        System.out.println("HDFSApp.tearDown");

    }

}

·

上一篇下一篇

猜你喜欢

热点阅读