CUDA02_03CUDA编程入门与GPU模式

2020-01-18  本文已影响0人  杨强AT南京

  CUDA的核心就是扩展了C/C++语法,提出了核函数的语法,使得单一在CPU上运算的函数,可以指定在GPU上计算。同时提供辅助的API完成一些计算相关的操作。
  CUDA的扩展语法还是采用PRO*C/C++等类似的思想,就是预编译,CUDA提供了一个nvcc的预编译工具,该工具可以自动调用本地编译器,实现完整的编译过程。工具根据扩展名来识别,cuda的扩展语法源代码扩展名是.cu。
  因为Visual Studio貌似采用UTF-8BOM编码,使得微软cl编译器在编译CUDA的头文件的时候,出现各种警告。本主题在附录简单介绍了一下编译器中源代码编码的设置选项。
  测试代码证明,GPU的运算快的一米。


CUAD设备管理

检查CUDA版本

  1. 初始化驱动APU

    • CUresult cuInit ( unsigned int Flags )
      • 参数必须是0
      • 返回的类型是枚举类型:CUresult
        • CUDA_SUCCESS,
        • CUDA_ERROR_INVALID_VALUE,
        • CUDA_ERROR_INVALID_DEVICE,
        • CUDA_ERROR_SYSTEM_DRIVER_MISMATCH,
        • CUDA_ERROR_COMPAT_NOT_SUPPORTED_ON_DEVICE
    • 该函数必须在调用任何驱动相关API之前调用。
  2. 获取CUDA的版本

    • CUresult cuDriverGetVersion ( int* driverVersion )
      • 参数返回版本号,格式是(1000 major + 10 minor),比如我的就是10010
      • 返回的也是枚举类型,错误返回
        • CUDA_ERROR_INVALID_VALUE
    • 相关的两个API:
      • cudaDriverGetVersion
        • __host__ cudaError_t cudaDriverGetVersion ( int* driverVersion )
      • cudaRuntimeGetVersion
        • __host__ __device__ cudaError_t cudaRuntimeGetVersion ( int* runtimeVersion )
  3. 纯C/C++例子代码

    #include <stdio.h>
    #include <stdlib.h>
    #include <cuda.h>

    int main(int argc, char const *argv[])
    {
        // 1. 任何驱动API调用之前必须先初始化
        CUresult re = cuInit(0);
        if (re != CUDA_SUCCESS){
            printf("cuda设备初始化失败!\n");
            exit(EXIT_FAILURE);
        }
        printf("cuda设备初始化成功!\n");

        // 2. 获取版本
        int cu_version;
        re = cuDriverGetVersion (&cu_version);
        if(re == CUDA_SUCCESS){
            printf("获取版本是:%d\n", cu_version);
        }else{
            printf("获取版本失败!\n");
        }
        return 0;
    }


main: c01_version.c
    @nvcc -o main.exe  -l cuda  c01_version.c
clean:
    @del  *.exe *.exp  *.lib  2>nul 


    C:\01works\02cuda\c03cuda_kernel>main
    cuda设备初始化成功!
    获取版本是:10010
  1. CUDA扩展语法的例子代码
    • CUDA的C/C++扩展语法主要提供了CPU运行与GPU设备运行代码的区分。
    • __host__ cudaError_t cudaDriverGetVersion ( int* driverVersion )
    • __host__ __device__ cudaError_t cudaRuntimeGetVersion ( int* runtimeVersion )
      • 返回类型:cudaError_t:typedef enumcudaError cudaError_t:也是枚举类型,这个函数返回下面两个值之一(这个枚举的值很多)
        • cudaSuccess
        • cudaErrorInvalidValue
    #include <stdio.h>
    #include <stdlib.h>
    #include <cuda.h>

    int main(int argc, char const *argv[])
    {
        int cu_version;
        cudaError_t  cu_re;

        // 1. 获取cuda版本
        cu_re = cudaDriverGetVersion(&cu_version);
        if(cu_re == cudaSuccess){
            printf("获取驱动版本是:%d\n", cu_version);
        }else{
            printf("获取驱动版本失败!\n");
        }

        // 2. 获取cuda运行时版本
        cu_re = cudaRuntimeGetVersion(&cu_version);
        if(cu_re == cudaSuccess){
            printf("获取运行时版本是:%d\n", cu_version);
        }else{
            printf("获取运行时版本失败!\n");
        }

        return 0;
    }

    main: c01_version.c
    @ # nvcc -o main.exe  -l cuda  c01_version.c
    @ nvcc -o main.exe  c02_version.cu
    clean:
    @del  *.exe *.exp  *.lib  2>nul 

    C:\01works\02cuda\c03cuda_kernel>main
    获取驱动版本是:10010
    获取运行时版本是:10010

设备信息检测

  1. API
    1. 获取设备列表与数量
      • CUresult cuDeviceGetCount ( int* count )
      • CUresult cuDeviceGet ( CUdevice* device, int ordinal )
    2. 获取指定设备的name,id,属性,内存大小
      • CUresult cuDeviceGetAttribute ( int* pi, CUdevice_attribute attrib, CUdevice dev )
      • CUresult cuDeviceGetLuid ( char* luid, unsigned int* deviceNodeMask, CUdevice dev )
      • CUresult cuDeviceGetUuid ( CUuuid* uuid, CUdevice dev )
      • CUresult cuDeviceGetName ( char* name, int len, CUdevice dev )
      • CUresult cuDeviceTotalMem ( size_t* bytes, CUdevice dev )
    typedef struct CUuuid_st {                                /**< CUDA definition of UUID */
        char bytes[16];
    } CUuuid;
    #endif
  1. API的使用例子代码
    • 编译脚本与运行效果,就不再罗列。
    #include <stdio.h>
    #include <stdlib.h>
    #include <cuda.h>

    int main(int argc, char const *argv[]){
        cuInit(0);   // 不做错误处理了!

        // 1. 获取设备的数量
        CUresult re;
        int count;
        re = cuDeviceGetCount(&count);
        if(re == CUDA_SUCCESS){
            printf("设备数量为:%d\n", count);
        }else{
            printf("设备数量获取失败!\n");
        }


        for(int i =0; i < count; i++){
            CUdevice device;
            re = cuDeviceGet (&device, i);
            if(re != CUDA_SUCCESS){
                printf("获取设备%d失败!\n", i);
                continue;
            }
            // 2. 获取设备的信息-uid
            CUuuid uid;
            cuDeviceGetUuid ( &uid,  device);
            printf("设备%d的uid:", i);
            for(int j = 0; j < 16; j++){
                printf("%02hhX", uid.bytes[j]);
            }
            printf("\n");
            // UUID:一共32为16字节,字符串表示如右:1859B803-EA0D-5A37-74E4-73F6F9B208FF
            // UUID格式:8-4-4-4-12
            // 3. 获取设备的信息-lid
            unsigned int lid;
            unsigned int mask;
            cuDeviceGetLuid ((char*)&lid, &mask, device);
            printf("设备%d的mask:%u\n", i, mask);
            printf("设备%d的uid:%u", i, lid);
            printf("设备节点 :%u\n", lid & mask);

            // 4. 获取设备的信息-name
            char name[256] = {0};
            cuDeviceGetName (name, sizeof(name) - 1, device);
            printf("GPU设备名:%s\n", name);
            // 5. 获取设备的信息-mem
            size_t mem;
            cuDeviceTotalMem (&mem, device);
            printf("GPU内存大小:%zd Bytes\n", mem);
            printf("GPU内存大小:%zd MBytes\n", mem/1024/1024);
        }
        return 0;
    }


  1. 内存信息的cuda函数
    • __host__cudaError_t cudaMemGetInfo ( size_t* free, size_t* total )
      • 返回总内存与剩余内存。
#include <stdio.h>
#include <stdlib.h>
#include <cuda.h>

int main(int argc, char const *argv[]){

    size_t  mem_free, mem_total;
    cudaMemGetInfo (&mem_free, &mem_total);
    printf("总内存:%zd Mbytes\n", mem_total/1024/1024);
    printf("空余内存:%zd MBytes\n", mem_free/1024/1024);
    return 0;
}


设备属性检测

  1. cuDeviceGetAttribute函数
    • CUresult cuDeviceGetAttribute ( int* pi, CUdevice_attribute attrib, CUdevice dev )
      1. pi是返回的属性值
      2. attrib指定需要查询的属性;
      3. 指定设备
#include <stdio.h>
#include <stdlib.h>
#include <cuda.h>


int main(int argc, char const *argv[]){
    // 为了代码的简洁性,省略了异常处理
    cuInit(0);   
    CUdevice device;
    cuDeviceGet (&device, 0);   // 本机只有一块GPU

    // 属性1-兼容的最低版本
    int major, minor;
    cuDeviceGetAttribute(&major, CU_DEVICE_ATTRIBUTE_COMPUTE_CAPABILITY_MAJOR, device);
    cuDeviceGetAttribute(&minor, CU_DEVICE_ATTRIBUTE_COMPUTE_CAPABILITY_MAJOR, device);
    printf("兼容版本:%d.%d\n", major, minor);

    // 属性2-CPU数量
    int  core_count;
    cuDeviceGetAttribute(&core_count, CU_DEVICE_ATTRIBUTE_MULTIPROCESSOR_COUNT, device);
    printf("GPU设备上的核数量:%d\n", core_count);

    // 属性3-时钟频率
    int kernel_rate;
    cuDeviceGetAttribute(&kernel_rate, CU_DEVICE_ATTRIBUTE_CLOCK_RATE, device);
    printf("GPU时钟频率:%0.2fGHz\n", kernel_rate*1e-6f);

    // 属性4-内存频率与带宽
    int mem_rate;
    cuDeviceGetAttribute(&mem_rate, CU_DEVICE_ATTRIBUTE_MEMORY_CLOCK_RATE, device);
    int bus_width;
    cuDeviceGetAttribute(&bus_width, CU_DEVICE_ATTRIBUTE_GLOBAL_MEMORY_BUS_WIDTH, device);
    printf("GPU内存时钟频率:%0.2fGHz,内存带宽:%d比特\n", mem_rate*1e-6f, bus_width);
    // 属性5-L2缓存大小
    int l2_size;
    cuDeviceGetAttribute(&l2_size, CU_DEVICE_ATTRIBUTE_L2_CACHE_SIZE, device);
    printf("L2缓存大小:%d MB\n", l2_size/1024/1024);
    return 0;
}


C:\01works\02cuda\c03cuda_kernel>main
兼容版本:6.6
GPU设备上的核数量:10
GPU时钟频率:1.67GHz
GPU内存时钟频率:4.00GHz,内存带宽:192比特
L2缓存大小:1 MB

  1. cudaDeviceGetAttribute函数
    • 这个函数是可以在GPU上运行的。
    • 参数与上面一样,只是枚举类型的拼写不同。
    • __host__ __device__ cudaError_t cudaDeviceGetAttribute ( int* value, cudaDeviceAttr attr, int device )
#include <stdio.h>
#include <stdlib.h>
#include <cuda.h>


int main(int argc, char const *argv[]){
    // 为了代码的简洁性,省略了异常处理
    int kernel_count;
    cudaDeviceGetAttribute (&kernel_count, cudaDevAttrMultiProcessorCount, 0);
    printf("GPU设备上的核数量:%d\n", kernel_count);
    return 0;
}

// nvcc -o main.exe  c06_attribute.cu
  1. cudaGetDeviceProperties函数
    • __host__ cudaError_t cudaGetDeviceProperties ( cudaDeviceProp* prop, int device )
      • 返回结构,结构包含基本上所有属性。
#include <stdio.h>
#include <stdlib.h>
#include <cuda.h>


int main(int argc, char const *argv[]){
    // 为了代码的简洁性,省略了异常处理
    cudaDeviceProp prop;
    cudaGetDeviceProperties (&prop, 0);

    printf("GPU设备上的核数量:%d\n", prop.multiProcessorCount);
    return 0;
}

// nvcc -o main.exe c07_properties.cu

CUDA基本编程模式

CUDA扩展C语法

GPU调用函数定义

#include <stdio.h>
#include <cuda.h>

/*
  1. 定义核函数:
*/
__global__ void kernel_add(float* a, float *b, float *r){

    int i = blockDim.x * blockIdx.x + threadIdx.x;
    r[i] = a[i] + b[i];
}

GPU内存申请与拷贝

  1. 函数定义

    • 内存分配:
      • __host__ __device__ cudaError_t cudaMalloc ( void** devPtr, size_t size )
    • 内存拷贝:
      • __host__ cudaError_t cudaMemcpy ( void* dst, const void* src, size_t count, cudaMemcpyKind kind )
  2. 代码实现

    // 2. GPU内存分配与初始化
    // 2.1. CPU数据
    int n = 1024 * 1024;
    int size = n * sizeof(float);

    float *cpu_a, *cpu_b, *cpu_r;
    cpu_a = (float*)malloc(size);
    cpu_b = (float*)malloc(size);
    cpu_r = (float*)malloc(size);

    // 初始化数cpu内存
    for(int i=0; i < n; i++){
        cpu_a[i] = 90.0;
        cpu_b[i] = 10.0;
    }
    
    // 2.2. GPU内存
    float *gpu_a, *gpu_b, *gpu_r;
    cudaMalloc((void**)&gpu_a, size);
    cudaMalloc((void**)&gpu_b, size);
    cudaMalloc((void**)&gpu_r, size);
    
    // 2.3. GPU数据
    cudaMemcpy(gpu_a, cpu_a, size, cudaMemcpyHostToDevice);
    cudaMemcpy(gpu_b, cpu_b, size, cudaMemcpyHostToDevice);

在GPU上调用函数

    // 3. 分配GPU
    dim3 dimBlock(512);       // 块数 blockDim封装了块的描述
    dim3 dimGrid(n/512);      // 每块的线程数,blockIdx封装了块中kernel的索引
                              // kernel被多个线程调用,线程的描述封装为threadIdx

    // 4. 调用kernel
    kernel_add<<<dimGrid, dimBlock>>>(gpu_a, gpu_b, gpu_r);

从GPU拷贝运算结果

    // 5. GPU返回数据
    cudaMemcpy(cpu_r, gpu_r, size, cudaMemcpyDeviceToHost);

    printf("%f\n", cpu_r[1]);
    // 6. GPU内存释放
    cudaFree(gpu_a);
    cudaFree(gpu_b);
    cudaFree(gpu_r);

    free(cpu_a);
    free(cpu_b);
    free(cpu_r);

完整的程序代码

#include <stdio.h>
#include <cuda.h>

/*
  1. 定义核函数:
*/
__global__ void kernel_add(float* a, float *b, float *r){

    int i = blockDim.x * blockIdx.x + threadIdx.x;
    r[i] = a[i] + b[i];
}

int main(int argc, char const *argv[]){
    
    // 2. GPU内存分配与初始化
    // 2.1. CPU数据
    int n = 1024 * 1024;
    int size = n * sizeof(float);

    float *cpu_a, *cpu_b, *cpu_r;
    cpu_a = (float*)malloc(size);
    cpu_b = (float*)malloc(size);
    cpu_r = (float*)malloc(size);

    // 初始化数cpu内存
    for(int i=0; i < n; i++){
        cpu_a[i] = 90.0;
        cpu_b[i] = 10.0;
    }
    
    // 2.2. GPU内存
    float *gpu_a, *gpu_b, *gpu_r;
    cudaMalloc((void**)&gpu_a, size);
    cudaMalloc((void**)&gpu_b, size);
    cudaMalloc((void**)&gpu_r, size);
    
    // 2.3. GPU数据
    cudaMemcpy(gpu_a, cpu_a, size, cudaMemcpyHostToDevice);
    cudaMemcpy(gpu_b, cpu_b, size, cudaMemcpyHostToDevice);

    // 3. 分配GPU
    dim3 dimBlock(512);       // 块数 blockDim封装了块的描述
    dim3 dimGrid(n/512);      // 每块的线程数,blockIdx封装了块中kernel的索引
                              // kernel被多个线程调用,线程的描述封装为threadIdx

    // 4. 调用kernel
    kernel_add<<<dimGrid, dimBlock>>>(gpu_a, gpu_b, gpu_r);

    // 5. GPU返回数据
    cudaMemcpy(cpu_r, gpu_r, size, cudaMemcpyDeviceToHost);

    printf("%f\n", cpu_r[1]);

    // 6. GPU内存释放
    cudaFree(gpu_a);
    cudaFree(gpu_b);
    cudaFree(gpu_r);

    free(cpu_a);
    free(cpu_b);
    free(cpu_r);

    return 0;
}

// nvcc -o main.exe  -Xcompiler /source-charset:utf-8  c08kernel_function.cu

运行结果

GPU运算结果

观察GPU运算过程中的性能

GPU的利用率

附录

1. 关于编译器对源代码编码的识别

默认编译情况下产生的编码警告 指定编码后,警告消失
上一篇下一篇

猜你喜欢

热点阅读