Pytorch学习(一)、Tensor介绍
2019-02-15 本文已影响12人
Latet
前言
未经允许,不得转载,谢谢~~~
本文主要介绍Pytorch中的Tensor,Tensor目前已经成为一种重要的数据结构,它不仅在pytorch中出现,也在当前主流的深度学习框架中存在,比如Tensorflow、Torch和MXnet等。
Tensor可以理解为高维数组,0维就是一个数(标量),一维就是一个向量,二维就是矩阵,或者更高的高维数组。
一、tensor类型和存储
在pytorch中判断一个数据结构x是否为tensor的语句为:
torch.is_tensor(x)
在pytorch中判断一个数据结构x存储是否为pytorch存储对象的语句为:
torch.is_storage(x)
实际操作
其中,torch.numel()是用来确定tensor中数据个数。
import torch
x = [1,2,3,4,5]
print(torch.is_tensor(x))
print(torch.is_storage(x))
y = torch.randn(1,2,3,4,5)
print(torch.is_tensor(y))
print(torch.is_storage(y))
print('the number of y is:',torch.numel(y))
输出为:
False
False
True
False
the number of y is: 120
二、 tensor和numpy的互相转换
在pytorch中,tensor能够很好的跟numpy进行转换,这样上手就很方便。但是,装换时numpy类型需提前转换成array,对列表list这类数据转换成tensor会把报错。
实际操作:
import numpy as np
x1 = np.array(x)
x2 = torch.from_numpy(x1)#numpy转换成tensor
x3 = x2.numpy()#tensor转换成numpy
print(x1)
print(x2)
print(x3)
输出:
[1 2 3 4 5]
tensor([1, 2, 3, 4, 5], dtype=torch.int32)
[1 2 3 4 5]
三、tensor的操作
tensor的操作和python、matlab操作都差不多。
生成随机矩阵和随机数的tensor
rand:随机生成(0,1)之间的tensor;
randn:随机生成均值为0方差为1的tensor;
randperm:生成随机数
实例:
print('生成随机矩阵0-1',torch.rand(10))
print('生成正态分布矩阵(均值为0方差为1):',torch.randn(4,5))
print('生成随机数:',torch.randperm(10))
输出:
生成随机矩阵0-1 tensor([0.9267, 0.7695, 0.6366, 0.9078, 0.9745, 0.9479, 0.0129, 0.7216, 0.2206,
0.2062])
生成正态分布矩阵(均值为0方差为1): tensor([[-0.8793, -1.1207, -0.4978, -0.2495, 0.0289],
[ 0.4196, -0.1772, 0.6592, -1.3391, 0.9928],
[ 0.0786, 1.2136, -0.4002, -0.2884, -0.9214],
[-0.0820, 1.6583, -1.2440, 1.3483, 0.2718]])
生成随机数: tensor([4, 3, 7, 9, 0, 6, 1, 8, 5, 2])
生成固定变换范围的tensor
在matlab中,生成固定数组有linspace均分操作,在pytorch中也有相同的
实例:
y_linear = torch.linspace(2,10,steps=25)#线性均分操作
print(y_linear)
y_log = torch.logspace(-10,10,steps=15)#log均分操作
print(y_log)
print(torch.arange(10,20,2))#生成步长为2的一维tensor
print(torch.arange(10,20))#生成步长为1的一维tensor
输出:
tensor([ 2.0000, 2.3333, 2.6667, 3.0000, 3.3333, 3.6667, 4.0000, 4.3333,
4.6667, 5.0000, 5.3333, 5.6667, 6.0000, 6.3333, 6.6667, 7.0000,
7.3333, 7.6667, 8.0000, 8.3333, 8.6667, 9.0000, 9.3333, 9.6667,
10.0000])
tensor([1.0000e-10, 2.6827e-09, 7.1969e-08, 1.9307e-06, 5.1795e-05, 1.3895e-03,
3.7276e-02, 1.0000e+00, 2.6827e+01, 7.1968e+02, 1.9307e+04, 5.1795e+05,
1.3895e+07, 3.7276e+08, 1.0000e+10])
tensor([10, 12, 14, 16, 18])
tensor([10, 11, 12, 13, 14, 15, 16, 17, 18, 19])
tensor操作符
在pytorch中,操作符和matlab、python也比较相似,比如add、mul、exp等。
实例:
a = torch.Tensor([[1,2],[3,4]])
a_mul = torch.mul(a,2)
print(a_mul)
a_add = torch.add(a,200)
print(a_add)
输出:
tensor([[2., 4.],
[6., 8.]])
tensor([[201., 202.],
[203., 204.]])
在pytorch中还有许多操作,比如找到最大值max()函数,最小值min()函数,找到最值的位置argmin(),argmax()等。其中dim就是代表行还是列的操作。但是,pytorch最重要的就是可以将tensor送入到GPU中运行,实际操作为:
if torch.cuda.is_available():#事先判断cuda是否使用
x = x.cuda()##送入GPU运算
参考资料
[1].pytorch中文手册
[2].Pytorch Recipes