2.nn.module的使用

2020-10-14  本文已影响0人  三角绿毛怪
import torch
from torch import nn
from torch import optim#优化器类
# 1. torch.optim.SGD(参数,学习率)
# 2. torch.optim.Adam(参数,学习率)
import numpy as np
from matplotlib import pyplot as plt

# 1. 定义数据
x = torch.rand([50, 1])
y = x * 3 + 0.8


# 2 .定义模型
class Lr(nn.Module):
    def __init__(self):
        #__init__需要调用super方法,继承父类的属性和方法
        super(Lr, self).__init__()
        #nn.Linear()为全链接层,参数分别是输入的数量和输出的数量
        self.linear = nn.Linear(1, 1)

    def forward(self, x):
        #前向传播的过程
        #实际上是Lr的实例,将x传入,用里面的forward方法传入参数,得到输出
        out = self.linear(x)
        return out


# 2. 实例化模型,loss,和优化器
model = Lr()
#定义损失函数
criterion = nn.MSELoss()
#定义优化的方法为随机梯度下降,学习率为1e-3
optimizer = optim.SGD(model.parameters(), lr=1e-3)
# 3. 训练模型
for i in range(20000):
    #这里的四个步骤是优化类的使用方法
    out = model(x)  # 3.1 获取预测值
    loss = criterion(y, out)  # 3.2 计算损失
    optimizer.zero_grad()  # 3.3 梯度归零
    loss.backward()  # 3.4 计算梯度
    optimizer.step()  # 3.5 更新梯度
    if (i + 1) % 2000 == 0:
        print('Epoch[{}/{}], loss: {:.6f}'.format(i, 30000, loss.data))


上一篇 下一篇

猜你喜欢

热点阅读