Pytorch笔记9-Pytorch工程的文件结构

2024-07-19  本文已影响0人  江湾青年

在基于PyTorch实现一个算法时,通常会将代码分成多个模块,每个模块单独放在一个Python脚本中。这种做法可以提高代码的可读性、可维护性和重用性。包括:

模型定义脚本 (model.py)


数据处理脚本 (data.py)


训练和验证脚本 (train.py)


推理脚本 (inference.py)

import torch
def infer(model, inputs, device):
    model.eval()
    inputs = inputs.to(device)
    with torch.no_grad():
        outputs = model(inputs)
    return outputs

工具文件 (utils.py)

这个文件可以包含一些辅助函数。例如保存和加载模型:

import torch
# 保存模型
def save_model(model, path='model.pth'):
    torch.save(model.state_dict(), path)
# 加载模型
def load_model(model, path='model.pth'):
    model.load_state_dict(torch.load(path))
    return model

配置文件 (config.py)

batch_size = 32
learning_rate = 0.01
num_epochs = 10

主程序脚本 (main.py 或 run.py)

# 导入其他库
import torch
import torch.nn as nn
import torch.optim as optim
# 导入自己写的文件的库
from config import batch_size, learning_rate, num_epochs, model_save_path
from data import get_data_loaders
from model import SimpleModel
from train import train_one_epoch, validate
from inference import infer
from utils import save_model, load_model

def main():
    # 指定设备
    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
    # 实例化模型
    model = SimpleModel().to(device)
    # 定义损失函数
    criterion = nn.MSELoss()
    # 定义优化器
    optimizer = optim.SGD(model.parameters(), lr=learning_rate)
    # 定义数据集
    train_loader, valid_loader = get_data_loaders(batch_size)
    # 训练模型
    for epoch in range(num_epochs):
        train_loss = train_one_epoch(model, train_loader, criterion, optimizer, device)
        valid_loss = validate(model, valid_loader, criterion, device)
        print(f'Epoch [{epoch+1}/{num_epochs}], Training Loss: {train_loss:.4f}, Validation Loss: {valid_loss:.4f}')
    # 保存模型
    save_model(model, model_save_path)
    # 进行推理
    model = load_model(SimpleModel().to(device), model_save_path, device)
    new_inputs = torch.randn(10, 10)
    outputs = infer(model, new_inputs, device)
    print("Inference results:")
    print(outputs)

if __name__ == "__main__":
    main()
上一篇 下一篇

猜你喜欢

热点阅读