Pytorch 保存和加载模型
各种情况下pytorch 如何保存/加载模型
·
当保存和加载模型时,需要熟悉三个核心功能:
1. torch.save
:将序列化对象保存到磁盘。此函数使用
Python
的
pickle
模块进行序列化。使
用此函数可以保存如模型、
tensor
、字典等各种对象。
2. torch.
load
:使用
pickle
的
unpickling
功能将
pickle
对象文件反序列化到内存。此功能还可
以有助于设备加载数据。
3. torch.nn.Module.load_state_dict
:使用反序列化函数
state_dict
来加载模型的参数字典。
1 保存和加载推理模型
保存
torch.save(model.state_dict(), PATH)
加载
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH))
model.eval()
当保存好模型用来推断的时候,只需要保存模型学习到的参数,使用
torch.save()
函数来保
存模型
state_dict
,
它会给模型恢复提供 最大的灵活性,这就是为什么要推荐它来保存的原
因。
在
PyTorch
中最常见的模型保存使
‘.pt’
或者是
‘.pth’
作为模型文件扩展名。
请记住,在运行推理之前,务必调用
model.eval()
去设置
dropout
和
batch normalization
层为评 估模式。如果不这么做,可能导致 模型推断结果不一致。
注意:
load_state_dict() 函数只接受字典对象,而不是保存对象的路径。这就意味着在你传给
load_state_dict()
函数之前,你必须反序列化 你保存的
state_dict
。例如,你无法通过
model.load_state_dict(PATH)
来加载模型。
2 保存/加载完整模型
保存
torch.save(model, PATH)
加载
new_model = torch.load(PATH)
new_model.eval()
#new_model 不再需要第一种方法中的建立新模型的步骤
此部分保存
/
加载过程使用最直观的语法并涉及最少量的代码。以
Python ‘pickle’
模块的方式
来保存模型。这种方法的缺点是序列化数据受 限于某种特殊的类而且需要确切的字典结构。
这是因为
pickle
无法保存模型类本身。相反,它保存包含类的文件的路径,该文件在加载时使
用。 因此,当在其他项目使用或者重构之后,您的代码可能会以各种方式中断。
在
PyTorch
中最常见的模型保存使用
‘.pt’
或者是
‘.pth’
作为模型文件扩展名。
请记住,在运行推理之前,务必调用
model.eval()
设置
dropout
和
batch normalization
层为评估模式。如果不这么做,可能导致模型推断结果不一致。
3 保存和加载 Checkpoint 用于推理/继续训练
保存
torch.save({
'epoch': epoch,
'model_state_dict': model.state_dict(),
'optimizer_state_dict': optimizer.state_dict(),
'loss': loss,
...
}, PATH)
加载
model = TheModelClass(*args, **kwargs)
optimizer = TheOptimizerClass(*args, **kwargs)
checkpoint = torch.load(PATH)
model.load_state_dict(checkpoint['model_state_dict'])
optimizer.load_state_dict(checkpoint['optimizer_state_dict'])
epoch = checkpoint['epoch']
loss = checkpoint['loss']
model.eval()
# - or -
model.train()
4 在一个文件中保存多个模型
保存
torch.save({
'modelA_state_dict': modelA.state_dict(),
'modelB_state_dict': modelB.state_dict(),
'optimizerA_state_dict': optimizerA.state_dict(),
'optimizerB_state_dict': optimizerB.state_dict(),
...
}, PATH)
加载
modelA = TheModelAClass(*args, **kwargs)
modelB = TheModelBClass(*args, **kwargs)
optimizerA = TheOptimizerAClass(*args, **kwargs)
optimizerB = TheOptimizerBClass(*args, **kwargs)
checkpoint = torch.load(PATH)
modelA.load_state_dict(checkpoint['modelA_state_dict'])
modelB.load_state_dict(checkpoint['modelB_state_dict'])
optimizerA.load_state_dict(checkpoint['optimizerA_state_dict'])
optimizerB.load_state_dict(checkpoint['optimizerB_state_dict'])
modelA.eval()
modelB.eval()
# - or -
modelA.train()
modelB.train()
当保存一个模型由多个
torch.nn.Modules
组成时,例如
GAN(
对抗生成网络
)
、
sequence-to-
sequence (
序列到序列模型
),
或者是多个模型融合
,
可以采用与保存常规检查点相同的方法。
换句话说,保存每个模型的
state_dict
的字典和相对应的优化器。如前所述,可以通过简单地
将它们附加到字典的方式来保存任何其他项目,这样有助于恢复训练。
PyTorch
中常见的保存
checkpoint
是使用
.tar
文件扩展名。 要加载项目,首先需要初始化模型和优化器,然后使用
torch.
load
()
来加载本地字典。这里,你可以非常容易的通过简单查询字典来访问你所保存的项目。
请记住在运行推理之前,务必调用
model.eval()
去设置
dropout
和
batch normalization
为评估。如果不这样做,有可能得到不一致的推断结果。 如果你想要恢复训练,请调用
model.train()
以 确保这些层处于训练模式。
5 使用在不同模型参数下的热启动模式
保存
torch.save(modelA.state_dict(), PATH)
加载
modelB = TheModelBClass(*args, **kwargs)
modelB.load_state_dict(torch.load(PATH), strict=False)
在迁移学习或训练新的复杂模型时,部分加载模型或加载部分模型是常见的情况。利用训练好
的参数,有助于热启动训练过程,并希望帮助你的模型比从头开始训练能够更快地收敛。
无论是从缺少某些键的
state_dict
加载还是从键的数目多于加载模型的
state_dict ,
都可以通过在
load_state_dict()
函数中将
strict
参数设置为
False
来忽略非匹配键的函数。
如果要将参数从一个层加载到另一个层,但是某些键不匹配,主要修改正在加载的
state_dict
中的 参数键的名称以匹配要在加载到模型中的键即可。
6 通过设备保存/加载模型
6.1 保存到 CPU、加载到 CPU
保存
torch.save(model.state_dict(), PATH)
加载
device = torch.device('cpu')
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH, map_location=device))
6.2 保存到 GPU、加载到 GPU
保存
torch.save(model.state_dict(), PATH)
加载
device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH))
model.to(device) # 确保在你提供给模型的任何输入张量上调用input = input.to(device)
当在
GPU
上训练并把模型保存在
GPU
,只需要使用
model.
to
(torch.device(
'cuda'
))
,将初
始化的
model
转换为
CUDA
优化模型。另外,请 务必在所有模型输入上使用
.to
(
torch.device
(
'
cuda
'
))
函数来为模型准备数据。请注意,调用
my_tensor.
to
(device)
会在
GPU
上返回
my_tensor
的副本。 因此,请记住手动覆盖张量:
my_tensor= my_tensor.
to
(torch.device(
'cuda'
))
。
6.3 保存到 CPU,加载到 GPU
保存
torch.save(model.state_dict(), PATH)
加载
device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH, map_location="cuda:0")) # Choose whatever GPU device number you want
model.to(device) # 确保在你提供给模型的任何输入张量上调用input = input.to(device)
在
CPU
上训练好并保存的模型加载到
GPU
时,将
torch.
load
()
函数中的
map_location
参数设
置为
cuda:device_id
。这会将模型加载到指定的
GPU
设备。接下来,请务必调用
model.
to
(torch.device(
'cuda'
))
将模型的参数张量转换为
CUDA
张量。最后,确保在所有
模型输入上使用
.to
(
torch.device
(
'
cuda
'
))
函数来为
CUDA
优化模型。请注意,调用
my_tensor.
to
(device)
会在
GPU
上返回
my_tensor
的新副本。它不会覆盖
my_tensor
。因
此, 请手动覆盖张量
my_tensor = my_tensor.
to
(torch.device(
'cuda'
))
。
6.4 保存 torch.nn.DataParallel 模型
保存
torch.save(model.module.state_dict(), PATH)
加载
# 加载任何你想要的设备
torch.nn.DataParallel
是一个模型封装,支持并行
GPU
使用。要普通保存
DataParallel
模型
,
请保存
model.module.state_dict()
。 这样,你就可以非常灵活地以任何方式加载模型到你
想要的设备中。
更多推荐
已为社区贡献1条内容
所有评论(0)