当前位置:网站首页>【Pytorch】量化

【Pytorch】量化

2022-06-24 13:02:00 .云哲.


#-*- coding:utf-8 -*-
import torch
 
#量化仅可用cpu
model = ResNet().cpu()
model = torch.load_state_dict(torch.load(weights))
 
#Specify quantization configuration
#在这一步声明了对称量化或非对称量化,及量化bit数
#如下代码中采用了默认的非对称量化,及8bit
model.qconfig = torch.quantization.default_qconfig
model = torch.quantization.prepare(model)
 
#Convert to quantized model
model = torch.quantization.convert(model)
 
#Save model, 保存后模型的size显著减小,但性能损失相对较大
#故,建议考虑量化感知训练
torch.save(model.state_dict(), "path.pt")
原网站

版权声明
本文为[.云哲.]所创,转载请带上原文链接,感谢
https://blog.csdn.net/luolinll1212/article/details/125427019