文章目录[隐藏]
大家还是直接看代码吧~
netG = Generator() print('# generator parameters:', sum(param.numel() for param in netG.parameters())) netD = Discriminator() print('# discriminator parameters:', sum(param.numel() for param in netD.parameters()))
补充:PyTorch查看网络模型的参数量PARAMS和FLOPS等
在PyTorch中,可以使用torchstat这个库来查看网络模型的一些信息,包括总的参数量params、MAdd、显卡内存占用量和FLOPs等。
示例代码如下:
from torchstat import stat from torchvision.models import resnet50, resnet101, resnet152, resnext101_32x8d model = resnet50() stat(model, (3, 224, 224))
打印信息如下:
以上为个人经验,希望能给大家一个参考,也希望大家多多支持华域联盟。如有错误或未考虑完全的地方,望不吝赐教。
您可能感兴趣的文章:
- pytorch固定BN层参数的操作
- pytorch 如何自定义卷积核权值参数
- pytorch交叉熵损失函数的weight参数的使用
- Pytorch 统计模型参数量的操作 param.numel()
- pytorch查看网络参数显存占用量等操作
- pytorch 优化器(optim)不同参数组,不同学习率设置的操作
- pytorch LayerNorm参数的用法及计算过程
本文由 华域联盟 原创撰写:华域联盟 » pytorch 一行代码查看网络参数总量的实现
转载请保留出处和原文链接:https://www.cnhackhy.com/23077.htm