华域联盟 Python 浅谈pytorch中的nn.Sequential(*net[3: 5])是啥意思

浅谈pytorch中的nn.Sequential(*net[3: 5])是啥意思

看到代码里面有这个

1 class ResNeXt101(nn.Module):
    2 def __init__(self):
        3 super(ResNeXt101, self).__init__()
        4 net = resnext101()
        # print(os.getcwd(), net)

        5 net = list(net.children())  # net.children()得到resneXt 的表层网络
        # for i, value in enumerate(net):
        #     print(i, value)
        6 self.layer0 = nn.Sequential(net[:3])  # 将前三层打包0, 1, 2两层
        print(self.layer0)
        7 self.layer1 = nn.Sequential(*net[3: 5])  # 将3, 4两层打包
        8 self.layer2 = net[5]
        9 self.layer3 = net[6]

可以看到代码中的第六行(序号自己去掉,我打上去的) self.layer0 = nn.Sequential(net[:3])
第七行self.layer1 = nn.Sequential(*net[3: 5])
有一个nn.Sequential(net[:3])
nn.Sequential(*net[3: 5])
今天不讲nn.Sequential()用法,意义,作用因为我也不咋明白。惊天就说*net[3: 5]这个东西为啥要带“ * ”
当代码中不带*的时候,运行会出现以下问题

意思就是列表不是子类,就是说参数不对

net = list(net.children())

这一行代码是将模型的每一层取出来构建一个列表,自己试着打印就可以。大概的输出就是[conv(),BatchNorm2d(), ReLU,MaxPool2d]等等

总共是是个元素,和一般的列表不太一样。

当我们取net[:3]的时候,传进去的参数是一个列表,但是我们用*net[:3]的时候传进去的是单个元素

list1 = ["conv", ("relu", "maxing"), ("relu", "maxing", 3), 3]
list2 = [list1[:1]]
list3 = [*list1[:1]]
print("list2:{}, *list1[:2]:{}".format(list1[:1], *list1[:1]))

结果不带的是列表,带的是元素,所以nn.Sequential(*net[3: 5])中的*net[3: 5]就是给nn.Sequential()这个容器中传入多个层。

到此这篇关于pytorch中的nn.Sequential(*net[3: 5])是啥意思的文章就介绍到这了,更多相关pytorch nn.Sequential(*net[3: 5])内容请搜索华域联盟以前的文章或继续浏览下面的相关文章希望大家以后多多支持华域联盟!

您可能感兴趣的文章:

本文由 华域联盟 原创撰写:华域联盟 » 浅谈pytorch中的nn.Sequential(*net[3: 5])是啥意思

转载请保留出处和原文链接:https://www.cnhackhy.com/21581.htm

本文来自网络,不代表华域联盟立场,转载请注明出处。

作者: sterben

发表回复

联系我们

联系我们

2551209778

在线咨询: QQ交谈

邮箱: [email protected]

工作时间:周一至周五,9:00-17:30,节假日休息

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部