KeyError: ‘Transformer/encoderblock_0\\MultiHeadDotProductAttention_1/query\\bias is not a file in t

本文讲述了在Windows系统中运行GitHub上的VIT模型时遇到的路径错误,原因是不同操作系统对路径分隔符的处理不同。文章提供了修改modeling.py和modeling_resnet.py中路径字符串的方法,以确保在Windows环境下正确加载模型权重。
摘要由CSDN通过智能技术生成

在运行Window系统中运行GitHub上的VIT时出现如下报错
报错:
KeyError:‘Transformer/encoderblock_0\MultiHeadDotProductAttention_1/query\kernel is not a file in the archive’

出错原因:
pjoin(ROOT, ATTENTION_Q, “kernel”)将多个路径组合为一个路径出错

pjoin()函数在Windows下,路径分隔符是反斜杠\,而在Unix和Linux下,路径分隔符是正斜杠/

问题描述

KeyError: 'Transformer/encoderblock_0\\MultiHeadDotProductAttention_1/query\\bias is not a file in the archive'

这个错误主要由字符串地址拼接时Windows和Linux等其他系统不太一样,Windows使用 \ 符号,所以找到字符串拼接的地方加上 / 即可

解决方案:

1、modeling.py的相应行加上/

ATTENTION_Q = "MultiHeadDotProductAttention_1/query/"
ATTENTION_K = "MultiHeadDotProductAttention_1/key/"
ATTENTION_V = "MultiHeadDotProductAttention_1/value/"
ATTENTION_OUT = "MultiHeadDotProductAttention_1/out/"
FC_0 = "MlpBlock_3/Dense_0/"
FC_1 = "MlpBlock_3/Dense_1/"
ATTENTION_NORM = "LayerNorm_0/"
MLP_NORM = "LayerNorm_2/"

2、modeling.py的load_from函数加/

def load_from(self, weights, n_block):
    ROOT = f"Transformer/encoderblock_{n_block}/"

3、modeling_resnet.py修改:

self.body = nn.Sequential(OrderedDict([
    ('block1/', nn.Sequential(OrderedDict(
        [('unit1/', PreActBottleneck(cin=width, cout=width*4, cmid=width))] +
        [(f'unit{i:d}/', PreActBottleneck(cin=width*4, cout=width*4, cmid=width)) for i in range(2, block_units[0] + 1)],
        ))),
    ('block2/', nn.Sequential(OrderedDict(
        [('unit1/', PreActBottleneck(cin=width*4, cout=width*8, cmid=width*2, stride=2))] +
        [(f'unit{i:d}/', PreActBottleneck(cin=width*8, cout=width*8, cmid=width*2)) for i in range(2, block_units[1] + 1)],
        ))),    
    ('block3/', nn.Sequential(OrderedDict(
        [('unit1/', PreActBottleneck(cin=width*8, cout=width*16, cmid=width*4, stride=2))] +
        [(f'unit{i:d}/', PreActBottleneck(cin=width*16, cout=width*16, cmid=width*4)) for i in range(2, block_units[2] + 1)],
        ))),
]))

亲测有效!顺利进入到数据集下载部分。
在这里插入图片描述

  • 12
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
这个问题是关于UnicodeDecodeError的错误。根据引用\[1\]和引用\[2\],这个错误通常是由于在使用'gbk'编解码器时遇到了非法的多字节序列引起的。在这个特定的问题中,错误信息指出了一个文件路径的问题,即'Transformer/encoderblock_0\\MultiHeadDotProductAttention_1/query\\kernel is not a file in the archive'。 要解决这个问题,你可以尝试以下几个步骤: 1. 确保文件路径是正确的。检查文件路径中是否有任何错误或拼写错误。确保文件存在并且可以被访问。 2. 检查文件的编码格式。如果文件的编码格式不是'gbk',则可能需要使用适当的编码器进行解码。 3. 尝试使用其他编解码器。如果'gbk'编解码器无法解码文件,可以尝试使用其他编解码器,如'utf-8'。 4. 检查文件内容。如果文件内容包含非法的多字节序列,可能需要对文件内容进行清理或修复。 希望这些步骤能够帮助你解决这个问题。如果问题仍然存在,请提供更多的上下文信息,以便我能够提供更具体的帮助。 #### 引用[.reference_title] - *1* *2* [解决UnicodeDecodeError: ‘gbk‘ codec can‘t decode byte 0x80 in position 0: illegal multibyte sequence问题](https://blog.csdn.net/weixin_46489969/article/details/127043687)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值