attention和self-attention和co-attention Attention和self-attention其具体计算过程是一样的,只是计算对象发生了变化而已。 attention是source对target的attention, 而self attention 是source 对source的attention。 参考材料1 co-attention和attention 参考材料2 *args和**kwargs resnet32在cifar100上训练 参考材料3 参考材料4 git如何切换用户 参考材料5 python如何判断一个目录下是否存在某个文件 os.path.exists(filename) 参考材料6