对于卷积神经网络而言,可以使用两种方法降低GPU的内存需求。
1、采用较大的递进步数作为卷积内核,这时不是为每一个像素,而是为两个或四个像素(2或4步幅)来应用卷积内核,这样将产生更少的输出数据。这个技巧通常用于输入层中,因为这一层最消耗内存。
2、引入一个1*1的卷积内核层,从而降低所需的深度。例如,64*64*256的输入可通过96个1*1颗粒减少到64*64*96的输入。
GET:直接将网页上的数据取回来
POST:往指定网页上注入数据
对于卷积神经网络而言,可以使用两种方法降低GPU的内存需求。
1、采用较大的递进步数作为卷积内核,这时不是为每一个像素,而是为两个或四个像素(2或4步幅)来应用卷积内核,这样将产生更少的输出数据。这个技巧通常用于输入层中,因为这一层最消耗内存。
2、引入一个1*1的卷积内核层,从而降低所需的深度。例如,64*64*256的输入可通过96个1*1颗粒减少到64*64*96的输入。
GET:直接将网页上的数据取回来
POST:往指定网页上注入数据