- 博客(5)
- 资源 (4)
- 问答 (1)
- 收藏
- 关注
原创 matlab parfor使用
最近要使用matlab对数据集进行处理,由于数据集很大,matlab串行处理效率很低。在网上查到可以使用parfor循环代替原本的for循环来实现matlab中的并行循环。parfor要求循环中的数据没有上下依赖,每个循环之间相互独立,这样才能在多个处理器上运行并行任务。在使用parfor时,总是出现各种问题,最后直接用parpool启动matlab并行计算,把原来for循环中的内容单独放到一个函数中,在parpool中间调用,成功实现并行处理但是这样做,每次都要重新开启和关闭进程池,.
2020-12-24 10:36:04 5501
翻译 SpherePHD球面卷积和池化
为了将CNN应用到球形多面体上,需要设计满足下列标准的卷积和池化核:卷积核应适用于用SpherePHD表示的所有像素点 pixel of interest应该位于卷积核的中心。卷积的输出应该无偏差地维持每个像素点的局部和相邻信息 卷积核的设计应该考虑相邻的三角形像素有不同的朝向 池化核应该将SpherePHD表示的图片(球形多面体表示)从更高的子划分降低到更低的子划分为了使用传统的二维卷积方法实现SpherePHD中的卷积层,首先用位置索引来表示每个子划分的像素位置。通过使用给定子划分中的索
2020-12-22 10:26:51 845
原创 attributeerror module ‘torch.utils.data‘ has no attribute ‘iterabledataset‘
使用tfrecord在pytorch上读取tensorflow数据集时出现attributeerror module 'torch.utils.data' has no attribute 'iterabledataset'网上有人说出现这个问题的原因是因为pytorch文件损坏,解决方法是用相同版本的pytorch替换但是替换了还是不行最后在pytorch说明文档中发现pytorch1.2之前的版本都是没有torch.utils.data.IterableDatset这个类的卸载低版本的p
2020-12-12 21:15:55 1656 2
原创 nn.Embedding的使用
一般使用torch.nn.Embedding(num_embeddings: int, embedding_dim: int)时只用到前两个参数num_embeddings表示嵌入的字典个数,如果输入的的是数组,那么num_embeddings至少要比数组中最大的元素要大否则,会出现IndexError: index out of range in self# embedding = nn.Embedding(10, 3)# 前一个数至少要比输入元素中最大值要大embedding = nn
2020-12-07 15:31:40 2036
具有图形界面的Java记事本程序
2017-03-30
Java具有图形界面的记事本程序
2017-03-30
CUDA矩阵加法块、线程与数组间的理解
2017-03-04
TA创建的收藏夹 TA关注的收藏夹
TA关注的人