人工智能
文章平均质量分 88
longvoyage
w
展开
-
MindSpore社区活动:FCN图像语义分割
FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。全卷积神经网络主要使用以下三种技术:卷积化(Convolutional)使用VGG-16作为FCN的backbone。VGG-16的输入为224*224的RGB图像,输出为1000个预测值。VGG-16只能接受固定大小的输入,丢弃了空间坐标,产生非空间输出。原创 2024-06-19 22:38:11 · 605 阅读 · 0 评论 -
MindSpore社区活动:数据处理性能优化
在深度学习中,数据加载的效率直接影响了模型的训练速度和质量。数据处理包含如下流程:MindSpore Dataset为用户提供了数据加载以及数据增强的功能,在数据的整个pipeline过程中,其中的每一步骤如果都能够进行合理的运用,那么数据的性能会得到很大的优化和提升。本次体验将基于CIFAR-10数据集来展示如何在数据加载、数据处理和数据增强的过程中进行性能的优化。原创 2024-04-19 20:45:18 · 915 阅读 · 2 评论 -
MindSpore社区活动:我用RNN看懂你
最后我们设计一个预测函数,实现开头描述的效果,输入一句评价,获得评价的情感分类。将输入句子进行分词;使用词表获取对应的index id序列;index id序列转为Tensor;送入模型获得预测结果;打印输出预测结果。复制最后我们预测开头的样例,可以看到模型可以很好地将评价语句的情感进行分类。原创 2024-01-21 20:15:36 · 818 阅读 · 0 评论 -
MindSpore社区活动:InceptionV3和CIFAR-10的奇遇
1.mindspore社区InceptionV3模型是谷歌Inception系列里面的第三代模型,相比于其它神经网络模型,Inception网络最大的特点在于将卷积核组合在一起,建立了一个多分支结构,使得网络能够并行地计算。Inception网络架构的优点更高的表现力:Inception网络具有更高的表现力,即可以在相同的计算资源下获得更好的分类效果。并行计算:通过并行计算,不同分支的计算可以在不同的GPU上进行,并且可以有效地活用多个GPU的计算资源。原创 2023-12-24 18:04:04 · 1814 阅读 · 1 评论 -
MindSpore社区活动:图像语义分割模型-DeepLabV3
在前期的图像检测阶段,分割模型使用完全卷积的神经网络FCNN,其中掩模和边界被放置好,然后,输入通过一个非常深的网络进行处理,其中累积的卷积和池会导致图像的分辨率和质量显著降低,因此,结果是高信息丢失率的结果。DeepLab模型利用空洞卷积和空洞空间卷积池化金字塔(ASPP)架构解决了这一挑战。DeepLab系列发展历程:v1:修改经典分类网络(VGG16),将空洞卷积应用于模型中,试图解决分辨率过低及提取多尺度特征问题,用CRF做后处理。原创 2023-10-06 10:52:02 · 89 阅读 · 1 评论 -
MindSpore社区活动:Transformer也能图像分类
CSDN社区:Vision Transformer(ViT)简介Transformer最初提出是针对NLP领域的,并且在NLP领域大获成功。受到其启发,尝试将Transformer应用到CV领域。通过实验,给出的最佳模型在ImageNet1K上能够达到88.55%的准确率(先在Google的JFT数据集上进行了预训练),说明Transformer在CV领域确实是有效的,而且效果还挺惊人。原创 2023-07-25 21:00:58 · 227 阅读 · 0 评论 -
昇思MindSpore:自动向量化Vmap
mindspore, vmap原创 2023-04-17 23:43:40 · 224 阅读 · 0 评论 -
MindSpore v1.6体验,开发套件昇思MindSpore Dev ToolKit
版本不停迭代,带来更多新功能,还有易用性的提升1.6版本我最感兴趣的就是开发套件昇思MindSpore Dev ToolKit首先是更新mindspore版本,其实体验MindSpore Dev ToolKit不更新到1.6也是可以的下载插件地址https://ms-release.obs.cn-north-4.myhuaweicloud.com/1.6.1/IdePlugin/any/MindSpore_Dev_ToolKit-1.6.1.zip插件版本1.6.1选择本地安原创 2022-04-20 20:56:31 · 184 阅读 · 0 评论