Deep Learning
文章平均质量分 62
大别山伧父
这个作者很懒,什么都没留下…
展开
-
SAVING AND LOADING A GENERAL CHECKPOINT IN PYTORCH
保存和加载通用的断点模型以进行inference或恢复训练,这有助于您从上一个地方继续进行。当保存一个常规断点时,您必须保存模型的state_dict之外的更多信息。保存优化器的state_dict也很重要,因为它包含缓冲区和参数,随着模型的运行而更新。您可能希望保存的其他项目是您离开的时期,最新记录的训练损失,外部torch.nn.嵌入层,以及更多,基于您自己的算法。要保存多个checkpoint,必须将它们组织在字典中,并使用torch.save()序列化字典。一个常见的PyTorch约定是使用.ta原创 2022-02-28 16:06:24 · 776 阅读 · 0 评论 -
部署深度学习算法到云端和边缘设备
Mastering Computer Vision with Tensorflow 2.xby Krishnendu KarSection 4: TensorFlow Implementation at Edge and on the CloudChapter 11, Deep Learning on Edge Devices with CPU/GPU OptimizationObject detection on Android phones using TensorFlow LiteObj原创 2021-08-08 10:30:07 · 1104 阅读 · 0 评论 -
深度学习---zero-shot one-shot few-shot (learning)
在迁移学习中,由于传统深度学习的学习能力弱,往往需要海量数据和反复训练才能修得泛化神功 。为了 “多快好省” 地通往炼丹之路,炼丹师们开始研究 Zero-shot Learning / One-shot Learning / Few-shot Learning。Zero-shot LearningZero-shot Learning,零次学习。成品模型对于训练集中没有出现过的类别,能自动创造出相应的映射:X→YX \rightarrow YX→YOne-shot LearningOne-shot原创 2021-08-07 09:29:08 · 1327 阅读 · 0 评论