深度学习
追梦少年ML
程序改变世界,代码成就未来。
展开
-
预训练语言模型汇总
BART:Denoising Sequence-to-Sequence Pre-training for Natural Language Generation,Translation,and Comprehension本文提出一种用于预训练序列到序列模型的自动去噪编码器BART。BART通过以下方式进行训练:①使用任意的噪声函数破坏文本;②学习模型来重建原始文本。BART的模型结合了BERT的双向编码器和GPT从左到右的解码器。其中编码器将被破坏的输入进行编码(消除破坏的影响),然后解码器根据编码器的最原创 2022-05-01 22:15:11 · 1800 阅读 · 0 评论 -
TensorFlow2设置显存按需分配
在用TensorFlow进行深度学习时,容易遇到显存爆满的情况。如下:numpy.core._exceptions.MemoryError: Unable to allocate 359. MiB for an array with shape (60000, 28, 28) and data type float64解决方案就是设置TensorFlow2设置显存按需分配gpus = tf.config.experimental.list_physical_devices(device_type=原创 2021-09-10 18:45:52 · 1072 阅读 · 0 评论 -
深度学习一:手写数字识别(MNIST)
随着GPU硬件的飞速发展,把深度学习也带到了新的高度,所以这篇就讲一下深度学习的入门项目:手写数字识别。引入Python库:from tensorflow import kerasfrom tensorflow.keras import datasets,models,layers导入数据集:mnist=datasets.mnist(train_x,train_y),(test_x,test_y)=mnist.load_data()数据预处理:train_x,test_x=train_x原创 2021-09-10 10:46:15 · 1038 阅读 · 0 评论 -
基于生成对抗网络(GAN)生成手写数字(MNIST)
生成对抗网络介绍:原创 2021-08-31 21:13:10 · 960 阅读 · 0 评论