![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
记录
文章平均质量分 92
自用专栏,记录学习中不懂的
ringthebell
Do not set the limit to yourself!
展开
-
关于在大模型中遇到的6(colab)
这一块运行完了会在控制台弹出个链接,点进去按流程操作,就是让你选择一下用哪个google账号啥的,最后会给你一串代码,在这里输入回车就完事了。目录下有两个并列的文件,一个是文件夹‘Colab Notebooks’,另一个是我这次要用的文件mel_30k.py。接着分别运行这两波代码,将你google drive里面的数据导入进来用于深度学习或者其它操作。你可以在这里面开辟一块可以独立运行的代码块来打印一下你的机器信息。然后把要运行的代码复制到一个独立的代码块运行就完了。左上角新建,上传文件,完事了。原创 2024-02-05 11:02:30 · 404 阅读 · 0 评论 -
关于大模型学习中遇到的5
来源:网络。原创 2024-02-05 09:59:56 · 817 阅读 · 0 评论 -
关于大模型学习中遇到的4
MLP是多层感知器(Multilayer Perceptron)的缩写,多层感知机(MLP)是一种人工神经网络(ANN)的一种,也称为多层前馈网络(MLFN)、深度前馈神经网络(DFNN)、回归神经网络(RNN),是机器学习中一种有监督学习算法。MLP由输入层、输出层和一个以上的隐藏层构成,每一层由一组神经元组成,隐藏层可有多个,当然也可以没有。原创 2024-01-23 11:33:30 · 957 阅读 · 0 评论 -
关于大模型学习中遇到的3
在机器学习和自然语言处理中,Embedding模型是指将高维度的数据(例如文字、图片、视频)映射到低维度空间的过程。简单来说,embedding向量就是一个N维的实值向量,它将输入的数据表示成一个连续的数值空间中的点。本文主要关注文本embedding。Embedding重要的原因在于它可以表示单词或者语句的语义。实值向量的embedding可以表示单词的语义,主要是因为这些embedding向量是根据单词在语言上下文中的出现模式进行学习的。原创 2024-01-19 23:21:27 · 1069 阅读 · 0 评论 -
关于大模型学习中遇到的2
PyTorch 是一个开源的深度学习库,由 Facebook 的人工智能研究团队开发和维护。多维张量的操作:PyTorch 提供了一个类似于 NumPy 的库,用于对多维数组(也称为张量)进行操作。与 NumPy 不同,PyTorch 的张量可以在 GPU 上运行,这使得其可以进行更快的数学运算。深度学习:PyTorch 提供了一套全面的深度学习函数和类,支持各种类型的神经网络。原创 2024-01-19 15:24:55 · 1087 阅读 · 0 评论 -
关于大模型学习中遇到的1
很简单,Numpy是Python的一个科学计算的库,提供了矩阵运算的功能,其一般与Scipy、matplotlib一起使用。其实,list已经提供了类似于矩阵的表示形式,不过numpy为我们提供了更多的函数。如果接触过matlab、scilab,那么numpy很好入手。在以下的代码示例中,总是先导入了numpy:(通用做法import numpu as np 简单输入)原创 2024-01-19 13:54:23 · 809 阅读 · 0 评论