人工智能
文章平均质量分 54
Jiang_Immortals
曾经也会因别人十分钟背下自己一个月背不下来文章而打击,也会因智商差距而沮丧。
一路艰难走来,告诉大家一条制胜秘诀也需自己刻在心上-记性不好就多做笔记,复杂问题拆分成无数小问题来解决,然后不断重复学会的技能直到变成肢体记忆。坚持至寿终气绝也永不言弃。
对了 .我还搞设计,大家也可以交流指点-网址 https://yushangsheji.zcool.com.cn/
展开
-
CUDA/cuDNN 查看
注意:如果没有二次编译代码的需求,正常情况下不需要单独安装CUDA/cuDNN,因为框架都内置了编译好的CUDA,框架版本和CUDA版本是对应的,只需要关注框架版本即可,无需独立关注CUDA版本。默认镜像都内置了最原生的CUDA和cuDNN,如果您自己安装了cudatoolkits等,那么一般会默认优先使用conda中安装的cudatoolkits,注意:通过nvidia-smi命令查看到的CUDA版本只是驱动支持的最高cuda版本参数,不代表实例中安装的是该版本CUDA。后的数字即为版本号。原创 2024-04-23 22:30:46 · 464 阅读 · 0 评论 -
使用 pip 安装 TensorFlow
部分安装方式需要您提供 TensorFlow Python 软件包的网址。:如果系统返回了张量,则意味着您已成功安装 TensorFlow。这样可以确保您升级并使用 Python pip,而不是系统 pip。创建一个新的虚拟环境,方法是选择 Python 解释器并创建一个。在不影响主机系统设置的情况下,在虚拟环境中安装软件包。Python 虚拟环境用于将软件包安装与系统隔离开来。系统会自动安装软件包依赖项。如果不是在虚拟环境中,请针对下面的命令使用。如果已安装这些软件包,请跳至下一步。原创 2024-04-23 22:29:17 · 1112 阅读 · 0 评论 -
安装大模型-型号查看
原创 2024-04-23 22:28:30 · 95 阅读 · 0 评论 -
不满足软件包要求‘transformers==4.30.2‘, ‘sse-starlette
transformers==4.30.2支持的SSE-Starlette版本是0.14.0。原创 2024-03-21 23:01:31 · 570 阅读 · 0 评论 -
人工智能模块初识
transformers: 这是一个用于自然语言处理(NLP)任务的Python库,提供了各种预训练的模型和工具,如文本分类、命名实体识别等。cpm_kernels: 这是一个用于计算机视觉任务的Python库,提供了各种卷积神经网络的核函数,用于图像处理和特征提取。gradio: 这是一个用于构建交互式界面的Python库,可以方便地创建和部署机器学习模型的Web应用。accelerate: 这是一个用于加速机器学习训练和推理的Python库,提供了各种优化算法和工具。原创 2024-03-21 21:09:28 · 433 阅读 · 0 评论 -
替换老版本包和模块-版本回滚-依赖冲突
如果您想回滚到旧版本,请先卸载当前版本,然后使用。如果更新pip后仍然存在依赖冲突,请尝试使用。原创 2024-03-21 21:07:48 · 358 阅读 · 0 评论 -
GCC 和 OpenMP
在MinGW-w64安装目录的share文件夹中,可以找到openmp文件夹,将其中的openmp.h和openmp.dll文件复制到MinGW-w64的相应目录下。在Linux操作系统中,一般已经安装了GCC和OpenMP,但在Windows操作系统中,可能需要手动安装这些工具和库才能使用CPU上的并行计算能力。安装MinGW-w64(Minimalist GNU for Windows):MinGW-w64是GCC的一个Windows版本,它支持在Windows上编译和运行C、C++ 等程序。原创 2024-03-20 09:50:46 · 271 阅读 · 0 评论 -
模型.pth和.bin文件
文件,它包含了预训练模型的权重参数。您需要先创建模型的结构,然后将权重参数加载到该结构中。文件,它包含了完整的PyTorch模型对象及其权重参数。您可以直接加载整个模型。下面是一个详细案例,展示了如何加载。进行推理或其他操作。原创 2024-03-13 10:19:03 · 590 阅读 · 0 评论 -
CFD通常指的是计算流体力学
CFD通常指的是计算流体力学(Computational Fluid Dynamics),是一种使用数值方法和计算机模拟来研究流体流动和传热的科学和工程领域。在CFD中,流体流动问题可以通过将流体领域划分为离散的网格单元,然后使用数值方法来求解流体的运动和传输方程。通过在每个网格单元上进行数值计算,可以模拟和预测流体流动的行为,例如流速、压力分布、温度分布等。它允许工程师和科学家通过计算模拟来研究不同设计和操作参数对流体系统的影响,从而提高设计效率、减少试验成本,并优化流体系统的性能。原创 2024-03-05 13:44:43 · 186 阅读 · 0 评论 -
TensorFlow 的基本概念和使用场景。
在图像识别中,可以使用TensorFlow构建卷积神经网络,进行图像分类、目标检测等任务。TensorFlow支持多种编程语言,包括Python、C++、Java等,可以在多种平台上运行,如Windows、Linux、Android等。TensorFlow支持多种编程语言,包括Python、C++、Java等,可以在多种平台上运行,如Windows、Linux、Android等。总之,TensorFlow是一个强大的机器学习框架,提供了丰富的工具和库,适用于各种机器学习任务,并在各个领域有着广泛的应用。原创 2024-03-04 11:36:11 · 630 阅读 · 0 评论 -
T5和GPT在预训练和微调区别
预训练目标:T5的预训练目标是通过自回归生成的方式,将输入文本转换为目标文本。微调目标:T5的微调目标可以是各种不同的NLP任务,因此微调过程需要根据具体任务进行相应的调整。输入数据格式:T5的输入数据格式通常是由源文本和目标文本组成的字符串对,而GPT的输入数据格式是一个字符串表示的文本序列。微调数据集:T5的微调数据集需要与预训练时的目标文本格式一致,而GPT的微调数据集通常是与特定任务相关的文本数据集。预训练目标:T5的预训练目标是将输入文本转换为目标文本,而GPT的预训练目标是预测下一个词语。原创 2024-03-07 00:15:00 · 871 阅读 · 0 评论 -
T5模型-基于Transformer架构的通用文本到文本转换模型
T5的潜力在于其通用性和灵活性,它可以通过微调适应各种不同的任务,并在许多NLP任务上取得出色的性能。T5的一个重要特点是可以将不同任务的输入和输出格式进行统一,使得模型的使用更加简单和一致。GPT的潜力在于其强大的生成能力和语言表达能力,它可以生成具有连贯性和语义准确性的文本,并在自然语言理解和生成任务上有广泛的应用。进一步优化:可以尝试其他的优化策略,例如使用更大的T5模型、实施模型剪枝(model pruning)和量化(model quantization)等,以进一步提高性能和效率。原创 2024-03-08 00:00:00 · 3223 阅读 · 0 评论 -
实现GPT训练 人工智能模型
更高效的训练和推理:GPT模型通常需要大量的计算资源和时间来训练和推理,这对某些任务和应用来说可能是一个挑战。对输入顺序敏感:GPT模型是基于Transformer的序列模型,对输入的顺序是敏感的。需要大量的训练数据:为了获得好的性能,GPT模型通常需要大量的训练数据,这可能对某些任务和应用来说是一个挑战。可迁移学习:通过使用预训练模型,可以将GPT模型迁移到各种任务上,从而提高模型性能,并减少训练所需的数据量。请注意,这只是一个简化的示例,实际的GPT训练可能涉及更复杂的数据准备、模型配置和超参数调整。原创 2024-03-09 00:00:00 · 1000 阅读 · 0 评论 -
实现bert训练 人工智能模型
模型微调:如果有特定的下游任务,例如文本分类、命名实体识别等,可以使用微调技术将预训练的BERT模型适应到这些任务上。这通常涉及到在现有模型的基础上添加任务特定的层,并使用任务特定的数据进行微调。验证和测试:在训练过程中,可以定期使用验证集评估模型的性能,并在训练结束后使用测试集进行最终评估。对抗训练:BERT模型的训练中,可以引入对抗训练的技术,如对抗样本生成和对抗训练损失函数,以提高模型的鲁棒性和泛化能力。模型保存和加载:一旦训练完成并满意模型的性能,可以将模型保存到磁盘上以备将来使用。原创 2024-03-10 00:30:00 · 435 阅读 · 0 评论 -
实现Transformer训练
微调任务:如果有特定的下游任务,例如文本分类、命名实体识别等,可以使用微调技术来将Transformer模型适应到这些任务上。这通常涉及到在现有模型的基础上添加任务特定的层,并使用任务特定的数据进行微调。数据加载和预处理:根据的数据格式和任务需求,可能需要编写数据加载和预处理的代码。微调模型:如果有特定的下游任务,可以在训练完成后对Transformer模型进行微调,例如进行文本分类、命名实体识别等任务。模型保存和加载:一旦训练完成并满意模型的性能,可以将模型保存到磁盘上以备将来使用。原创 2024-03-04 09:33:50 · 1318 阅读 · 0 评论 -
Transformer、BERT和GPT 自然语言处理领域的重要模型
由于篇幅有限,无法提供详细的代码示例。但是,可以查阅相关的开源库和教程来获取具体的实现细节和示例代码。常用的深度学习框架如PyTorch和TensorFlow都提供了Transformer、BERT和GPT的实现库和教程,可以参考它们的官方文档和示例代码来学习如何实现这些模型。Transformer、BERT和GPT都是自然语言处理领域的重要模型,它们之间有一些区别和联系。原创 2024-03-04 09:31:21 · 775 阅读 · 0 评论 -
GPT的历史
最新版本的GPT是GPT-3,它于2020年发布。GPT-3的发布引起了广泛的讨论和应用探索,被认为是人工智能领域的里程碑之一。GPT-2的训练数据集覆盖了互联网上的大量文本,使得它能够生成更加富有创造力和连贯性的文本。GPT-2在生成文本的质量和多样性方面取得了显著的提升,引起了广泛的关注。GPT的目标是通过大规模的无监督学习来学习语言的统计规律和语义表示,从而能够生成自然流畅的文本。GPT的第一个版本是GPT-1,在发布时采用了12层的Transformer架构,并使用了40亿个参数进行训练。原创 2024-03-04 09:30:19 · 507 阅读 · 0 评论 -
LSTM 补充 Google Colab补充
用户可以在Colab上编写和运行代码,同时还可以访问Google提供的GPU和TPU资源,加速模型的训练和推理过程。LSTM在RNN的基础上引入了一种称为门控机制(gating mechanism)的机制,包括输入门(input gate)、遗忘门(forget gate)和输出门(output gate)。LSTM代表长短期记忆网络(Long Short-Term Memory),它的设计目的是解决传统RNN中的梯度消失和梯度爆炸问题,以便更好地捕捉长期依赖关系。原创 2024-03-04 00:15:00 · 229 阅读 · 0 评论 -
Stable Diffusion生成式扩散模型代码实现原理
构建Stable Diffusion模型:使用PyTorch的模型定义功能,构建Stable Diffusion模型的结构和参数。这可以是一个随机的噪声向量、一个部分损坏的图像,或者其他适用的输入形式。准备模型:确保您已经训练好了Stable Diffusion模型或者已经获得了预训练的模型。生成图像或进行图像修复:使用已经训练好的模型,生成高质量的图像或进行图像修复任务。加载模型:使用PyTorch的模型加载功能,将训练好的模型加载到内存中。生成图像:将输入数据输入到加载的模型中,并获取模型生成的输出。原创 2024-03-01 20:49:03 · 962 阅读 · 0 评论 -
python-线性回归NumPy和Matplotlib库
函数进行线性回归分析,得到回归方程的斜率(slope)、截距(intercept)、相关系数(r)、p值(p)和标准误差(std_err)。这段代码使用了Matplotlib和SciPy库来进行简单的线性回归分析,并绘制出数据点和回归线的散点图。通过这段代码,我们可以对给定的x和y数据进行线性回归分析,并绘制出数据点和回归线的散点图,从而观察数据的线性趋势和相关性。函数中,返回根据回归方程计算的y值。中,得到回归线上的所有y值。:显示绘制的散点图和回归线。,用于计算回归线上的y值。,表示自变量的取值。原创 2024-02-05 21:36:59 · 352 阅读 · 0 评论 -
二手性价比显卡
通过这些数据可以看出,2080 Ti在每个CUDA核心的性能上要优于K80和P40。它具有更高的单精度性能和计算能力,但在双精度性能方面略低于P40。这使得2080 Ti成为一款适用于高性能计算和深度学习任务的显卡选择。当然,除了CUDA核心性能,还有其他因素也会影响计算性能,如显存容量、显存带宽、架构优化等。2080 Ti:11G可魔改24G。原创 2024-02-02 15:27:03 · 286 阅读 · 0 评论 -
pytorch 卷积神经网络CNN
人/B 们/E 常/S 说/S 生/B 活/E 是/S 一/S 部/S 教/B 科/M 书/E ”图中是双向的三层 RNNs,堆叠多层的RNN网络,可以增加模型的参数,提高模型的拟合。理网格化数据(例如图像数据)的神经网络,RNN是专门用来处理序列数据的神经网络。双向的 RNN 是同时考虑“过去”和“未来”的信息,输入(黑色点)沿着黑色的实线箭。谓的序列数据指的是跟序列相关的数据,比如一段语音,一首歌曲,一段文字,一段录像等。B表示词的起始位置,M表示词的中间位置,E表示词的结束位置,S表示单字词。原创 2024-01-27 23:45:32 · 1556 阅读 · 0 评论 -
Softmax函数介绍
在训练神经网络时,通常将Softmax函数应用于网络的最后一层,将网络的输出转换为类别概率。当使用Python和PyTorch来实现Softmax函数时,可以使用PyTorch提供的torch.nn.functional模块中的softmax函数来实现。由于Softmax函数的性质,输出的概率值总和为1,且每个概率值介于0和1之间。在本例中,我们将在维度0上进行Softmax计算,即对输入向量的每个元素进行Softmax。,它包含了Softmax函数计算后得到的每个类别的概率。进行Softmax转换。原创 2024-01-20 16:15:04 · 1252 阅读 · 0 评论 -
TensorFlow人工智能开源深度学习框架简单认识
总的来说,TensorFlow是一个功能强大、灵活易用的深度学习框架,可以帮助开发者快速构建和训练各种机器学习模型,并在不同领域应用中发挥作用。可扩展的生态系统:TensorFlow具有庞大的开发者社区,提供了众多的扩展库和工具,可以帮助开发者更方便地使用和扩展TensorFlow。强大的计算能力:TensorFlow支持在多个CPU和GPU上进行并行计算,可以处理大规模的数据集和复杂的模型。灵活的构建和部署:TensorFlow提供了丰富的API和工具,可以轻松构建和部署各种机器学习和深度学习模型。原创 2024-01-20 16:07:43 · 580 阅读 · 0 评论 -
黑客帝国里面哪种武器(设备发送一种波)可以使电子产品瘫痪?黑客帝国在机器人攻击人类时,人使用一种武器使很多机器瘫痪……是什么?
电磁脉冲(Electromagnetic Pulse,简称 EMP)是一种突发性的电磁辐射,通常由高能量的电流脉冲产生。制作电磁脉冲需要特定的设备和技术,并且需要小心处理,因为它可能对电子设备和系统造成损坏。高能量脉冲发生器:首先,需要一台高能量脉冲发生器来产生电流脉冲。辐射天线:接下来,需要一个合适的辐射天线来将电流脉冲转化为电磁辐射。辐射天线可以是天线阵列、螺旋天线或其他类型的天线,其设计和尺寸取决于所需的电磁脉冲特性。激发装置:最后,需要一个激发装置来将电流脉冲传输到辐射天线。原创 2024-01-19 10:03:38 · 438 阅读 · 1 评论 -
pytorch图片分类神经网络代码
【代码】pytorch图片分类神经网络代码。原创 2024-01-19 00:04:52 · 682 阅读 · 1 评论 -
pytorch基础 神经网络构建
计算e1=2.718,e5=148.413,e3=20.086,e1+e5+e3=171.217。“人/B 们/E 常/S 说/S 生/B 活/E 是/S 一/S 部/S 教/B 科/M 书/E ”给一段文字做分词标注,标注每个字对应的标号。图中是双向的三层 RNNs,堆叠多层的RNN网络,可以增加模型的参数,提高模型的拟合。双向的 RNN 是同时考虑“过去”和“未来”的信息,输入(黑色点)沿着黑色的实线箭。比如标签0将表示为([1,0,0,0,0,0,0,0,0,0]),标签3将表示为。原创 2024-01-19 00:02:36 · 819 阅读 · 2 评论 -
CUDA安装遇到问题及安装方法汇总
———————CUDA版本网站 进入选择合适版本安装。注意事项: 安装低于显示的CUDA 版本(兼容性)如何判断自己应该下载什么版本的cuda呢?CMD 输入 nvidia-smi。原创 2024-01-16 11:04:45 · 540 阅读 · 1 评论 -
LSTM与文本生成
最后,我们添加一个全连接层,将LSTM层的输出映射到词汇表中的单词数量,并使用softmax激活函数进行分类。在训练阶段,我们使用交叉熵损失函数来衡量模型的输出与真实标签之间的差异,并使用Adam优化器来更新模型的参数。这个例子中,我们首先准备了一个简单的文本数据集,然后使用LSTM模型对其进行训练,并使用训练好的模型生成新的文本。请注意,这只是一个简单的示例,实际应用中可能需要更复杂的模型和更大的数据集来获得更好的结果。接着我们进行了模型的训练,并使用训练好的模型生成新的文本。原创 2023-12-25 09:44:11 · 543 阅读 · 1 评论 -
ReLU函数
2. **Dead ReLU问题**:当输入为负数时,ReLU函数的梯度为0,这会导致在反向传播过程中,负数输入的神经元无法更新权重,从而造成神经元“死亡”。1. **计算速度快**:由于ReLU函数中只存在线性关系,相比于Sigmoid函数和Tanh函数,其计算速度更快。3. **非线性**:ReLU函数可以解决线性模型表达能力不足的问题,为神经网络引入非线性因素,提高模型的表达能力。4. **输出为0或正数**:ReLU函数的输出值要么是0,要么是正数,这意味着它不是一个以0为中心的函数。原创 2023-12-21 00:13:46 · 1156 阅读 · 0 评论 -
大模型的鲁棒性 泛化能力
大模型的鲁棒性是一个重要的性能指标,因为在实际应用中,很难保证输入数据的完美性和一致性。一个具有良好泛化能力的模型应该能够从训练集中学到有用的特征和规律,并能够将这些特征和规律推广到未见过的数据上。大模型的鲁棒性是指模型在面对各种异常情况或不完美的输入时,仍能保持稳定和可靠的性能。数据清洗和预处理:在训练和测试模型之前,对数据进行清洗和预处理,去除异常值、处理缺失数据、标准化数据等,以减少不完美数据的影响。数据预处理:对数据进行预处理,包括特征选择、特征缩放、数据平衡等,以提高数据质量和模型的泛化能力。原创 2024-02-27 23:51:11 · 671 阅读 · 0 评论