![](https://img-blog.csdnimg.cn/20190918140053667.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
人工智能
文章平均质量分 59
人工智能,机器学习,深度神经网络算法
Wonder-King
有好奇心,什么都想学一点。
展开
-
将中文论文翻译成英文(ChatGPT调教)
将中文论文标题翻译成英文,注意使用学术风格,并保持语义的准确性。原创 2023-06-16 09:33:54 · 11570 阅读 · 3 评论 -
openAI图像生成开发文档
了解如何使用我们的 DALL·E 型号本指南介绍了使用这三个 API 终结点的基础知识以及有用的代码示例。要了解它们的实际效果,请查看我们的。原创 2023-05-16 11:06:01 · 843 阅读 · 0 评论 -
chatgpt的api介绍
接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。对于温度,较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。:一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。您可以使用List models API查看所有可用的模型,或者查看我们的模型概述以了解它们的描述。原创 2023-04-04 14:39:08 · 12386 阅读 · 0 评论 -
chatGPT model说明
为了减少模型更改以意外方式影响我们用户的可能性,我们还提供将在 3 个月内保持静态的模型版本。随着模型更新的新节奏,我们还让人们能够贡献评估,以帮助我们针对不同的用例改进模型。GPT-4 是一个大型多模态模型(今天接受文本输入并发出文本输出,将来会出现图像输入),由于其更广泛的常识和高级推理,它可以比我们以前的任何模型更准确地解决难题能力。Codex 模型现已弃用。然而,在更复杂的推理情况下,GPT-4 比我们之前的任何模型都更有能力。OpenAI 模型是不确定的,这意味着相同的输入可以产生不同的输出。原创 2023-03-30 14:12:49 · 4031 阅读 · 0 评论 -
rasa命令行介绍
命令注释rasa init使用示例训练数据、操作和配置文件创建新项目。rasa train使用 NLU 数据和故事训练模型,将训练好的模型保存在 中。./models启动交互式学习会话,通过与助手聊天来创建新的训练数据。rasa shell加载经过训练的模型,并允许您在命令行上与助手交谈。rasa run使用已训练的模型启动服务器。使用 Rasa SDK 启动操作服务器。生成故事的可视化表示形式。rasa test在以test_开头的任何文件上测试经过训练的 Rasa 模型。原创 2023-03-27 14:46:51 · 905 阅读 · 0 评论 -
rasa开发策略
对话驱动开发 (CDD) 是倾听用户意见并利用这些见解来改进 AI 助手的过程。这是聊天机器人开发的总体最佳实践方法。开发出色的AI助手具有挑战性,因为用户总是会说一些您意想不到的事情。CDD背后的原则是,在每次对话中,用户都会用他们自己的话告诉你他们想要什么。通过在机器人开发的每个阶段练习 CDD,您可以将助手定位于真实的用户语言和行为。尽快的与用户共享助手(Share定期查看对话(Review注释消息并将其用作 NLU 训练数据(Annotate测试您的助手是否始终按预期运行(Test跟踪。原创 2023-03-27 14:51:50 · 432 阅读 · 0 评论 -
Using chatbots to scaffold EFL students argumentative writing (论文翻译)
研究表明,英语作为外语的学生的议论文写作受益于与同龄人的互动。然而,在实践中找到一个理想的对象很困难,聊天机器人被认为是这个问题的潜在解决方案。聊天机器人是人工智能的一种形式,旨在与人类用户进行轮流对话。在本文中,我们提出了一种聊天机器人辅助议论文写作的教学方法。我们开发的一种新型聊天机器人系统,用于指导学生的论点构建,然后我们讨论了使用该系统来帮助学生生成高质量的议论文的优点和局限性。议论文写作被广泛认为是学术成功和职业生涯的重要能力。然而,经验证据表明,英语作为外语的学生在提出高质量的论点方面存在困难。原创 2023-01-05 23:59:28 · 413 阅读 · 0 评论 -
yoloV5环境搭建与运行(windows+pytorch+kaggle)
环境:Windows+anaconda+pytorch云端GPU:kaggle。原创 2022-11-13 22:34:37 · 3289 阅读 · 2 评论 -
微调alexnet模型训练
微调代码只训练最后的全连接层model = torch.load( '../model/20220510-pretrain-alexnet-数据增强-0.0001.pth')num_ftrs = model.classifier[6].in_featuresmodel.classifier[6] = nn.Linear(num_ftrs, 8)for name, child in model.named_children(): if name in ['avgpool','原创 2022-05-18 17:17:23 · 281 阅读 · 1 评论 -
微调resnet18模型训练
微调代码只训练全连接层和layer4model = torch.load( '../model/20220509-pretrain-resnet18-数据增强-0.0005.pth')num_ftrs = model.fc.in_featuresmodel.fc = nn.Linear(num_ftrs, 8)for name, child in model.named_children():# if name in ['avgpool','fc']: if na原创 2022-05-18 17:15:18 · 1153 阅读 · 0 评论 -
微调vgg16预训练模型
微调代码只训练全连接层model = torch.load( '../model/20220509-pretrain-vgg16-数据增强-5e-05.pth')num_ftrs = model.classifier[6].in_featuresmodel.classifier[6] = nn.Linear(num_ftrs, 8)for name, child in model.named_children(): if name in ['avgpool','classi原创 2022-05-18 17:13:13 · 1264 阅读 · 0 评论 -
vgg16+k折交叉验证+数据增强+画图(准确率、召回率、F值)
k折交叉验证def kfold(data, k=5): """ K折交叉验证 """ X = np.arange(len(data)) KF = KFold(n_splits=k,shuffle=True) for train_idxs, valid_idxs in KF.split(X): train_iter, valid_iter = [] , [] for i in train_idxs: train_.原创 2022-05-18 17:05:55 · 1528 阅读 · 6 评论 -
DenseNet训练CIFAR10数据集的pytorch实现
代码在kaggle上训练30分钟,精度80%Sequential output shape: torch.Size([1, 64, 24, 24])Sequential output shape: torch.Size([1, 248, 3, 3])BatchNorm2d output shape: torch.Size([1, 248, 3, 3])ReLU output shape: torch.Size([1, 248, 3, 3])AdaptiveAvgPool2d outp原创 2022-04-10 16:06:28 · 2353 阅读 · 0 评论 -
ResNet训练CIFAR10数据集的pytorch实现
代码在kaggle上跑了1个小时,精度最终达到90%Sequential output shape: torch.Size([1, 64, 56, 56])Sequential output shape: torch.Size([1, 64, 56, 56])Sequential output shape: torch.Size([1, 128, 28, 28])Sequential output shape: torch.Size([1, 256, 14, 14])Sequenti原创 2022-04-10 11:27:04 · 1631 阅读 · 0 评论 -
Vgg11训练CIFAR10数据集——pytorch实现
代码在kaggle上跑了30多分钟Sequential output shape: torch.Size([1, 64, 112, 112])Sequential output shape: torch.Size([1, 128, 56, 56])Sequential output shape: torch.Size([1, 256, 28, 28])Sequential output shape: torch.Size([1, 512, 14, 14])Sequen..原创 2022-04-08 17:17:48 · 3019 阅读 · 0 评论 -
AlexNet训练CIFAR10数据集——pytorch实现
代码在kaggle上跑,精度最终为90%输入一张3*227*227的图片,每一层的输出:Conv2d output shape: torch.Size([1, 96, 57, 57])ReLU output shape: torch.Size([1, 96, 57, 57])MaxPool2d output shape: torch.Size([1, 96, 28, 28])Conv2d output shape: torch.Size([1, 256, 28, 28])R.原创 2022-04-08 14:04:34 · 1765 阅读 · 0 评论 -
LeNet训练minist数据集(pytorch)
代码在colab上测试import osimport datetimeimport torchimport torchvisionfrom torch import nnfrom torch import optimimport torch.nn.functional as Ffrom torch.autograd import Variablefrom torch.utils.data import DataLoaderfrom torchvision import t...原创 2022-03-30 16:59:24 · 2078 阅读 · 0 评论 -
DCGAN训练CIFIAR10模仿生成图片
代码在colab上跑过。import osfrom torchvision import datasetsfrom torch.utils.data import DataLoaderimport torch.nn as nnimport torchfrom torch.autograd import Variableimport torch.optim as optimimport torchvision.transforms as transformsimport matplotl原创 2022-03-17 15:41:51 · 837 阅读 · 0 评论 -
VAE的Pytorch实现和可视化
VAE pytorch代码实现和可视化原创 2022-03-15 16:41:56 · 3459 阅读 · 3 评论 -
Autoencoder线性和卷积的Pytorch实现
使用autoencoder训练mnist训练集,pytorch实现原创 2022-03-15 10:44:56 · 2419 阅读 · 0 评论 -
CGAN论文翻译---Conditional Generative Adversarial Nets
GAN是最近训练生成模型方法中很新颖的一种方式。在此基础上,我们提出了一种需要输入训练数据和标签y的条件GAN。CGAN能生成MNIST数据集类似的图片。我们还说明了该模型可以用于学习多模态模型,并提供了一个用于图形标签的应用程序的初步实例,在这个示例中,我们演示了这个方法如何生成不属于训练标签的描述性标签。原创 2022-03-10 15:00:53 · 4108 阅读 · 0 评论 -
遗传算法(Java模拟)
使用Java模拟达尔文进化论中物竞天择的过程:分为三个部分:第一步:初始化族群第二步:选择第三步:繁殖结果展示:族群类:import java.util.ArrayList;import java.util.Random;/** * @Auther: wdq * @Date: 2021/4/18 21:11 * @Description: */public class Population { /** * 突变率 */原创 2021-04-18 22:40:02 · 348 阅读 · 0 评论 -
入门人工智能历程,学习西瓜书的体验心得
我很早就冒出来对人工智能的兴趣萌芽,以前也试图去闯入这个领域。我上知乎查过,在百度上搜索过,也看过一些课,每次都是学了一点点就直接被大量看不懂的公式和看似高深的理论劝退,然后我自我安慰道:“难怪国内大学本科开人工智能的学校没几个.”但是我最近又冒出了学习人工智能的想法,因为学校的一位老师和我沟通,想要我去他的创业公司搞算法。我去了解了一下这个公司,主要的业务是使用人工智能优化建筑设计的图纸。我认真思考了一晚上,决定我要入门人工智能这个看似很高深的领域。老师给我推荐了两本书,一本是周志华写的《机器学习》简原创 2020-10-09 11:04:49 · 4766 阅读 · 7 评论