自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

晓野豬

皮姜魔芋烧板栗!!!

  • 博客(81)
  • 收藏
  • 关注

原创 《The Rise and Potential of Large Language Model Based Agents: A Survey》全文翻译

长久以来,人类一直在追求等同或超越人类的人工智能,而 AI 代理被认为是实现这一追求的有效手段。agent是能够感知环境、做出决策并采取行动的人工智能实体。自 20 世纪中期以来,人们已经为开发 AI 代理做出了许多努力。然而,这些努力主要集中在算法或训练策略的进步上,以增强特定任务上的特定能力或表现。实际上,我们所缺乏的是一个充分且强大的模型,来作为开发可适应各种不同场景的 AI 代理的基础。具有多样且卓越能力的大语言模型,则被视为通向通用人工智能的必经之路,也为构建通用 AI 代理提供了希望。

2023-09-22 23:03:14 1964

转载 《BloombergGPT: A Large Language Model for Finance》全文翻译

NLP 在金融技术领域的应用是广泛而复杂的,其应用范围包括情感分析、命名实体识别和问题回答。大型语言模型(LLMs)已被证明在各种任务中是有效的;然而,文献中还没有报道过专门用于金融领域的 LLM。在这项工作中,我们提出了 BloombergGPT,这是一个 500 亿参数的语言模型,在广泛的金融数据上进行训练。我们根据彭博社广泛的数据来源构建了一个 3630 亿个标记的数据集,这可能是迄今为止最大的领域专用数据集,并从通用数据集中增加了 3450 亿个标记。

2023-09-20 17:26:11 1369

原创 《Playing repeated games with Large Language Models》全文翻译

大型语言模型 (LLMs) 正在改变社会并渗透到各种应用中。因此,LLMs 会经常与我们和其他代理互动。因此,了解 LLMs 在互动社交环境中的行为具有巨大的社会价值。在这里,我们建议利用行为博弈论来研究 LLMs 的合作与协调行为。为此,我们让不同的 LLM(GPT-3、GPT-3.5 和 GPT-4)彼此以及与其他类似人类的策略进行有限重复的游戏。我们的结果表明,LLMs 通常在此类任务中表现良好,并且还发现了持久的行为特征。

2023-09-18 15:07:56 571

原创 《Exploring Large Language Models for Communication Games: An Empirical Study on Werewolf》全文翻译

交流博弈,我们称之为严重依赖自然语言交流的不完全信息博弈,在经济学、社会科学、人工智能等领域具有重要的研究价值。在这项工作中,我们探讨了如何在交流游戏中使用大型语言模型(LLM)的问题,并作为回应,提出了一个免调优框架。我们的方法使 LLMs 保持冻结状态,并依赖于对过去的沟通和经验的检索和反思来进行改进。对具有代表性和广泛研究的通讯游戏 “狼人杀” 的实证研究表明,我们的框架可以有效地玩狼人杀游戏,而无需调整 LLMs 的参数。

2023-09-16 15:57:28 874

原创 《AgentVerse: Facilitating Multi-Agent Collaboration and Exploring Emergent Behaviors in Agents》全文翻译

由大型语言模型(LLM)支持的自主代理已经取得了显着的改进,使它们能够泛化广泛的任务。然而,在现实场景中,往往需要个体之间的合作来提高任务完成的效率和效果。因此,受人类群体动力学的启发,我们提出了一个多智能体框架 AGENTVERSE,它可以协作、动态地调整其组成,成为一个大于各部分之和的系统。我们的实验表明,AGENTVERSE 框架可以有效地部署优于单个代理的多代理组。此外,我们深入研究了在协作任务完成过程中群体内个体代理之间社交行为的出现。

2023-09-15 21:05:01 459

原创 《Graph of Thoughts: Solving Elaborate Problems with Large Language Models》中文翻译

我们引入了思想图(GoT):一个框架,它可以提高大型语言模型(LLM)中的提示能力,使其超越思想链或思想树(ToT)等范式所提供的能力。GoT 的关键思想和主要优点是能够将 LLM 生成的信息建模为任意图,其中信息单位(“LLM 思想”)是顶点,边对应于这些顶点之间的依赖关系。这种方法可以将任意的LLM思想组合成协同结果,提炼整个思想网络的本质,或使用反馈循环增强思想。我们证明,GoT 在不同任务上比现有技术具有优势,例如,与 ToT 相比,排序质量提高了 62%,同时成本降低了 31% 以上。

2023-09-09 15:39:36 1032

原创 《Tree of Thoughts: Deliberate Problem Solving with Large Language Models》中文翻译

语言模型越来越多地被部署用于解决各种任务中的一般问题,但在推理过程中仍然仅限于令牌级、从左到右的决策过程。这意味着他们可能无法完成需要探索、战略前瞻性或初始决策发挥关键作用的任务。为了克服这些挑战,我们引入了一种新的语言模型推理框架“思想树”(ToT),它概括了流行的“思想链”方法来提示语言模型,并能够探索连贯的文本单元(“想法”)作为解决问题的中间步骤。ToT 允许 LM 通过考虑多种不同的推理路径和自我评估选择来执行深思熟虑的决策,以决定下一步的行动方案,并在必要时向前看或回溯以做出全局选择。

2023-09-09 12:39:30 447

原创 《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》全文翻译

我们探索生成一条思想链(一系列中间推理步骤)如何显着提高大型语言模型执行复杂推理的能力。特别是,我们展示了这种推理能力如何通过一种称为思维链提示的简单方法在足够大的语言模型中自然出现,其中提供了一些思维链演示作为提示的范例。对三种大型语言模型的实验表明,思维链提示可以提高一系列算术、常识和符号推理任务的表现。经验收益可能是惊人的。例如,仅用八个思维链示例来提示 PaLM 540B,即可在数学应用题的 GSM8K 基准上达到最先进的精度,甚至超过带有验证器的微调 GPT-3。

2023-09-09 11:23:56 670

原创 《Human-level play in the game of Diplomacy by combining language models with strategic reasoning》翻译

尽管在模仿人类语言方面取得了很大进步,但构建能够与人类在交互环境中有意识地进行通信的代理仍然是一个重大挑战。我们提出了西塞罗(Cicero),这是第一个在外交游戏中达到人类水平表现的AI代理,外交游戏需要在七个玩家之间进行自然语言协商和战术协调,既需要合作又需要竞争。西塞罗将语言模型与计划和强化学习算法相结合,通过推断其对话中的玩家的信念和意图来生成对话以追求其计划。在一个匿名的在线外交联赛的40场游戏中,西塞罗的平均得分是人类玩家的两倍多,在参与一场或多场游戏的参与者中名列前10%。

2023-09-08 21:56:06 268 1

原创 《Communicative Agents for Software Development》全文翻译

软件工程是一个复杂的领域,通常需要仔细的决策过程,往往依赖于细微的直觉和咨询。近些年深度学习技术的进步开始改变软件工程实践,通过在软件开发各个阶段的精心设计来实现软件工程的革新。本文提出了一个创新的范式,利用大型语言模型贯穿整个软件开发过程,通过自然语言交流简化并统一关键过程,因此无需在每个阶段使用专门的模型。这个范式的核心是 CHATDEV,一个由虚拟聊天驱动的软件开发公司,它严格遵循瀑布模型,将开发过程细分为四个不同的顺序阶段:设计、编码、测试和文档编制。

2023-09-03 21:04:25 982

原创 《Scientific discovery in the age of artificial intelligence》全文翻译

在我们的实现中,当智能体感知到的最新事件的重要性分数之和超过一定阈值时,我们就会生成反思。这种行为的基础是一种新颖的智能体架构,它将一个大型语言模型与合成和检索相关信息的机制相结合,以在语言模型的输出上进行条件控制。作为独立的个体,生成式智能体是否正确地检索过去的经验,并生成可信的计划、反应和思维?:虽然一个大型的语言模型可以根据情境信息产生可信的行为,但智能体需要在更长的时间范围内进行规划,以确保他们的行动序列连贯且可信。:计划描述了智能体未来的一系列行动,有助于保持智能体的行为在时间上的连贯性。

2023-08-07 21:21:34 538

原创 卷积操作的不同类型

一般而言,一维卷积用于文本数据;二维卷积用于图像数据,对宽度和高度都进行卷积;三维卷积用于视频及3D图像处理领域,对立方体的三个面进行卷积。

2022-11-18 17:13:59 1104 1

原创 RNN 浅析

循环神经网络 (Recurrent Neural Network, RNN) 是一种特殊的神经网路结构,用于处理序列数据。在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于时间序列问题却无能无力 (如预测句子的下一个单词)。RNN 之所以称为循环神经网路,其本身包含循环的网络,允许信息在层内神经元之间传递,能够捕捉序列间的时序信息。

2022-09-17 22:10:05 3185

原创 GRU 浅析

门控循环单元 (Gate Recurrent Unit, GRU) 于 2014 年在论文《》中提出。GRU 是循环神经网络的一种,和 LSTM 一样,是为了解决长期依赖问题而提出。GRU 总体结构与 RNN 相似,如下图所示。但其内部结构 (思想) 却与 LSTM 更加相似,如下图所示。LSTM 使用三个门 (遗忘门、输入门和输出门) 来控制信息传递,GRU 只使用了两个门 (重置门和更新门)。与 LSTM 相比,GRU 去除了单元状态,转而使用隐藏状态来传输信息。

2022-09-17 00:08:38 8280 2

原创 LSTM 浅析

1997 年,Hochreiter 和 Schmidhuber 提出了长短期记忆网络 (Long Short Term Memory, LSTM),这是一种特殊的 RNN,能够学习长期依赖性。反观 RNN,由于梯度爆炸或消失带来影响,其只能学习到短周期的依赖关系。如果一个序列过长,RNN 很难把较早的信息传输到后面。在 RNN 中,梯度更新幅度小的网络层 (通常是较早的层) 将停止学习,这便遗失了较早的信息。LSTM 是 RNN 的升级版,是为了克服短期记忆问题而提出的解决方案。

2022-09-15 18:11:15 1583

原创 Excel 数据随机分组

给定一定数量的数据,要求随机分成 n 组。例如,老师将学生随机分组进行讨论,部门将员工随机分组参加活动等。下面使用 Excel 实现将 10 位同学随机分为 4 组。点击确定后反复操作即可。

2022-09-03 15:17:08 3040

原创 DenseNet 浅析

DenseNet 于论文《》中提出,是 CVPR2017 的 oral。论文提出 DenseNet 并与 ResNet 和 Inception 做对较。为提升网络的效果,一般操作是增加网络的深度和宽度,但论文作者另辟蹊径,聚焦于 feature 的极致利用以获得更佳效果和更少参数。对于梯度消失问题,ResNet 等网络使用跳层连接结构加以解决。作者延续该思路,提出 DenseBlock,在保证网络层间最大程度的信息传输的同时,直接将所有层连接起来。........................

2022-08-05 17:29:01 3650

原创 Task 01 强化学习基础

  监督学习算法的上限是人类的表现,标签源于人类标注决定了它永远不可能超越人类。强化学习则潜力无限,它在环境里面自己探索学习,这让它可以获得超越人类的表现,如 AlphaGo 击败人类最强围棋选手。  如上图所示,强化学习主要由智能体 (Agent)、环境 (Environment)、状态 (State)、动作(Action) 和奖励(Reward) 组成。智能体与环境的交互是一个序列决策过程,智能体在当前状态 StS_tSt​ 选择一个动作 AtA_tAt​,执行动作,进入下一状态 St+1S_{t+1}

2022-07-11 23:50:14 564

原创 GoogLeNet 浅析

  GoogLeNet 于论文《Going deeper with convolutions》中提出,并一举斩获 2014 年 ImageNet 挑战赛的冠军。一般而言,增加网络深度和宽度是提升网络性能最直接的方法,但这样也会带来诸多问题:  GoogLeNet 共有 22 层网络,但其参数量却比 AlexNet 和 VGG 小很多。GoogLeNet 主要通过以下方法来提升网络的性能:  GoogLeNet 的网络结构如下,共有 22 层(蓝色部分)。关于 GoogLeNet 网络的分析,主要关注在两个

2022-07-07 15:02:03 1221 1

原创 JPG 前景与 mask 图合成 PNG 前景

将 jpg 格式的前景和 mask 图融合,输出 png 格式的前景

2022-06-23 14:42:15 245

原创 AlexNet 神经网络

  2006 年,研究人员成功利用 GPU 加速 CNN,相比 CPU 快了 4 倍。2012 年,由谷歌 Hinton 率领的团队提出新的卷积神经网络 AlexNet,在 ImageNet 2012 的图片分类任务上,以 15.3% 的错误率登顶,而且以高出第二名十几个百分点的差距吊打所有其他参与者。论文为《ImageNet Classification with Deep Convolutional Neural Networks》。AlexNet 的出现标志着神经网络的复苏和深度学习的崛起。  Ale

2022-06-07 14:14:55 1204

原创 LeNet 神经网络

  LeNet 原是 LeNet1 - LeNet5 这系列网络的合称,但现在所说的 LeNet 则一般特指 LeNet5 (后文统一称为 LeNet)。LeNet 是 Yann LeCun 教授于 1998 年在论文《Gradient-Based Learning Applied to Document Recognition》中提出的 ,设计之初只是用于手写数字的识别,到如今已成为卷积神经网络的 HelloWorld。受限于计算机的算力不足,加之支持向量机 (核学习方法) 的兴起,CNN 方法并未成为当

2022-06-07 10:19:26 1767

原创 图片合成方法 - paste/seamlessclone/或运算/传统方法

文章目录1 总叙2. paste() 函数3. seamlessClone() 函数4. bitewise 方法5. 传统方法1 总叙  本文主要介绍将两张图片合成为一张图片的方法,包括:将一张图片粘贴至另一张图片的paste()函数、将指定目标与背景融合的seamlessClone()函数和通过位运算合成两张 mask 图的bitewise系列函数。2. paste() 函数  PIL库中的paste()函数的作用是将一张前景图片覆盖到另一张背景图片的指定位置上。函数的声明为def paste

2022-06-01 15:45:54 1327

原创 分离 Alpha 通道

从 PNG 图片中分离 alpha 通道# _*_coding:utf-8_*_import osimport cv2root_dir = r"D:/Workspace/HVM/"source_path = os.path.join(root_dir, "fgr_png")file_list = os.listdir(source_path)for file in file_list: file_path = os.path.join(source_path, file)

2022-05-16 13:58:00 282

原创 视频转为帧序列

"""功能:视频转为帧序列"""import cv2video_path = r'C:/Users/14647/Desktop/Test/compound.mp4'output_path = 'C:/Users/14647/Desktop/Test/ser/' # 输出文件夹interval = 10 # 每间隔10帧取一张图片if __name__ == '__main__': num = 1 video = cv2.VideoCapture(video_path)

2022-05-06 22:18:57 1382

原创 帧序列合成视频

# _*_coding:utf-8_*_"""功能:将帧序列合成为视频"""import osimport cv2im_dir = r"D:/Workspace/HVM/test/series/"video_dir = r'D:/Workspace/HVM/test/video/compound.mp4'imglist = sorted(os.listdir(im_dir))img = cv2.imread(os.path.join(im_dir, imglist[0]))H, W,

2022-05-06 18:19:42 390

原创 绿幕视频合成

  用 前景/alpha matte 帧序列合成绿幕视频# _*_coding:utf-8_*_import osimport torchimport cv2import torchvision.transforms as transformsfgr_root_dir = r"C:/Users/14647/Desktop/Test/fgr/"pha_root_dir = r"C:/Users/14647/Desktop/Test/pha/"save_root_dir = r"C:/User

2022-04-19 15:49:35 496

原创 mask 图扣取前景

"""功能:获取前景序列输入:原图帧序列,alpha遮罩序列输出:前景序列"""import osimport cv2import numpy as npimgs_path = r'C:/Users/DELL/Desktop/HID_v2/images/'phas_path = r'C:/Users/DELL/Desktop/HID_v2/alphas/'imglist = os.listdir(imgs_path)phalist = os.listdir(phas_path)f

2022-04-12 16:38:56 225

原创 文件数量统计

import osdef walkFile(file, dir_count=0, file_count=0): for root, dirs, files in os.walk(file): for dir in dirs: dir_count += 1 for file in files: file_count += 1 print('Number of dirs:', dir_count)

2022-04-12 16:33:13 111

原创 批量图片重命名

import osimport reimport syspath = r"D:/Workspace/Draft/data/images/Services-Bing/"new_path = pathfilelist = os.listdir(path)filetype = '.png'# filetype = '.jpg'imgNums = len(filelist)print("There are {} images in total...".format(imgNums))ord

2022-04-12 16:29:48 84

原创 倒残差与线性瓶颈浅析 - MobileNetV2

文章目录1 背景简介2 MobileNetV2 要点2.1 Inverted Residuals(倒残差结构)2.2 Linear Bottlenecks(线性瓶颈结构)3 代码实现 - pytorch1 背景简介  在提出 MobileNetV1 后,谷歌团队又于次年(2018 年)提出 MobileNetV2 网络。相较于 MobileNetV1, MobileNetV2 准确率更高,模型更小。关于 MobileNetV1 可参考本人先前博客(深度可分离卷积解析 - MobileNetV1),此处给

2022-04-09 23:43:38 15517 1

原创 深度可分离卷积解析 - MobileNetV1

文章目录1 原理浅析1.1 背景简介1.2 标准卷积1.3 深度可分离卷积1.3.1 逐通道卷积1.3.2 逐点卷积2 参数量/计算量比较2.1 参数量比较2.2 计算量比较3 代码实现 - pytorch1 原理浅析1.1 背景简介  2017 年 4 月,谷歌提出 MobileNet V1 这一专注于移动设备的轻量级神经网络。MobileNet V1 运用深度可分离卷积(Depthwise separable convolution)构建轻量级网络,在准确率没有大幅下降的情况下,显著降低参数量和计

2022-04-07 11:45:12 2794

原创 形态学操作之膨胀与腐蚀

文章目录1. 形态学2. 腐蚀3. 膨胀4. 开/闭运算5. 其它形态学操作1. 形态学  形态学操作是根据图像形状进行的简单操作。一般情况下对二值化图像进行操作。它需要输入两个操作,一个是原始图像,另一个被称为结构化元素或核,它是用来决定操作的性质的。两个基本的形态学操作是腐蚀和膨胀,它们的变体构成了开运算、闭运算和梯度等。简言之,形态学操作其实就是改变物体的形状,比如腐蚀就是"变瘦",膨胀就是"变胖",注意腐蚀和膨胀是针对图片中的白色部分。效果展示如下图:2. 腐蚀  腐蚀的效果是把图片"变瘦

2022-04-02 15:03:00 8977

原创 Portrait Matting

  抠图是提取精确的 alpha 遮罩的过程,抠图假设图像是前景和背景图像的合成,因此每个像素的强度是前景和背景的线性组合。Portrait Matting 网络   Portrait Matting 设计思路:训练一个由一系列编码器-解码器块组成的全卷积神经网络,从输入图像和初始粗糙 alpha 遮罩(可使用低分辨率人物分割器生成)中预测出高质量的 alpha 遮罩。Portrait Matting 模型先使用 MobileNetV3 主干网络和浅层解码器预测精细的低分辨率 alpha 遮罩,然后再

2022-02-08 15:31:02 3169

原创 ASPP - 空洞空间金字塔池化

文章目录1 空洞卷积1.1 空洞卷积的理解1.1.1 一维1.1.2 二维1.2 空洞卷积的优劣2. ASPP3. 代码1 空洞卷积1.1 空洞卷积的理解1.1.1 一维(a) 正常卷积:输入特征 Input feature,kernel = 3,stride = 1,pad = 1,输出特征 Output feature。(b) 空洞卷积:与图 (a) 不同之处在于 pad = 2,同时引入一个 rate = 2(表示卷积核中参数间间隔的超参)。  还可通过下图进一步理解普通卷积与空洞卷

2022-01-18 15:56:13 23705 5

原创 PPM 金字塔池化模块 - PSPNet

  金字塔池化模块(Pyramid Pooling Module,PPM)在论文《Pyramid Scene Parsing Network》中被提出,用于聚合不同区域的上下文信息,提高网络获取全局信息的能力。在现有深度网络方法中,一个操作的感受野直接决定了这个操作可以获得多少上下文信息,所以提升感受野可以为网络引入更多的上下文信息。PPM 模块将四种不同金字塔尺度的特征进行融合。上图红色高亮部分对整个特征图进行全局池化,往下则先切分特征图形成不同的子区域,然后在每个子区域内部进行池化。不同层次的金字塔

2022-01-18 14:01:07 14311 6

转载 SPP - 空间金字塔池化

文章目录1 原理2 计算3 代码1 原理  何恺明2015年于《Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition》中提出。SPP 在论文中的主要工作是解决 CNN 要求输入图片尺寸固定的问题。(其它解决方案有用 Conv 层替代 FC 层)    如上图所示,输入层 input image 大小任意,通过 conv5 的卷积得到任意大小的输出特征映射 feature maps,而后送入 SPP

2022-01-18 11:17:16 1397 1

原创 Visual Studio 2019 + Libtorch +OpenCV

文章目录1 个人环境2 准备工作3 Visual Studio 2019 配置 Libtorch 和 OpenCV4 测试4.1 Libtorch 测试4.2 OpenCV 测试1 个人环境操作系统:Windows;Visual Studio 2019;Cuda版本:10.1(查询命令:nvcc -V);Libtorch:Release版本(官网下载);OpenCV(官网下载);2 准备工作Visual Studio 2019 的安装,请自行查看相关教程;CUDA 和 cuDN

2022-01-17 15:00:31 1124

原创 RuntimeError: insufficient shared memory(shm).

使用docker里的环境运行程序,遇到错误:引发错误的原因是共享内存不足。可通过如下命令查看容器中共享内存的大小:df -h | grep shm解决方法是新建一个容器,在 run 的时候添加参数--shm-size 8gnvidia-docker run --shm-size 8g --name xinying-torch -it -v data/home/chenyu/xinying:/home/xinying 6a2d656bcf94 /bin/bash另一个解决方法是进入宿主机中修

2021-12-29 10:40:11 875

原创 Pycharm 通过 SSH 远程连接服务器中的 Docker 环境

废话不多说,以拉取ubuntu构建自己的学习环境为例,详细步骤如下:ubuntu镜像的拉取docker search ubuntudocker pull ubuntu通过镜像创建容器docker run --gpus all -p 6009:6006 -p 7600:22 --name 容器名 -v 主机目录:容器目录 -it 镜像ID /bin/bash容器中必要设置与下载passwdapt-get updateapt-get install vim

2021-12-27 18:25:15 946

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除