![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
侃侃大模型系列
文章平均质量分 89
张二咪
这个作者很懒,什么都没留下…
展开
-
《侃侃大模型系列》第二章(5)——大模型的近期发展方向(2):CV的变迁之路
画作者Jason Allen表示,这幅AI画作也不是一蹴而就的,他多次调整了输入的提示词,用Midjourney生成了一百多幅画作,经过数周的修改和挑选,才选出了三幅最满意的作品,并用Gigapixel AI放大并打印在画布上,最终一幅获奖。该模型利用自然语言处理和计算机视觉的技术,将文本描述转化为图像特征,进而生成符合文本描述的图像。• 2023年以来:23 年1 月,LoRA 诞生,同一个基底 SD 模型可以搭载不同的 LoRA 使用,具有很高的灵活性,成为 了目前最流行的微调 SD 的方法之一。原创 2024-03-11 15:51:23 · 794 阅读 · 0 评论 -
《侃侃大模型系列》第二章(4)——大模型的近期发展方向(1):NLP大模型发展趋势
自然语言处理(NLP)技术是计算机理解和生成自然语言的过程,使计算机具有识别、分析、理解、加工和生成自然语言文本的能力,实现人机间的信息交流,是人工智能最为关键的核 心技术之一。Transformer的可扩展性和灵活性使其适用于各种NLP任务,其预训练和微调的范式提供了强大的通用模型,推动了许多NLP任务的进展。6) NLP在其他方面的应用:虽然传统的NLP模型在结构和性能上可能已经没有太大的发展空间,但是将基于模型的方法应用在其他方面仍然有很大的潜力。这种趋势强调了模型的质量、适用性和易用性。原创 2024-03-06 17:22:32 · 891 阅读 · 0 评论 -
《侃侃大模型系列》第二章(2)——模型的发展历程:从神经网到预训练大模型(1)近年来的突破与进展
举例:“The animal didn't cross the street because it was too tired”,其中“it”可以代指任何东西,“Transformer”中 的注意力机制可以关注到输入序列里所有词,并给予不同权重,而 像这样的自注意力机制有很多个,每个自注意力机制都有自己的注 意力权重,用来关注文本里不同特征,每个权重互不影响,也就意 味着可以实现并行计算。此外,多模态大模型的出现,使得模型能够处理多种类型的数据(如文本、图像、语音等),进一步拓宽了模型的应用场景。原创 2024-03-04 16:27:33 · 1212 阅读 · 0 评论 -
《侃侃大模型》系列第二章(1)——大模型的发展历程与趋势
从2017年开始,AI出现在了大众视野并掀起新的一轮技术热浪,直到2023年chapgtp的广泛应用,让“大模型”三个字,成为了巨大的风口,那些听过的,没听过的公司都开始在大模型领域进行投入,都想分一杯羹。从目前状况来看,大模型的出现,并不是完全性的替代传统模型,传统模型在机器学习领域仍然占有一席之地,特别是在处理小规模和特定任务时。直到近年来,随着计算机硬件和软件的快速发展,深度学习模型得到了广泛的应用,并展现出了强大的性能。传统模型,特别是在机器学习领域,通常指的是早期构建的、规模较小的模型。原创 2024-03-04 15:59:48 · 870 阅读 · 0 评论 -
《侃侃大模型》系列第一章——大模型的崛起:定义、发展与分类
“大模型的崛起”一章中,我们将回顾大模型的发展历程,探讨其崛起背后的技术和社会因素原创 2024-03-03 18:18:28 · 1037 阅读 · 0 评论