生成式人工智能的产生发展,神经网络到Transformer架构,再到今天的提示词工程

一、人工智能和GAI

人工智能(Artificial intelligence,AI)技术在过去几年中取得了显著进展,其中生成式AI(Generative AI)因其强大的内容生成能力而备受关注。生成式AI可以创建新的文本、图像、音频、视频、代码以及其他形式的数据,这一特性使其在多个领域都有广泛的应用。其实,我们现在大多数在数据领域接触主要是生成式AI与判别式AI。这是AI的两个主要类别。判别式AI是传统且更为人知的部分,而生成式AI则是今天讲的主题。

生成式AI的概念源于20世纪50年代末和60年代初。当时,研究人员开始探索使用算法生成新数据的可能性。一个早期的例子是马尔可夫链(Markov Chain)。这是一个统计模型,能够根据输入生成新的数据序列。虽然这个模型看起来简单,但它为生成式AI的进一步发展奠定了基础。

上面的是一个马尔可夫链的状态转移图,用于表示马尔可夫过程中的状态之间的转移概率。在这种图中,每个圆圈代表一个状态,而箭头则表示从一个状态转移到另一个状态的概率。每条箭头上标注的数字表示从起始状态转移到目标状态的概率。在这个示例中,有两个状态:E 和 A。从状态 E 转移到状态 A 的概率是 0.7,而留在状态 E 的概率是 0.3。从状态 A 转移到状态 E 的概率是 0.4,而留在状态 A 的概率是 0.6。

由于马尔可夫链模型是一种描述系统在不同状态之间随机转移的数学模型,它在生成式AI及其他领域中有着广泛的应用。1)在文本生成方面,马尔可夫链可以通过预测下一个单词生成文本,应用于聊天机器人、自动补全系统等。2)在音乐创作中,它能够建模音乐序列,预测音符或和弦,从而辅助音乐生成。3)金融领域则利用马尔可夫链模拟股票市场趋势、信用评级变化和利率波动,而在天气预测中,它帮助根据当前和过去的条件预测未来天气。4)语音识别系统中,隐马尔可夫模型(HMMs)用于建模音素序列的概率,提升语音识别的准确性。5)在生物信息学中,马尔可夫链用于建模DNA序列,辅助基因预测和序列分析。6)Google的PageRank算法也利用了马尔可夫链来建模用户浏览行为,并对网页进行排名。7)自然语言处理领域中,马尔可夫链用于词性标注,提升文本分析和理解的效果。在游戏AI中,它能建模非玩家角色的行为,创造更加真实和多样化的动等等。

上图,安德烈·马尔可夫(1856年6月14日- 1922年7月20日)在20世纪初研究了马尔可夫过程,并在1906年发表了关于这一主题的第一篇论文。他的工作基于早期的泊松过程,对独立随机序列进行了扩展。马尔可夫在他的第一篇论文中展示了在特定条件下,马尔可夫链的平均结果会收敛到一个固定的值,从而在没有独立性假设的情况下证明了弱大数法则。马尔可夫还利用马尔可夫链研究了亚历山大·普希金的《叶甫盖尼·奥涅金》中元音的分布,并证明了这样的链的中心极限定理。

二、早期的生成式AI实例

接下来,我们要谈到1960年代的一个重要人物——约瑟夫·魏岑鲍姆。魏岑鲍姆最著名的贡献是他在1960年代开发的ELIZA程序(名为 ELIZA,是以乔治·伯纳德·萧伯纳的《皮格马利翁》中的天真少女命名,它可以与用户聊天。ELIZA 是用魏泽鲍姆自己创建的 SLIP 编程语言编写的。该程序将模式匹配规则应用于语句以确定其回复。(现在这样的程序被称为聊天机器人)。ELIZA是早期的自然语言处理程序之一,能够进行基于文本的对话。它通过使用一组预定义的规则和模式来识别用户输入中的关键词,并生成相应的回应。尽管ELIZA的能力非常有限,主要依赖于模式匹配,但它在当时的技术背景下展示了机器能够进行“对话”的潜力。ELIZA的成功引发了人们对计算机能够模拟人类对话的广泛兴趣,也为后来的对话系统和自然语言处理技术奠定了基础。

约瑟夫·魏岑鲍姆(Joseph Weizenbaum,1923 年 1 月 8 日 - 2008 年 3 月 5 日)是一位德裔美国计算机科学家,也是麻省理工学院的教授。魏泽鲍姆奖和魏泽鲍姆研究所都是以他的名字命名的。

三、80年代之后神经网络的引入

到了1980年代和90年代,神经网络的引入标志着生成式AI的一个重大突破。神经网络能够模拟人脑的工作原理,通过大量数据训练,从而生成复杂的模式和结构。这一时期的进展为后来的生成式AI系统奠定了基础。

2014年,生成式AI迎来了一个重要的里程碑。伊恩·古德费洛(Ian Goodfellow)及其同事提出了生成对抗网络(GANs)的概念。然而,GANs通过对抗训练机制,显著提升了生成模型的能力。

在GANs中,两个神经网络——生成器(Generator)和判别器(Discriminator)——在对抗中相互博弈。生成器负责生成新内容,如图像或文本,而判别器则评估这些内容的真实性。生成器的目标是欺骗判别器,使其无法区分生成的内容与真实内容,而判别器则力求准确识别真假。通过这种对抗过程,判别器的判断标准也逐渐提高,使生成器能够生成更为高度逼真的数据。

GANs的出现标志着现代生成式AI的重要进展。

生成式AI的发展不是由某一个发明者推动的,而是许多研究人员和科学家的共同努力。最早的生成式AI实验集中在简单的统计模型和算法上,如马尔可夫链。随着计算能力的提升和神经网络技术的发展,生成式AI进入了一个新的阶段。多层神经网络(Deep Neural Networks)和卷积神经网络(Convolutional Neural Networks)的引入,使得生成式AI能够处理更加复杂和多样的数据。

除了GANs,其他先进技术如变分自编码器(VAEs)和Transformer模型也对生成式AI的发展起到了关键作用。现代生成式AI不仅能生成高质量的文本,还能生成逼真的图像和视频,创作新的音乐作品,甚至在医疗和科学研究中应用,生成合成数据用于模型训练,辅助诊断和治疗。

四、认识生成式人工智能的神经网络

 神经网络模型(Neural Network Model)是一种受生物大脑启发的机器学习模型,用于模拟人脑的结构和功能。它由大量相互连接的人工神经元(节点)组成,这些神经元按层级结构排列,通常包括输入层、隐藏层和输出层。神经网络的主要特点包括:学习能力,可以从数据中学习并调整权重,以提高性能和适应新情况;并行处理,能够并行执行计算,高效处理大量数据;非线性映射,可以处理复杂的非线性关系和模式;容错性,对噪声和不完整数据有一定的鲁棒性。神经网络通过前向传播的方式工作,输入数据通过网络各层传递,每个神经元接收上一层的输入,应用激活函数,然后将结果传递给下一层。网络通过调整神经元之间的连接权重来学习和优化其性能。

神经网络是生成式人工智能的基础,使机器能够生成模仿真实数据分布的新数据实例。其核心在于神经网络从大量数据中学习,识别那些不易察觉的模式、结构和关联。这种学习能力使它们能够生成新颖的内容,从逼真的图像和音乐到复杂的文本等。神经网络在生成式AI中的多功能性和强大能力,开辟了创造力、自动化和问题解决的新前沿,彻底改变了我们对内容创作和数据分析的方法。

An artificial neural network is an interconnected group of nodes, inspired by a simplification of neurons in a brain. Here, each circular node represents an artificial neuron and an arrow represents a connection from the output of one artificial neuron to the input of another.

1943年,神经生理学家沃伦·麦卡洛克和数学家沃尔特·皮茨开发了第一个神经网络模型。他们在一篇论文中描述了神经元可能的工作原理,并用电路模拟了简单的神经网络,试图解释大脑中的神经元功能。尽管这一早期模型是理论性的,而非实用的实现,但它为未来人工神经网络的发展奠定了基础。1958年,心理学家弗兰克·罗森布拉特发明了感知器,这通常被认为是第一个能够学习的人工神经网络。感知器旨在模拟人脑处理视觉数据并学习识别物体的过程。1960年,斯坦福大学的伯纳德·威德罗和马西安·霍夫开发了称为“ADALINE”和“MADALINE”的模型。MADALINE(多自适应线性元素)是第一个应用于实际问题的神经网络,利用自适应滤波器消除电话线上的回声。这些早期模型为今天复杂神经网络和深度学习领域的发展铺平了道路。

神经网络的多样性和强大能力在生成式AI的发展中起到了至关重要的作用。以下将介绍三种关键的神经网络架构:卷积神经网络、循环神经网络和生成对抗网络,这些架构在各自的领域中展示了独特的优势和应用潜力。

1、卷积神经网络

卷积神经网络(Convolutional Neural Network, CNN)是一种特殊的深度学习神经网络结构,主要用于处理具有网格拓扑结构的数据,如图像。CNN的主要特点包括局部连接(每个神经元只与输入数据的一个局部区域相连)、权值共享(同一个特征图中的神经元共享相同的权重)以及多层结构(通常包含多个卷积层、池化层和全连接层)。CNN的基本组成部分包括卷积层(使用卷积核提取输入的局部特征)、池化层(对特征图进行下采样,减少参数数量)和全连接层(将特征映射到最终的输出)。

卷积神经网络专门处理结构化网格数据,如图像,使其成为视觉数据分析和生成的基石。通过自动和自适应地学习空间层次特征,CNN可以生成新的图像或修改现有图像,具有惊人的细节和逼真度。这一能力在推进计算机视觉领域方面起到了关键作用,CNN被用于创造逼真的艺术作品、增强照片,甚至生成与现实世界图像无法区分的全新视觉内容。

谷歌开发的DeepDream就是CNN在实践中的经典例子,它以超现实、梦幻的方式增强和修改图像,展示了CNN在解释和创作视觉数据方面的创造力。

3、循环神经网络

循环神经网络(Recurrent Neural Network, RNN)是一种用于处理和预测序列数据的神经网络结构。与传统的前馈神经网络不同,RNN具有循环连接,能够记住以前的信息并将其应用于当前的输入。RNN的主要特点包括:1)网络中的神经元在时间步长上具有连接,可以保留和利用之前时间步的信息。2)特别适用于时间序列数据、语音识别、文本生成和翻译等任务。3)在不同的时间步之间共享相同的权重,使得网络能够处理任意长度的输入序列。

循环神经网络(RNN)擅长处理序列数据,使其非常适合处理时间序列、语音或文本等任务。RNN能够记住长时间的信息,其处理输入序列的能力使其在生成连贯且具有上下文相关性的文本或音乐方面表现出色。这一架构彻底改变了自然语言处理和生成,使得创建复杂的AI聊天机器人、自动写作助手和动态音乐创作软件成为可能。

谷歌的Magenta项目利用RNN创作新的音乐作品,展示了RNN在理解和生成复杂序列(如音乐作品)方面的能力,通过学习大量现有音乐数据集实现这一点。

3、生成对抗网络

生成对抗网络(Generative Adversarial Network, GAN)是一种由生成器和判别器两个神经网络组成的框架,二者在零和博弈的框架中相互竞争。生成器负责生成与真实数据相似的虚假数据,而判别器则试图区分真实数据和生成的数据。GAN的工作原理是通过对抗训练,生成器不断改进其生成的数据以使其更加逼真,而判别器则不断提高其区分真实数据和虚假数据的能力。通过这种对抗过程,生成器生成的数据逐渐逼近真实数据的分布。

这种创新的结构使得GAN能够生成高度逼真和详细的图像、视频,甚至是声音。GAN的竞争性促使其不断改进,最终生成的内容往往与真实世界的数据无法区分。其应用范围包括创建逼真的图像和深伪技术,以及推动药物发现和材料设计。

NVIDIA开发的StyleGAN是GAN能力的典范,它生成了高度逼真的人脸和物体。这项技术被用于时尚和设计领域,呈现出令人惊叹的产品和风格。

特性卷积神经网络 (CNN)循环神经网络 (RNN)生成对抗网络 (GAN)
应用处理结构化网格数据,如图像。用于视觉数据分析和生成。处理序列数据,如时间序列、语音和文本。生成高度逼真和详细的图像、视频和声音。
优势自动和自适应地学习空间层次特征;生成细节和逼真度极高的图像。记住长时间信息;生成连贯且上下文相关的文本或音乐。两个网络竞争性学习,不断改进生成内容;生成的内容与真实数据无法区分。
实例

谷歌的DeepDream,用于增强和修改图像,展示创造力。

谷歌的Magenta项目,用于创作新的音乐作品。

NVIDIA的StyleGAN,用于生成高度逼真的人脸和物体。

五、Transformer架构的出现

前面,我们讲到了神经网络,我知道神经网络是生成式人工智能的基础,使机器能够生成模仿真实数据分布的新数据实例。其核心在于神经网络从大量数据中学习,识别那些不易察觉的模式、结构和关联。这种学习能力使它们能够生成新颖的内容,从逼真的图像和音乐到复杂的文本等。其实,还有一个生成式人工智能很重要的基础,那就是本文讲的Transformer。

1、Transformer架构介绍

近年来,Transformer架构引领了自然语言处理(NLP)领域的革命性变革,彻底改变了机器理解和生成语言的方式。Transformer的核心优势在于其能够同时处理句子中所有单词之间的关系,极大地提升了语言模型的效率和效果。这一架构成为了诸如生成式预训练Transformer(GPT)等高级语言模型的基础,支持了从生成连贯且上下文相关的文本到翻译语言和总结文档的广泛应用。本文将详细探讨Transformer架构的原理、应用及其在NLP领域的影响。

Transformer由Vaswani等人在2017年提出,其核心创新在于放弃了传统的循环神经网络(RNN)和卷积神经网络(CNN),转而采用自注意力机制(Self-Attention Mechanism)。这种机制允许模型在处理单词时,能够同时关注句子中的所有其他单词,从而捕捉到更丰富的上下文信息。

Ashish Vaswani 在南加州大学完成了他的博士学位,并曾在 Google Brain 担任研究员,参与了 Transformer 模型的开发。Ashish Vaswani 也是具有里程碑意义的论文《Attention Is All You Need》的合著者之一,该论文介绍了Transformer模型。该模型已成为AI领域的基础,特别是在NLP任务中。

RNNCNNTransformer 自注意力机制
基本原理通过递归循环处理序列数据,每次处理一个序列元素通过卷积层和池化层处理数据,捕捉局部特征使用自注意力机制,捕捉输入序列中所有元素之间的依赖关系
数据处理方式顺序处理,前一个状态影响下一个状态并行处理,通过滑动窗口捕捉局部特征并行处理,整个序列同时处理
计算效率计算时间长,无法并行处理计算效率高,能够并行处理计算效率高,能够并行处理
处理长距离依赖较弱,难以捕捉长距离依赖关系较强,但主要捕捉局部特征强,通过自注意力机制有效捕捉长距离依赖关系
主要应用领域序列数据处理,如时间序列预测、语言模型图像处理,如图像分类、目标检测自然语言处理,如机器翻译、文本生成、情感分析
输入输出关系逐步产生输出,每个时间步对应一个输出整体输入对应整体输出整体输入对应整体输出
参数共享无参数共享卷积核参数共享参数共享,通过注意力头共享
平行化能力平行化困难容易平行化容易平行化
记忆能力有记忆能力,能够保留前序列信息无记忆能力,处理当前局部信息有记忆能力,通过注意力机制保留全局信息
模型复杂性相对较低取决于卷积层数和滤波器数量相对较高,需要更多计算资源

2、自注意力机制

自注意力机制是Transformer架构的核心组件。其基本思想是通过计算输入序列中每个单词与其他所有单词的相关性,生成一组注意力权重,并基于这些权重加权求和输入序列,以生成新的表示。具体来说,输入序列经过嵌入层和位置编码后,进入多头自注意力层。每个注意力头都会独立计算注意力权重,并生成新的表示,最后将这些表示拼接并线性变换,得到最终的输出。

可以将自注意力机制比喻成一个团队合作项目中的信息分享过程:

嵌入层和位置编码:首先,每个团队成员(输入序列中的每个单词)都有自己独特的技能和位置(嵌入表示和位置编码)。

多头自注意力层:在团队会议中,每个成员会与其他所有成员交流,评估每个人提供的信息有多重要(计算注意力权重)。

独立计算注意力权重:每个团队成员会分别与每个其他成员进行一对一的详细讨论,理解和吸收他们的信息(每个注意力头独立计算权重并生成新的表示)。

拼接和线性变换:最后,所有成员的信息汇总成一个统一的报告(将所有注意力头的表示拼接并线性变换),这个报告就是整个团队共同的输出(最终的输出表示)。

3、编码器-解码器架构

Transformer采用编码器-解码器架构。编码器将输入序列转换为一组隐含表示,解码器则根据这些隐含表示生成输出序列。编码器和解码器均由多层堆叠的自注意力和前馈神经网络组成。编码器将输入序列逐层处理,生成隐含表示,解码器在生成每个输出单词时,既参考编码器的隐含表示,也参考先前生成的输出单词。

Transformer 模型就像一个双向翻译团队,其中编码器是翻译员甲,解码器是翻译员乙。

编码器(翻译员甲):将输入的源语言文本(例如中文)转换为一组隐含表示。翻译员甲会仔细阅读并理解整篇中文文本,通过多次反复推敲和深思熟虑,将其逐层处理,提炼出其中的核心意思和信息点,就像把一篇复杂的文章总结成一组简洁的笔记。

解码器(翻译员乙):根据这些隐含表示生成目标语言文本(例如英文)。翻译员乙拿到翻译员甲的笔记(隐含表示),并参考这些笔记逐词生成英文句子。同时,翻译员乙还会回顾已经生成的英文单词,确保上下文连贯和语义准确,就像在写作时既要参考大纲(隐含表示)也要注意前后文的衔接。

在整个过程中,编码器(翻译员甲)通过多层堆叠的自注意力机制和前馈神经网络处理输入序列,将其转化为隐含表示。解码器(翻译员乙)则利用这些隐含表示和已生成的输出单词,通过相同的机制逐层生成目标语言文本。就像翻译员甲和乙在每一层处理过程中,会动态地评估并权衡每个单词或信息点的重要性,以确保最终翻译结果既准确又流畅。

Transformer的一些重要组成部分

特点解释
自注意力机制(Self-Attention)允许模型同时考虑输入序列中的所有位置。就像一位编辑在编辑文章时,能够同时参考整篇文章的所有段落,以确保连贯性和逻辑性。
多头注意力(Multi-Head Attention)将自注意力机制扩展为多个注意力头,每个头学习不同的注意权重。就像一个团队中的多名编辑,每个人都从不同的角度审阅文章,以捕捉各种类型的错误和改进建议。
堆叠层(Stacked Layers)由多个相同的编码器和解码器层堆叠而成,有助于模型学习复杂的特征表示和语义。就像多层的编辑和校对流程,每一层都进一步完善和优化文章内容。
位置编码(Positional Encoding)由于没有内置的序列位置信息,位置编码用于表达输入序列中单词的位置顺序。就像在编辑文章时添加页码和段落编号,以确保各部分内容按正确顺序排列和引用。
残差连接和层归一化(Residual Connections and Layer Normalization)减轻训练过程中的梯度消失和爆炸问题,使模型更容易训练。就像在长时间编辑过程中定期保存文档和优化排版,以防止丢失工作进度并保持文章的清晰度。
编码器和解码器(Encoder and Decoder)编码器处理输入序列,解码器生成输出序列,适用于序列到序列的任务。就像一个双向翻译团队,翻译员甲将原文提炼成简明笔记(编码器),翻译员乙根据笔记生成目标语言文本(解码器),确保翻译准确且连贯。

Transformer架构通过其革命性的自注意力机制,彻底改变了自然语言处理领域的模型设计和应用。生成式预训练Transformer(GPT)展示了这种架构在生成连贯文本、语言翻译和文档摘要等方面的强大能力。理解生成模型与判别模型的区别,能够帮助我们在不同任务中有效地应用AI技术,确保其高效性和合理性。随着技术的不断发展,Transformer及其衍生模型将在更多领域展现出更大的潜力,为自然语言处理的未来带来更多可能。

六、Generative Pre-trained Transformer (GPT)

Transformers 革新了机器理解和生成自然语言的方式,得益于它们能够同时处理句子中所有单词之间的关系。这种架构支撑了一些最先进的语言模型,如生成式预训练变换器(Generative Pre-trained Transformer,GPT),使其能够广泛应用于生成连贯且具有上下文相关的文本、翻译语言和总结文档等任务。

2018年,OpenAI发布了GPT-1,这是第一个基于Transformer的生成预训练变换器模型。GPT-1的设计理念是先进行无监督的预训练,然后进行有监督的微调。它通过在大量文本数据上进行预训练,学习语言的统计特性和上下文关系,从而在下游任务中表现出色。尽管GPT-1的参数量相对较小,但它为后续的GPT模型奠定了基础。

2019年,OpenAI推出了GPT-2,这一版本在参数量上有了显著的提升,从GPT-1的1.17亿参数增加到15亿参数。GPT-2的发布标志着生成语言模型能力的显著提升,它能够生成更加连贯和上下文相关的文本。GPT-2在各种自然语言处理任务中表现出色,包括文本生成、翻译、摘要等。

2020年,OpenAI发布了GPT-3,这是GPT系列中的又一次飞跃。GPT-3的参数量达到了1750亿,是GPT-2的十倍多。GPT-3的庞大参数量使其在理解和生成语言方面表现出色,能够处理更复杂的语言任务,并生成更加自然的文本。

2023年,OpenAI发布了GPT-4,进一步提升了模型的能力和性能。GPT-4不仅在参数量上有所增加,还在处理复杂语言任务、理解上下文、生成连贯文本等方面表现出色。GPT-4的发布标志着自然语言处理技术的又一次重要进步,为各种应用场景提供了更强大的支持。

2024年,OpenAI推出的“GPT-4o mini”迷你AI模型和SearchGPT原型,都是其致力于在“多模态”领域保持领先地位的一部分。所谓“多模态”,即在一个工具内部,提供多种类型的AI生成媒体,包括文本、图像、音频、视频以及搜索功能。

七、提词器工程的出现

 生成式预训练模型属于近些年来引发广泛瞩目的技术之一。并且基于这些技术,人工智能生成内容(AI-Generated Content, AIGC)获得了广泛的运用。而提词工程学(Prompt Engineering)作为与 AIGC 紧密相连的新兴范畴,也逐步吸引了人们的关注。

1、GPT时代的AIGC

AIGC(AI-generated Content)即由人工智能所生成的内容,涵盖的范畴包括但不限于文本、图像、音频以及视频等等。AIGC 技术的关键核心在于生成模型,例如 GPT 之类,其凭借对大量数据的学习从而生成高品质的内容。AIGC 的问世,给内容创作带来了全新的可能性以及挑战。

我们应当了解,AIGC 的发展历程能够追溯至 20 世纪 60 年代,彼时约瑟夫·魏岑鲍姆(Joseph Weizenbaum)研发出了 ELIZA,这属于早期的自然语言处理程序,其旨在模拟人类之间的对话。ELIZA 能够借助简单的模式匹配技术和用户展开互动,尽管功能存在一定的局限性,然而它却彰显出计算机生成类人交互的潜力。不过,伴随 OpenAI 的 GPT 系列的推出,这意味着 AIGC 迈入了一个至关重要的里程碑阶段。由于 GPT 模型运用了 Transformer 架构,经过大量数据的预训练,能够生成连贯且与上下文紧密相关的文本,极为逼真地效仿人类的写作风格。不管是新闻报道、市场营销的相关内容,还是社交媒体的帖子,AI 均能够迅速生成高质量的文本内容。举例来说,GPT-3 被广泛运用于生成新闻文章、博客内容以及技术文档等等。这些成效都是以往的技术所无法达成的!

2、AIGC 的发展催生了提示词工程学

随着 ChatGPT 的问世和发展,一批以年轻人为主的群体开始热衷于探索大型语言模型和图像生成程序,尝试让它们执行其开发者未曾预料甚至未曾设想的任务。然而,在这个过程中,也面临着诸多技术难题和伦理争议。很多创新公司可以雇佣具有对人工智能模型命令设计和优化的人士,因为他们可以通过设计复杂的提示词来发现模型的特点来来完成工作任务。但是,要找到真正精通此道的人才并非易事,且相关成本也较高。

所以,一门这样的技术就出现了!提示词工程学(Prompt Engineering)是指通过设计和优化输入提示词,来引导人工智能模型生成期望的输出。这一过程涉及对模型行为的精细控制,以达到特定的目标或解决实际问题。提示词工程学不仅包括简单的文字输入,还可能涉及到复杂的语言结构和上下文设置。

提示词工程学的关键技术包括提示词设计、模型调整和自动化提示词生成。提示词设计是基础,常见策略有示例驱动、格式化提示和上下文设置,分别通过提供示例、特定格式和背景信息帮助模型理解任务。模型调整是提升性能的重要手段,包含模型微调以提高特定任务适应性、参数调整优化性能、多轮对话提升输出质量。随着发展,自动化生成提示词技术逐渐成熟,涵盖遗传算法、强化学习和自动化工具,分别能自动生成和优化提示词、依据反馈优化、简化设计优化流程。

伴随着各类 AIGC 模型不断增多,技术在多维度上的进步以及应用范围的拓展,提示词工程学必将发挥愈发关键的作用,为各行各业赋予崭新的机遇与挑战。期望本文能够为您带来关于提示词工程学的初步认知。

 ......................

在这里,你学到的并非仅仅是 R 的某一个技巧,而是能够从零开始,深入且系统地学习 R 语言。此外,本专栏每周至少定期更新三篇文章,每篇文章篇幅均在 5000 字以上。而且,对于已经发表的知识点,我们也会根据新的技术或理解及时进行更新,这是纸质版图书无法做到的。为了让更多的忠实粉丝和同学们享受到实惠,本专栏采用折扣定价策略。随着章节的不断完成,折扣力度会逐渐减小。所以,现在正是订阅的最佳时机!

https://blog.csdn.net/2301_79425796/category_12729892.html?spm=1001.2014.3001.5482

第一章:认识数据科学和R

1章1节:数据科学的发展历程,何 R 备受青睐及我们专栏的独特之处(更新20240822)-CSDN博客

1章2节:关于人工智能、机器学习、统计学连和机器学习、R 与 ChatGPT 的探究 (更新20240814)-CSDN博客

1章3节:R 语言的产生与发展轨迹(更新2024/08/14)-CSDN博客

1章4节:数据可视化, R 语言的静态绘图和 Shiny 的交互可视化演示(更新20240814)-CSDN博客

第二章:R的安装和数据读取

2章1节:R和RStudio的下载和安装(Windows 和 Mac)_rst语言选择哪个镜像-CSDN博客

2章2节:RStudio 四大区应用全解,兼谈 R 的代码规范与相关文件展示_rstudio的console和terminal-CSDN博客

2章3节:RStudio的高效使用技巧,自定义RStudio环境(更新20240823)_rstudio如何使用-CSDN博客

2章4节:用RStudio做项目管理,静态图和动态图的演示,感受ggplot2的魅力-CSDN博客

2章5节:认识和安装R的扩展包,什么是模糊搜索安装,工作目录和空间的区别与设置(更新20240807 )-CSDN博客

2章6节:R的数据集读取和利用,如何高效地直接复制黏贴数据到R(更新20240807 )_r语言 复制数据集-CSDN博客

2章7节:读写RDS,CSV,TXT,Excel,SPSS、SAS、Stata、Minitab等的数据文件(更新20240807)_r语言读取rds文件-CSDN博客

2章8节:一文学会 R Markdown 的文档核心操作,切记文末有R资源的分享_r markdown文件(.rmd)-CSDN博客

2章9节:认识R与数据库连接和网络爬虫,学会在R中使用SQL语言_sql和r语言-CSDN博客

2章10节:用 R 直接下载并分析 NHANES 数据库的数据,文末示例自创便捷下载函数(更新20240807)_nhanes数据分析-CSDN博客

第三章:认识数据

3章1节:数据的基本概念以及 R 中的数据结构、向量与矩阵的创建及运算-CSDN博客

3章2节:继续讲R的数据结构,数组、数据框和列表-CSDN博客

3章3节:R的赋值操作与算术运算_r里面的赋值-CSDN博客

3章4节:R的逻辑运算和矩阵运算-CSDN博客

3章5节:R 语言的循环与遍历函数全解析-CSDN博客

第四章:数据的预处理

4章1节:全面了解 R 中的数据预处理,通过 R 基本函数实施数据查阅_r数据预处理-CSDN博客

4章2节:从排序到分组和筛选,通过 R 的 dplyr 扩展包来操作-CSDN博客

4章3节:处理医学类原始数据的重要技巧,R语言中的宽长数据转换,tidyr包的使用指南-CSDN博客

4章4节:临床数据科学中如何用R来进行缺失值的处理_临床生存分析缺失值r语言-CSDN博客

4章5节:数据科学中的缺失值的处理,删除和填补的选择,K最近邻填补法-CSDN博客

4章6节:R的多重填补法中随机回归填补法的应用,MICE包的实际应用和统计与可视化评估-CSDN博客

4章7节:用R做数据重塑,数据去重和数据的匹配-CSDN博客

4章8节:用R做数据重塑,行列命名和数据类型转换-CSDN博客

4章9节:用R做数据重塑,增加变量和赋值修改,和mutate()函数的复杂用法_r语言如何在数据集中添加变量-CSDN博客

4章10节:用R做数据重塑,变体函数应用详解和可视化的数据预处理介绍-CSDN博客

4章11节:用R做数据重塑,数据的特征缩放和特征可视化-CSDN博客

4章12节:R语言中字符串的处理,正则表达式的基础要点和特殊字符-CSDN博客

4章13节:R语言中Stringr扩展包进行字符串的查阅、大小转换和排序-CSDN博客

4章14节:R语言中字符串的处理,提取替换,分割连接和填充插值_r语言替换字符串-CSDN博客

4章15节:字符串处理,提取匹配的相关操作扩展,和Stringr包不同函数的重点介绍和举例-CSDN博客

4章16节:R 语言中日期时间数据的关键处理要点_r语言 时刻数据-CSDN博客

第五章:定量数据的统计描述

5章1节:用R语言进行定量数据的统计描述,文末有众数的自定义函数-CSDN博客

5章2节:离散趋势的描述,文末1个简单函数同时搞定20个结果-CSDN博客

5章3节:在R语言中,从实际应用的角度认识假设检验-CSDN博客

5章4节:从R语言的角度认识正态分布与正态性检验-CSDN博客

5章5节:认识方差和方差齐性检验(三种方法全覆盖)-CSDN博客

5章6节:R语言中的t检验,独立样本的t检验-CSDN博客

5章7节:单样本t检验和配对t检验-CSDN博客

5章8节:方差分析(ANOVA)及其应用-CSDN博客

5章9节:组间差异的非参数检验,Wilcoxon秩和检验和Kruskal-Wallis检验-CSDN博客

第六章:定性数据的统计描述 

6章1节:定性数据的统计描述之列联表,文末有优势比计算介绍-CSDN博客

6章2节:认识birthwt数据集,EpiDisplay和Gmodels扩展包的应用-CSDN博客

6章3节:独立性检验,卡方检验,费希尔精确概率检验和Cochran-Mantel-Haenszel检验-CSDN博客

6章4节:相关关系和连续型变量的Pearson相关分析-CSDN博客

6章5节:分类型变量的Spearman相关分析,偏相关分析和相关图分析-CSDN博客

6章6节:相关图的GGally扩展包,和制表的Tableone扩展包-CSDN博客​​​​​​​

第七章:R的传统绘图

​​​​​​​7章1节:认识R的传统绘图系统,深度解析plot()函数和par()函数的使用-CSDN博客

7章2节:R基础绘图之散点图、直方图和概率密度图-CSDN博客

7章3节:R基础绘图之条形图和堆积条形图-CSDN博客

7章4节:饼图,箱线图和克利夫兰点图-CSDN博客

7章5节:散点矩阵图,与小提琴图、Cleveland 点图、马赛克图和等高图-CSDN博客

7章6节:用R进行图形的保存与导出,详细的高级图形输出,一文囊括大多数保存的各种问题,和如何批量保存不同情况的图形-CSDN博客

 第八章:R的进阶绘图

8章1节:认识 ggplot2 扩展包,深度解析 qplot() 函数的使用-CSDN博客

 8章2节:深度讲解 ggplot2 的绘图步骤,理解其核心逻辑, 和 ggplot()函数-CSDN博客

 8章3节:用R来绘制医学地理图,文末有具体完整代码-CSDN博客

 8章4节:维恩图的认识与应用,和使用UpSet图-CSDN博客

 8章5节:用R绘制平行坐标图-CSDN博客​​​​​​​

8章6节:雷达图及RadViz图-CSDN博客

8章7节:词云图,矩形树状图和三维散点图-CSDN博客

 ​​​​​​​8章8节:绘制自定义的高质量动态图和交互式动态图-CSDN博客

第九章:临床试验的统计

9章1节:初步认识临床试验(约7500字)-CSDN博客

9章2节:样本量估计的初步介绍-CSDN博客

9章3节:用R进行样本量估计的统计学参数-CSDN博客

9章4节:两组例数相同的均数比较的样本量估计和绘制功效曲线-CSDN博客

9章5节:两组的例数不等的均数比较的样本量估计和可视化-CSDN博客

9章6节:自身配对设计的均数比较临床试验的样本量估计和可视化-CSDN博客

9章7节:与总体均数比较的样本量估计和可视化-CSDN博客

9章8节: 两、三组试验组率比较的样本量估算和可视化-CSDN博客

9章9节:试验的随机分组认识,用R做简单随机化-CSDN博客​​​​​​​

9章10节:用R实现分层随机化-CSDN博客

9章11节:用R实现区组随机化和置换区组随机化-CSDN博客

​​

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

数据科学和人工智能兴趣组

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值