如何利用AI创作高质量的文章

想象一下,你坐在咖啡馆里,手边是一杯香浓的拿铁,而你的旁边,是一个能够理解你、帮助你创作文章的智能伙伴——AI。这不是科幻小说,而是我们正步入的现实。今天,我们就来聊聊如何让这个智能伙伴成为你写作上的得力助手。

(以下内容均来源于个人思考和理解,可能存在错误或片面理解的地方,请审慎阅读。)

目前市面上涌现了大量好用的基于大语言模型开发的AI应用,如chatgpt、kimi等,他们背后使用的技术你了解多少呢?想要用好AI,我们需要先对AI有一定的认知,了解它的基本逻辑和原理。

01

何为大模型?

大模型技术是基于深度学习的一种技术,其核心在于使用大量的数据和计算资源来训练具有大量参数神经网络模型。这种模型通常具有亿到千亿级别的参数,使其具有较强的拟合能力,能够学习更复杂的特征和规律。

上面这段话是对大模型的概括总结,里面涉及到几个关键点:“深度学习大量的数据和参数神经网络模型”。我们可以通过理解这几个关键要素初步认识大模型。

02

什么是深度学习?

在了解这个问题之前,我们可以先思考一个问题:人为什么有分析理解问题,解决问题的能力?

答案其实很简单,因为我们从小到大一直都在学习,我们从书本上学习知识,进行各种实验,甚至现在你在看这篇文章,都是在学习。通过不断的学习,积累知识, 从而让我们具备了分析理解问题、解决问题的能力。既然人能够通过学习具备这样的能力,那机器(计算机)可以吗?答案是肯定的。

早在20世纪50年代,当时的一些计算机科学家和数学家开始探索如何让计算机如何像人类一样具有学习和适应的能力,从而具备解决某些问题的能力。计算机先驱艾伦 · 图灵在当时就提出大脑是一个没有组织、通过权重随机连接的二元神经网络,图灵认为机器获取智能的最佳途径就是模仿人类大脑,这就是深度学习最早的概念。但一直以来,受限于数据集数量较小,算力也远不如现在这么强大,深度学习其实一直没有什么实际上的进展。

直到 2006 年,Hinton 发表了一篇 “深度信念网络的快速学习算法(A fast learning algorithm for deep belief nets )之后,深度学习才开始快速发展起来。之后,Hinton 在 2012 NIPS 上发表的论文又提出了 AlexNet 模型,在图片识别上取得了重大突破,他多年研究工作的重要性才被整个工业界认可。

在这里插入图片描述

在大模型崛起之前,针对某些特定场景,通过不断投喂数据进行模型训练,从而让AI具备解决特定场景下问题的能力,如车牌号识别等。直到最近这两年,得益于算力的进一步提升,基于互联网积累的大量的数据,市场上涌现了一大批好用的通用大模型,典型的如chatgpt、claude、kimi等。

总结来说深度学习其实是一种机器学习的方法,它模仿人类大脑的工作原理,通过构建多层神经网络来实现对数据的学习和理解。简单来说,深度学习就是让计算机通过大量数据和神经网络模型来自动地学习并提取数据中的特征和规律,从而实现各种任务,如图像识别、语音识别、自然语言处理等。

深度学习的核心思想是通过多层次的神经网络结构来逐步提取数据的抽象特征,从而实现对数据的高效表示和处理。可以简单理解为:通过像人类一样大量的学习,掌握数据中的规律,从而具备某一项技能。

03

进一步了解深度学习-神经网络

让计算机像人类一样学习,从而练就某项技能,不得不说,这是一个伟大的构想。

在整个宇宙中,人类大脑是最复杂的物体之一,包含大约 1000 亿个互相连接的神经元,当神经元受到刺激时,会产生电信号,这个信号通过轴突传递到与其他神经元连接的树突上。当电信号到达突触时,会释放化学物质(神经递质),这些化学物质会影响相邻神经元的电活动,从而导致下一个神经元产生电信号。这样,神经元之间的信号传递形成了神经网络,通过这种方式,大脑可以处理信息、思考、记忆和控制身体运动等功能。

比如当你触摸到热的东西时,感觉到疼痛是因为神经元之间的信息传递。在这个过程中,热的刺激会激活皮肤上的神经元,这些神经元会向大脑发送信号,告诉大脑身体受到了热的刺激。大脑接收到这个信息后,会产生疼痛的感觉,让你知道要远离热的东西。这种信息传递就是通过神经元之间的电信号和化学物质来完成的,让我们能够感知外界的刺激并做出相应的反应。

而计算机的神经网络则是一种模仿人类大脑神经元之间相互连接的计算模型。它由多层神经元组成,每个神经元接收来自上一层神经元的输入,并通过权重和激活函数进行计算,最终产生输出。通过不断调整神经元之间的连接权重,神经网络可以学习到输入数据的特征和规律,从而实现对数据的分类、识别或预测等任务。

04

神经网络的基石:Transformer

而说到神经网络,则不得不提Transformer。

Transformer是一种深度学习模型架构,最初由Google提出。它在自然语言处理领域取得了巨大成功,尤其是在机器翻译任务中表现出色,可谓是深度学习的灵魂。

Transformer模型的核心是自注意力机制(Self-Attention),它使得模型能够同时考虑输入序列中各个位置之间的关系,而不是像传统的循环神经网络(RNN)或卷积神经网络(CNN)那样逐个位置处理。这种并行计算的方式使得Transformer能够更高效地处理长距离依赖关系。

自注意力机制是一种用于处理序列数据的机制,能够帮助模型关注序列中不同位置之间的依赖关系,从而更好地理解序列数据。简单地说,自注意力机制可以让模型在处理序列数据时自动学习到每个位置对其他位置的重要性,然后根据这些重要性来调整每个位置的表示,但其实它并不是像我们人类一样真的理解了其中的含义。

在这里插入图片描述

举个例子来理解,假设有一段文字:“今天天气晴朗,鸟儿在树上欢快地歌唱。”,如何通过自注意力机制来理解这段文字。

  1. 计算注意力权重:对于每个词(位置)来说,我们可以计算它与其他所有词之间的相关性,得到一个注意力权重向量。比如,对于词“晴朗”,我们可以计算它与其他词的相关性,比如与“今天”、“鸟儿”、“歌唱”等的关联程度。

  2. 加权求和:根据计算得到的注意力权重,我们可以对所有词的表示进行加权求和,得到一个综合的表示。这个综合的表示会更加关注与当前词相关性较高的其他词。

  3. 映射:将加权求和得到的综合表示通过一个线性变换映射到一个新的表示空间,作为最终的输出,帮助我们理解这段文字。

通过自注意力机制,我们可以在理解文字时动态地调整每个词的重要性,从而更好地捕捉文字中不同位置之间的关联关系,帮助我们更好地理解这段文字的含义。这种机制类似于我们在阅读时会根据上下文来理解每个词的意义,从而更好地理解整个句子或段落的含义。

05

大模型的“大”,背后意味着什么?

前文有提到,大模型的核心是“使用大量的数据和计算资源来训练具有大量参数的神经网络模型”,这里面所说的参数是指什么?多大的数据量和参数才能称为大模型呢?

这里提到的参数其实是指的是神经网络模型中的权重和偏置等可调节的参数,它们用来调整模型的输出以最好地匹配输入数据。在大模型中,这些参数的数量非常庞大,达到了亿、千亿级别,使得模型能够更好地学习和理解复杂的数据特征和规律,能够处理更复杂的问题,如长文本的上下文理解、语义分析以及知识推理等。

chatgpt横空出世后,NLP(自然语言理解)领域的大规模预训练模型可谓是发展快速,从 BERT 到 GPT-3,再到万亿规模的 Switch Transformer,无论是模型大小、数据量,还是计算资源占用都在疾速增长。规模大到什么程度呢?GPT-3 的参数量达到了 1750 亿,训练数据超过了 45TB,而现在最细的GPT-4的训练参数规模高达1.8万亿个,是其前一代GPT-3的1750亿参数的十倍以上,据说投入的研发成本也达到了6300万美元之多。

到底多大才算大模型,目前业内没有明确的说法,但大模型也不能一味的追求“大”,而是要综合考虑起背后需要付出的成本和最终的性能。

06

如何用AI创作文章?

阅读到这里,想必你对大模型的几个关键点都有了一定的认知,基于这些背景知识,下一篇文章我们再结合实际的案例继续讲解如何利用好AI帮助我们创作高质量的文章,以下是主要内容:

首先,术业有专攻,大模型背后有海量的知识,想让AI写出来的文章更专业,我们首先就应该给它设定好创作背景,让其能够在海量的知识库中框定一个范围,接下来在这个范围内进行创作,效率会更高,目标更明确,防止跑偏,这一步就是赋予角色。

其次,目前我们经常接触的大语言模型一般都是通用大模型,它们学习的知识多数都是互联网上公开的知识,虽然多,但不一定精,也不一定是你想要的。为什么很多ToB的企业都在基于开源大模型,通过微调+企业内部知识库等手段开发垂直场景的大模型,就是为了解决大模型大而不精的问题,因为一般而言,真正有价值的数据都沉淀在企业内部。所以我们需要针对大模型稍微进行“微调”,告诉他什么是好的内容,给它标准和参考。

第三,用过AI写作的同学应该都很清楚,目前AI创作的内容大多都带有浓浓的“AI的味道”,让人一眼就能看出来,这是AI创作的,因此“反AI化”也是我们写提示词的重要一步。

第四,当然就是给出明确的主题,告诉AI你想写什么。这里的关键是“明确”,AI知道很多,但是不要让它猜你的心思,你得给它明确的指令,否则它虽然不会拒绝你,但肯定是泛泛而谈,这样写出来的结果肯定好不到哪去。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

123?spm=1001.2014.3001.5501)这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

  • 19
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值