如何通过 AI 工具提升工作效率?

01 语言模型的前世今生

1.1 语言模型的由来

语言模型概念的提出者是贾里尼克,1972年,他正式离开康奈尔大学,来到 IBM,为自己的研究部门挑选了语音识别这个课题。

图片

早期,科学家们主要是从语音学和语言学入手研究自然语言处理。贾里尼克和之前那些研究人员所不同的是,他不是语音学家,也不是语言学家,而是一个数学基础非常好的通信专家。

因此,贾里尼克的想法不受之前的限制,他以一种独特的视角来看待自然语言处理问题,即把它们都看成是一种通信问题。

根据香农确立的现代通信原理,所谓的通信,也被称为信道的编码和解码,无非是信息源先产生一个原始信息,然后在接收方还原一个和原始信息最接近的信息。

比如,你传输一句话,“中国是一个古老的国家”。在传输前要对它进行编码,但是,传输中一定会有噪音和信号损失,接收方接收到的编码可能会发生变化,这样就翻译不回原来的句子了。

通信系统会计算哪一种可能性的概率最大,然后把它选出来。只要传输中的噪音不是太大,而且传输的信息有冗余,我们就都能复原原来的信息。

不是让计算机学着人的做法去理解语言,而是最好能够让计算机计算出来哪一种语句出现的概率最大。这种计算自然语言每个句子概率的数学模型,就是语言模型。

一句话总结:语言模型是对人类的语言建立数学模型

1.2 如何消除语义的不确定性

那遇到小概率的事件应该怎么办呢?

首先,利用更多的上下文信息,消除所有的不确定性。(第一代语言模型用的上下文信息就很少,但是到了GPT-3,就用到了前后2000个词的信息,包括标点符号等,都算成是词)

由于自然语言中有信息冗余,在这么多的上下文里,几乎就不存在不确定性了。这也是为什么今天 ChatGPT 产生的语句,已经很像人说的话了。但从本质上讲,它的原理依然是在很多种候选中,选择一个概率最大的句子。

一句话总结:提供更多的上下文信息

1.3 模型的概率该如何计算

早期的语言模型只是看上下文,事实上,在生活中很多常见的说法都是有语法错误的,但是语言模型不考虑这种情况,它只是认为人们说得多的就是好的句子。

具体来说,就是统计在相同的上下文的条件下,每个词具体出现了多少次。因此,语言模型也被称为是统计语言模型,因为它的模型参数,也就是用来计算各种概率的参数,都是靠统计得出的。

今天对于语言模型参数的统计并不是简单的数数,而是要用很复杂的机器学习方法反复计算,统计在相同的上下文的条件下,每个词具体出现了多少次。因此,语言模型也被称为是统计语言模型。为了避免小概率事件所带来的噪音,我们能做的就是增加数据量。

一句话总结:出现次数多的就是好句子。

02 如何更好地向 AI 提出问题

2.1 为什么需要 Prompt Engineering

从根本上说,人类的语言其实是不精确的,目前机器还没法很好地理解人类说的话,所以了出现PE (Prompt Engineering) 的技术。这项技术就让可以通过更好提示词让 AI 给出好的答案。后面的内容我将提供一个工具去完成上面的提示编写。

2.2 语言模型的能力边界在哪里

1、信息形式的转换

👊机器翻译

👊编写简单的程序

Tips:任何形式的信息转换通常都会损失一些信息。

2、根据要求产生文本

👊回答问题

👊回复邮件

👊书写简单的段落

Tips:这一类工作,输入的信息量明显少于输出的信息量。从信息论的角度看,这会产生很大的不确定性,需要额外补充信息。而补充的信息的来源,其实就是语言模型中所包含的信息。

因此,如果语言模型中包含了某个话题的很多相关信息,它就可以产生高质量的文本;否则,它给出的答案或者所写的内容就不着边际。

3、信息的精简

👊为一篇长文撰写摘要

👊按照要求进行数据分析

👊分析上市公司的财报

Tips:这一类工作,输入的信息多,输出的信息少,因此只要算法做得好,就不会出现信息不够用的问题。将信息由多变少,就会面临一个选择,选择保留哪些信息,删除哪些信息。把更多的信息进行精简,会得出不同的结果,这就要看算法是如何设计的,它所依赖的语言模型之前都统计过什么样的信息等等。

2.3 借助 AI Short 写出更好的 Prompt

为了解决以上能力边界产生的问题,我们在编写这个 Prompt 的时候,应该要补充好更多的这种信息的来源,这样的话它才能去给你产生更多高质量的一个文本。

这里给大家介绍一个可以优化 Prompt 的工具, AI Short。这是 Chrome 的一个插件,它具备以下优点。

🚀 流程简化:提供一份简便的指令列表,可迅速筛选和查询适应各种场景的提示词,帮助用户精简操作过程。

💻 提升生产力:用户可以通过使用优化过的提示词获得更精确、实用的反馈,进而提升生产效率。

🎓 适合新手:对于初学者,只需复制并稍做修改提示词,然后发送给 ChatGPT,即可获取预期输出。

图片

03 兼听则明,得到答案

3.1 不同的大模型产品各有优势

 

市场上的大语言模型百花齐放,不同的大模型擅长的问题不同。如果提出一个问题,让不同的大模型去回答,这样我们看待问题的视角会更加开放。

比如说,微软推出的 New Bing,它是一个集成了 GPT 能力的搜索引擎,作为一个搜索引擎,它的天然优势就是参考资料的实时更新。

图片

New Bing

Claude 则是 OpenAI 竞争对手 Anthropic 推出的产品,它的回答在响应速度上来说更有优势,同时内容会更加精简。

3.2 让多个 AI 大模型同时为你服务

注册并登陆 Poe。

图片

3.3 安装 ChatHub

图片

3.4 初始设置

在设置界面中,你可以选择通过哪种方式驱动大语言模型。

由于在上一步中我们已经注册并登陆了 Poe,所以直接选择 Poe Mode 即可。

图片

此刻,你就可以通过 ChatHub 同时驱动多个大语言模型和你对话了。

图片

04 提升阅读效率

4.1 Wiseone

Wiseone是一个浏览器扩展程序,可以帮助你在任何网站上阅读文章。

它提供了三个功能:总结、建议、提问。

图片

可以通过扩展的菜单或文章内的下划线单词或段落进行访问。

通过这些功能,用户可以快速了解复杂的概念、验证事实、总结主要观点,并了解与文章相关的其他信息。

用户可以使用“询问任何问题”功能,输入关于文章的任何问题,以获得更多的帮助。

图片

4.2 ChatDOC

ChatDOC 是一个可以与文档进行交流的工具。用户可以通过问答方式获取所需信息,选择文字 / 表格并接收 AI 分析结果,还可以发起讨论、查询多个文档以加快研究进程。

该工具提供可靠的 AI 助手支持,每个回答都有引用支持,并且用户可以点击页面引用 / 脚注来检查 AI 解释的准确性。

此外,ChatDOC 还提供不同套餐选项和早鸟优惠价格,并计划推出 API 功能以便用户将其集成到自己的应用程序中。最后,AI总结的文档还列举了与其他替代方案相比较时的特点和常见问题解答部分。

图片

总结

1、语言模型的概念最早由贾里尼克博士提出,最初是用于解决语音识别准确率低下的问题。

2、语言模型的能力边界:

· 信息形式的转换

· 根据要求产生文本

· 信息的精简

3、人类的语言从根本上说是不精确的,目前机器无法很好地理解人类的语言,所以才会出现 Prompt Engineering。

不同的大模型擅长不同的任务,可以使用 ChatHub 同时与多个大模型对话,获取多个参考答案。

4、对于本地文档,可以使用 ChatDOC 辅助阅读,提升效率;对于在线的网页,使用 Wiseone 可以快速了解复杂的概念、验证事实、总结主要观点。

*本文部分图片来源于网络,如有侵权请联系删除

  • 25
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值