饱受会议折磨的打工人,终于可以解放了!
就在刚刚举办的Google Cloud Next’23大会上,谷歌宣布了一系列科技新进展,最瞩目的要属其中的“开会AI替身”了。
只需要一句“帮我参加”,AI就能替你开会,并在合适的时机发言提问:
这样一来,即使开会时摸鱼,也不怕老板突然点名了(手动狗头)
有网友狂喜,要是真有这个AI数字替身帮我天天开会,我生产力直接拉满!
还有网友调侃,这是从“AI取代我的工作”变成了“AI取代我老板的工作”啊。
一起来看看,这届Next大会上推出了哪些黑科技。
AI替你开会发言写总结
打工人或多或少都经历过开会的痛苦。
有时候,吃饭甚至是在路上时,就突然被拉进会议中,但可能摄像头和声音质量、或是环境不太适合开会。
谷歌认为,遇上“不方便”的时候,就可以用AI来帮忙总结会议内容、并代替你进行提问。
即使你摸鱼了,AI也能迅速给你总结前半段会议说了些什么,让你快速加入话题中:
不仅是“会议替身”。
在会议中间,AI还能自动担负起速记的工作——
帮忙做笔记、甚至是录制视频片段,并在会议结束后整理成当日会议速记,实时发送到每个参会人的手中。
谷歌会议产品部高级总监Dave Citron认为,视频会议有三个创新阶段,第一个是视频会议出现时,第二个是混合办公时期,第三个就是AI爆发时期。
现在,是时候将AI加入会议APP了。
对于这个功能,The Verge调侃称,如果每个与会者都派出他们的AI助手,那么会议主题大概很快就会被弄清楚,并迅速结束。
还有网友感叹,人人用机器帮自己开会上课的一幕,可能很快就要实现了:
如果遇上跨国会议、或是需要快速了解某个国外会议的内容,AI还提供了18种语言的自动翻译字幕。
而如果你所在的地方不方便视频,还可以提前将自己的脸基于AI上传到谷歌会议APP中,开会时直接使用。
这个功能,来自谷歌集大成的AI助手Duet AI。
在这次Next大会上,除了这个会议替身以外,Duet AI也被加入到其他功能中,实现了一波APP的“AI大换血”。
Duet AI变身“增强版”
Duet AI在今年5月的谷歌I/O大会上推出,基于PaLM 2大模型调整而来。
那个时候,Duet AI主要还是集成在Gm****ail和谷歌文档中,例如像微软Office一样能智能编写内容、做PPT、以及分析表格中的数据,以及总结一下邮件内容等:
现在,除了上面提到的会议“替身”以外,Duet AI还在谷歌云中实现了一系列新功能——
代码生成器。它不仅可以帮你自动补全代码、生成代码,还可以进行代码重构。
基础设施管理。用户只需要与Google Cloud Console(监控云资源的设施)的Duet AI聊聊天,就能快速掌握基础设施配置,获得提升利用率和性能的操作方法建议。
数据库助手。只需要和Duet AI“聊聊天”,它就能自动理解你的需求,并帮助你搭建数据库、并负责修改和查询数据;
安全分析员。谷歌的安全产品目前也引入了Duet AI,可以协助查看电脑中的潜在威胁因子,更有效地协助安全人员进行工作。
除了这一系列新云服务以外,谷歌的办公通讯软件Google Chat也用上了Duet AI。
现在,在Google Chat上可以直接查找并提取其他人发的文件、并用Duet AI总结其中的内容等。
谷歌还强调,即使用Duet AI当助手,他们也绝对不会用文件中的内容来训练产品,信不信由你
还集成了Llama2和Claude2
除了增强版Duet AI以外,这次在Next大会上还有一些其他的AI看点。
就像不少国内厂商在做的那样,谷歌也将Llama 2和Claude 2等目前比较流行的大模型API接入了自己的云服务中,方便让用户直接调用。
谷歌还表示,目前它们是唯一提供Llama 2的预训练模型微调(adapter tuning)和RLHF的云服务厂商。
而在基础设施的合作上,英伟达又赢了。
虽然谷歌这次也推出了自己的第五代TPU,并承诺每美元训练性能提高2倍、推理性能也提高了2.5倍(此前谷歌还剧透过,这版TPU用了AI设计)。
不过在大会上,谷歌云特意强调了一波,自己将进一步与英伟达合作,用上更多的英伟达卡来增强自己的云产品,以加速大语言模型训练。
下个月,谷歌云将向开发人员提供英伟达的H100 GPU,即作为A3超级计算机虚拟机的一部分提供。
最后,谷歌还发了一种“AI图片鉴别水印”功能。
这个是谷歌DeepMind早些时候推出的一个AI技术,即给AI生成的图像打上像素级别的水印,只需要识别一下就能分辨出来。
你感觉哪个黑科技最实用?
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
123?spm=1001.2014.3001.5501)这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】