AI大模型只能沦为“锦上添花”吗?

图片

“每个人咨询的第一个问题都是:你们在大模型方面做了什么?”

7月8日,2023世界人工智能大会(下称WAIC),一位参展商告诉笔者他的感受。——“大模型”,无疑是此次大会绕不开的主题。

另一位来自国内大模型创业公司的技术人员在展会上穿梭,她对芯片厂商十分感兴趣,她说他们要做语义大模型,公司拥有1000张英伟达的A100,但算力仍然不够,她希望能在展会上寻找新的机会——算力要强,成本要划算。

为期3天的大会,每场会议都有关于大模型的话题,每个论坛都离不开围绕大模型的讨论,每个展区的工作人员几乎都会被问及大模型技术,甚至一些公司被投资人和股东要求一定要讲大模型。

图片

第一届WAIC举办于6年前,2018年算是AI的上一个历史高点。彼时,人类刚刚见识了AI的“超能力”,AlphaGo刚刚连续战胜了两位人类围棋冠军,全世界对AI的关注持续升温。

今天备受瞩目的OpenAI,也是在2018年推出的第一个版本的GPT模型,但那个时候,GPT模型在行业内甚至没有激起任何水花。

在过去的6年里,由于AI应用落地缓慢,大众以及资本对AI的耐心开始逐渐退潮。

直到ChatGPT的出现,AI大模型使人们对AI重拾期待,也再次点燃了资本对AI技术的热情。本届WAIC开幕之时,这个热潮似乎也正在顶点。

但是在这次展会上大模型更像是一件“皇帝新衣”,“或许很多人都不知道到底能用大模型做什么。”一位芯片公司展商表示,过去三天,好几位产品经理前来咨询,他们希望找到自己的大模型产品的市场定义。

大模型可能包容一切,但暂时还不是一切。”一位参展观众在展会上这样评价。

只是锦上添花

今天市面上的大模型,虽然有很多落地案例,但能创造实际价值的场景并不多,大多是传统数字化转型的附属品,在具体业务中起到提质增效的作用。

星环科技在本届WAIC上展示了两款AI领域大模型产品,一个是金融量化投研大模型“无涯”,一个是大数据分析大模型SoLar“求索”。这两款产品都定位在“智能助手”这个方向上。

“大模型对产品的可用性提升很大,但大模型肯定不是我们产品的全部。”星环科技产品市场经理何韵秋给观众讲解了一下午AI大模型之后发现,观众们的确对AI大模型很感兴趣,但来找她咨询的人,还是更在意大数据技术,包括向量数据库和图数据库,她说:“对于金融数据库有需求的客户,他们本来也会买我们的产品,大模型算是锦上添花吧。

星环科技在2022年发布的年报中称,自己在国内有超过1400家终端用户,主要集中在金融行业。

事实上,对于这些行业客户来说,一项才火了半年的技术,很难在选型过程中被列为参考条件。客户更在意的是平台、软件的功能,供应商的技术实力、服务能力,以及价格。

易用性代表着增加用户对于产品的使用体验,虽然对于企业用户来说也很重要,但这并不能直接创造价值。以金融行业为例,量化投研助手可以帮助投资经理、研究员和分析师提高工作效率,然而,真正提供业务价值的仍旧是底层的量化投研引擎;在制造业中,使用自然语言调用工业软件功能、生成报表、完成知识库内容问答,可以帮助企业提高生产效率,真正提供数据价值的,还是基于MOM(Manufacturing Operation Management,制造运营管理)系统的工厂管理。

虽然基于AI大模型的效率提升很重要,但企业数字化转型的初衷还是要优化整个流程,从而创造价值。不过,AI大模型对于一家技术研发公司来说,也不只是一个小插件。能推出自研大模型的公司,在技术实力上无疑是加分项,星环科技也在5月底就推出了自研AI领域大模型产品。

找到合适的应用场景是目前国内AI大模型行业最迫切的需求。”星环科技创始人孙元浩认为,有些公司很短的时间就发布了AI大模型相关产品,研发能力很强,但这些AI大模型能否找到应用场景,或者在他的场景中能创造多少价值,还需要时间来检验。

别只看大模型

事实上,无论是参展WAIC的公司还是观众大多还是很务实。虽然每个展商都带着大模型来,但他们真正的目标并不一定是大模型,而是用上了AI技术的数字化、智能化产品。

扩博智能在这次WAIC上发布了一款“风机叶片内检机器人”,其主要功能是通过内部观测风机叶片,避免叶片漆面对检测的影响,及时准确地识别缺陷,降低损失和维护成本。

图片
风机叶片内检机器人

这样一款机器人与AI大模型有结合吗?

机器人还在学!也有人问我们大模型,但不多。”扩博智能风电硬件产品总监柯亮告诉笔者,目前风机叶片的巡检机器人主要的功能是把数据收回来,并帮助工作人员进行分析。但这种分析的精度还不能做到100%,因为数据量太小了,“一个风场的巡检量达到七万台次,但同样的裂痕数据,可能只会出现一次,机器可以学习的数据量还不够。”

人脸识别,或是流水线上的CV质检,都是对有一定共性特征的图像进行学习,但风机叶片有可能产生各种各样的裂痕,所以机器学习的难度很大。

“那是不是可以理解为,风机叶片巡检机器人的主要价值在于机器人,数据智能只是附加价值?”一位现场观众这样问柯亮,他说:“我不太认同这种看法,数据本身就是资产,单纯看眼前,大数据可能是附加价值,但当这些巡检数据长期积累以后,就会形成数据的循环,未来风机叶片巡检也能有足够的数据去训练大模型,也能实现全自动化。

对于风电这样的新兴产业,且本来就不具备数据采集基础,在现阶段谈的AI大模型更多的是如何打好数据基础。

在医疗行业的一些场景中,则可能不需要上亿规模的参数,AI就可以帮助医生快速获得更好的诊断、治疗效果。本次展会上,GE医疗带来的深度学习磁共振重建技术——AIR Recon DL,就是通过440余万的样本和高质量的基础数据,进行深度学习、建模,实现在磁共振影像源头的原始数据进行重建,分离噪声,获得高质量图像。

“这种AI处理技术相比传统的滤波器更保真,因为滤波器会过滤掉有效数据。”GE医疗展台工作人员说,医疗设备中的AI只需要一个不太复杂的AI模型,就可以大幅增强诊疗效果。

图片
AIR Recon DL深度学习平台图像对比

在与展商、观众的交谈中,很多人都认可这样一句话:从短期来看AI大模型正在被严重高估。但从长期看,AI大模型被严重低估了。

多位业内人士曾向笔者表示,短期来看,虽然AI大模型涌现出了超乎想象的通用能力,但现阶段,大模型仍受到很多因素的制约。算法还有提升的空间,数据还远不够完善,算力甚至正在制约技术发展的速度。

在这个阶段里,盲目地找场景,求利润,其实并不现实,但在大模型风口之下,AI公司们却被迫陪着资本一起飞上天。

“AI公司如果不提大模型,不提生成式AI,就会显得不专业。创业公司,可能会被降低估值,上市公司,则可能会影响市值。”某AI公司展位的工作人员告诉笔者,大模型已经成为了市场的噱头。

如何学习AI大模型?

现在社会上大模型越来越普及了,已经有很多人都想往这里面扎,但是却找不到适合的方法去学习。

作为一名资深码农,初入大模型时也吃了很多亏,踩了无数坑。现在我想把我的经验和知识分享给你们,帮助你们学习AI大模型,能够解决你们学习中的困难。

我已将重要的AI大模型资料包括市面上AI大模型各大白皮书、AGI大模型系统学习路线、AI大模型视频教程、实战学习,等录播视频免费分享出来,需要的小伙伴可以扫取。

在这里插入图片描述

一、AGI大模型系统学习路线

很多人学习大模型的时候没有方向,东学一点西学一点,像只无头苍蝇乱撞,我下面分享的这个学习路线希望能够帮助到你们学习AI大模型。

在这里插入图片描述

二、AI大模型视频教程

在这里插入图片描述

三、AI大模型各大学习书籍

在这里插入图片描述

四、AI大模型各大场景实战案例

在这里插入图片描述

五、结束语

学习AI大模型是当前科技发展的趋势,它不仅能够为我们提供更多的机会和挑战,还能够让我们更好地理解和应用人工智能技术。通过学习AI大模型,我们可以深入了解深度学习、神经网络等核心概念,并将其应用于自然语言处理、计算机视觉、语音识别等领域。同时,掌握AI大模型还能够为我们的职业发展增添竞争力,成为未来技术领域的领导者。

再者,学习AI大模型也能为我们自己创造更多的价值,提供更多的岗位以及副业创收,让自己的生活更上一层楼。

因此,学习AI大模型是一项有前景且值得投入的时间和精力的重要选择。

  • 20
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
AI模型可以通过预训练和微调的方式来实现情感分析任务。首先,模型会在大规模的文本数据上进行预训练,学习到丰富的语言表示。然后,通过微调的方式,将预训练的模型应用于具体的情感分析任务。 具体步骤如下: 1. 预训练:使用大规模的无标签文本数据对模型进行预训练。预训练的目标是学习到语言的通用表示,使模型具备理解文本的能力。常用的预训练模型包括BERT、GPT等。 2. 微调:在预训练的基础上,使用带有标签的情感分析数据对模型进行微调。微调的目标是将模型语言表示能力与具体的情感分析任务相结合,使模型能够准确地预测文本的情感极性。 3. 输入表示:将待分析的文本转化为模型可以理解的输入表示。通常情况下,可以使用词嵌入技术将文本转化为向量表示,或者使用特定的编码方式(如BERT的输入编码方式)。 4. 模型预测:将转化后的输入传入微调后的模型,进行情感分析的预测。模型会输出一个表示情感极性的概率分布,可以根据概率分布进行分类判断。 下面是一个使用BERT模型进行情感分析的示例代码: ```python from transformers import BertTokenizer, BertForSequenceClassification # 加载预训练的BERT模型和分词器 model_name = 'bert-base-chinese' tokenizer = BertTokenizer.from_pretrained(model_name) model = BertForSequenceClassification.from_pretrained(model_name, num_labels=2) # 输入文本 text = "这家酒店的服务很好,房间也很干净。" # 分词和编码 inputs = tokenizer(text, return_tensors='pt') input_ids = inputs['input_ids'] attention_mask = inputs['attention_mask'] # 模型预测 outputs = model(input_ids, attention_mask=attention_mask) logits = outputs.logits predicted_labels = logits.argmax(dim=1) # 输出结果 if predicted_labels.item() == 0: print("负面情感") else: print("正面情感") ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值