新技术通病:生成式AI能否逃得过双刃剑的命运?

国内AI大模型发展迅速,各企业纷纷推出自家产品,如实在智能的TARS垂直大模型,强调私有化部署和定制化训练。然而,大模型也带来数据安全、隐私和偏见等问题。国家网信办等部门出台《生成式人工智能服务管理暂行办法》以规范行业发展和保障安全。
摘要由CSDN通过智能技术生成

AI行业到了一个新的历史时刻。

自3月以来,国内大模型进入“井喷”状态,从互联网巨头到IT、AI企业,从科研机构到科创企业,大家对AI大模型都趋之若鹜,短时间内纷纷推出自有的大模型产品。5月以来,大模型产品以每日一款的速度扎堆诞生,一些AI、物联网企业还有科技大佬在各自的领域开启了新一轮的“跑马圈地”,从功能、使用场景以及核心技术等方面宣告自身大模型的特色和亮点。

拿实在智能举例,在ChatGPT点燃的熊熊大火里,实在智能得益于深耕AI领域的天然优势,凭借自研AGl大模型+超自动化技术,领跑人机协同时代。历经半年研发,在近期正式上线开始内测了自研垂直领域的大语言模型——实在TARS(塔斯)垂直大模型。在众多大模型产品中,实在TARS垂直大模型支持私有化部署和定制化训练,用户可完全自主掌控数据和模型,确保内部敏感数据和信息的安全性,并可根据业务需求进行定制化开发,为客户提供"有效、安全、可信任、可落地”的“大模型+”行业解决方案。

大模型爆发后面临的新技术通病

多位业内人士曾表示,短期来看,虽然AI大模型涌现出了超乎想象的通用能力,为经济社会发展带来新机遇,但现阶段,大模型仍受到很多因素的制约,也产生了传播虚假信息、侵害个人信息权益、数据安全和偏见歧视等问题。因为大模型已经为学术研究甚至是社会生活带来了深刻的变革,以ChatGPT为代表,大模型的能力已经显示了迈向通用人工智能的可能性。但同时,大模型同样面临着新技术的两面性,在挑战方面,面临着数据和模型方面的安全隐患。

今年5月初,美国谷歌、微软、OpenAI等AI巨头就召开会议,以AI技术爆发背后隐藏的风险为主题展开了激烈的讨论。国内AI大模型技术也正在发展之中,但是同时也需要先对安全问题进行相应的分析以便双管齐下,避免生成式大模型这把双刃剑带来的隐藏危害。

如何统筹生成式人工智能发展和安全引起各方关注。

中国AI大模型「监管办法」来了

昨日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布《生成式人工智能服务管理暂行办法》(以下称《办法》),旨在促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益,既是促进生成式人工智能健康发展的重要要求,也是防范生成式人工智能服务风险的现实需要。

总结来说,智能技术飞速发展的今天,AI大模型的发展离不开安全,对人工智能的规制也不应限制技术,而是防止其野蛮生长,在尊重客观规律的基础上,探寻合理的监管与合规之策。因此其安全问题将作为下一个技术点,值得众多研究者去攻克。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值