《生成式人工智能服务安全基本要求》发布 夸克等企事业单位参与起草

全国网安委发布了关于生成式AI安全的基本要求,强调了安全可信的重要性。夸克作为参与企业,其大模型因注重安全而受到好评,特别是在数据安全和隐私保护方面。清华大学的研究也肯定了夸克大模型在安全合规和公正性上的表现。
摘要由CSDN通过智能技术生成

近日,全国网络安全标准化技术委员会正式发布《生成式人工智能服务安全基本要求》(以下简称“安全基本要求”),从语料安全、模型安全等多个维度规定了生成式人工智能服务在安全方面的基本要求,高校、研究机构、夸克代表的科技厂商等多方参与了文件起草。

据介绍,安全可信是生成式人工智能健康发展的必要条件,《安全基本要求》是《生成式人工智能服务管理暂行办法》在安全领域的具体支撑,也是近期生成式人工智能领域最重磅的一个文件,将推动行业进一步健康有序发展,应用加速落地。

全国网络安全标准化技术委员在去年10月发布《安全基本要求》征求意见稿后,得到了社会各界积极反馈。浙江大学、北京中关村实验室、阿里巴巴、科大讯飞等均参与了文件起草,其中夸克作为应用型大模型的代表公司之一,也贡献了自己的力量。

企业走在大模型应用最前线,也最应践行大模型安全保障。夸克于2023年11月发布亿级参数自研大模型,自推出伊始夸克便将安全性作为大模型产品的重要研发方向。据介绍,安全性是夸克大模型的四大能力之一,这体现在具备较好的世界观、价值观,对于明显的暗示信息,夸克大模型均能实现准确识别、正确回答或者给出合理指引。

夸克大模型在2023年12月通过备案后,不到100天时间内推出了四款大模型产品:元知、健康助手、AI讲题助手、AI PPT。夸克大模型产品备受消费者喜爱,一个重要原因是产品安全性提高了用户信任度。例如夸克健康助手发布后,用户对健康助手的回答满意度相当高,主要原因是夸克将医疗健康类问答内容幻觉率降低至5%,用户从体验上会发现夸克健康助手答案的正确性、逻辑性都比较高。

清华大学新闻与传播学院新媒体研究中心近日发布的《大语言模型综合性能评估报告》显示,夸克大模型在安全合规与公正性上展现出突出优势。报告指出夸克大模型在确保数据安全和遵守相关法规方面投入了相应的努力,并在设计和实现中对隐私保护和数据安全有较高的重视。

夸克大模型的安全能力,主要来自搜索场景中积累的丰富经验和能力。清华大学新闻学院教授、博士生导师沈阳指出,搜索引擎天然具有各种网络公开数据,在内容安全上经历了长时间的考验,用户也提供了大量的查询需求交互,因此搜索与大模型的结合是天然之配。

  • 8
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值