让AI与安全同行:中国AI大模型「监管办法」发布

随着Chat-GPT的火爆,AI大模型成为人工智能领域的新的发展方向和研究领域。国内AI大模型也如雨后春笋般涌现,一时间内形成了百家争鸣百花齐放的发展态势。

在国外,诸如OpenAI和Anthropic等初创企业,以及微软和谷歌等科技巨头,一同引领美国奋勇向前,在AI大模型的领域不断迈进。同时,在中国,美团的王慧文、阿里巴巴的贾扬清、前搜狗的CEO王小川,以及前京东的AI掌门人周伯文等众多已经取得辉煌成就的科技大咖再度崭露头角。

在此之外,京东在2月10日宣布研发产业版ChatGPT—ChatJD,网易、360、字节跳动等也宣布了在AI大模型方面的布局。另外还有一些AI科技公司不断开发自己的垂直大模型,像实在智能近期发布的TARS垂直大模型,也可圈可点。

实在TARS垂直大模型可以通过快速学习垂直行业的大量数据,可具备思维链、情景学习等能力,可与人类进行对话并执行指令;支持私有化部署和定制化训练,确保数据和信息安全,为客户提供"有效、安全、可信任、可落地”的“大模型+”行业解决方案;与实在RPA结合,支持以“所说即所得”方式自动生成数字员工;与实在Chatbot结合,支持人机协同对话功能;与实在IDP结合,支持“所说即所懂”的智能文档处理能力。

安全矛与盾:大模型的两面性。任何一项新技术的问世,必然会有风险的一面,正如小树需要修剪枝桠,新技术的出现也需要相关条例进行规制。

中国AI大模型「监管办法」来了

此前的4月11日,国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》,目的是为促进生成式人工智能健康发展和规范应用,其中第七条涉及到生成式人工智能服务提供者数据来源的合法性问题引起国内业界和学界的关注。

7月13日,网信部消息称,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布了《生成式人工智能服务管理暂行办法》(以下简称「办法」)。

其中,《办法》明确生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动,使用具有合法来源的数据和基础模型;涉及知识产权的,不得侵害他人依法享有的知识产权;涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。此外,明确了数据标注的相关要求。

AI安全监管“实”在必行

实在智能积极响应国家互联网信息办公室发布的“关于《生成式人工智能服务管理办法(征求意见稿)》”,在TARS大模型中叠加了多项自然语言处理前沿技术。如:模型的不当言论判别,从而进一步增强了模型的生成效果和安全性。

安全技术要和AI大模型自身的智能技术同步进行,才能有效保障人工智能更可靠、更安全地服务于企业。未来,大模型企业应促进安全产品和服务革新,根据AI大模型管理办法对自研大模型进行调整,不畏惧“矛”与“盾”的两面性,更可靠、更安全地服务于企业。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值