文章目录
前言
面对AI技术日新月异的发展态势和AI技术迅速发展的同时,监管、行业、企业等多方主体共同发现与面对AI技术于实践落实应用中的具体挑战与难题,基于实践需求一同致力于完善更为精细化、差异化的指导原则与规范体系。
此举不仅可以为监管机构提供一个倾听行业实际需求的窗口,促进政策制定的科学性与针对性;同时,也对企业探索AI技术的无限可能提供了正向引导,从而激励整个AI行业以更加安全、负责任且对社会福祉产生积极影响的方式,设计并部署AI技术,从而为实现AI技术的可持续发展与广泛应用奠定坚实基础。
一、AI大模型训练数据合规
以高风险AI系统提供者的合规义务为例,AI法案主要就高风险AI系统提出涵盖全生命周期的监管机制。例如,在将高风险AI系统投放市场前,提供者应当开展数据治理活动,数据治理应涵盖数据的选择、收集、预处理例如标记、清洗等多方面。同时,数据治理还包括对数据集可能存在的偏见进行审查;如存在可能影响自然人基本权利的偏见,应当采取合理措施以减少相关偏见。在选择数据集时,尤其应当注意有关训练数据的数据权益争议问题,当使用涉及他人版权或知识产权的数据以及可能涉及个人信息的数据作为数据源时,如何保证训练数据的真实性与准确性是出海企业需要考量的问题之一。对此,《生成式人工智能服务管理暂行办法》(以下简称“《AIGC暂行办法》”)及配套的《生成式人工智能预训练和优化训练数据安全规范》标准文件对数据治理同样提出了一系列义务,包括使用具有