新技术和创新,虽然令人兴奋,但往往伴随着风险。以消费银行业为例,曾经是专属的线下交易如今变成了数字化交易。这种演进带来了便利,但也带来了威胁。在线银行并不等同于“网上冲浪”。需要采用不同的协议和更强大的安全措施,如双因素认证。没有这些保护措施,在线银行将无法成为可行的选择。同样,生成式人工智能也是如此。
生成式人工智能的受欢迎程度在短时间内飙升,正在被初创企业和成熟组织迅速接受。与任何新技术一样,很多情况下风险在事后被发现,即在发生安全漏洞或事故之后。我们在各行业,如银行业中见到了这种情况。
由于我们不能忽视或终止生成式人工智能的使用和采用,因此我们必须了解并预见它的风险。其中一个风险是其令人印象深刻的模仿人类的能力。另一个风险是其潜在的扩展网络攻击的能力。如果忽视不顾,生成式人工智能可能会在网络安全领域对各行业产生重大的负面影响。
人类还是机器?
一个明显的威胁是生成式人工智能的自然语言处理能力越来越复杂。人工智能可以模仿人类的语言风格和语言习惯,以冒充人类或组织。在将来,区分人类和机器将变得越来越困难。有些人声称人工智能已经可以通过图灵测试。这在考虑到人为因素在网络攻击中的重要作用时,尤其令人担忧,据维理(Verizon)的数据泄露调查报告(DBIR)所述。
威胁行为者可能会利用生成式人工智能通过社交工程来利用人们——社交工程是一系列恶意活动,通过心理手段来欺骗人们,使他们泄露敏感的组织信息。生成式人工智能正在不断发展其自然语言处理能力,这在简化社交工程尝试中非常有效。这还将使黑客能够尝试以其非母语的语言进行网络攻击,因为人工智能将能够将语言转化为看起来像母语人士的形式。
这种威胁在不断发展的工作场所模式下被进一步放大,这使得管理登录凭证变得更加复杂,因为员工在工作和家庭之