人工智能可以像人类一样编写代码——但是一样有错误,帮助开发人员编写软件的新工具也会产生类似的错误。
一些软件开发人员现在让人工智能 帮助编写他们的代码。 他们发现人工智能和人类一样有缺陷。
去年 6 月, GitHub 子公司 的微软 提供托管和协作代码工具 发布 了一个使用 AI 协助程序员的程序的测试版。 开始输入命令、数据库查询或对 API 的请求,名为 Copilot 的程序将猜测您的意图并编写其余部分。
注册测试 Copilot 的生物技术公司的数据科学家Alex Naka 表示,该程序非常有用,并且改变了他的工作方式。 “它让我花更少的时间跳转到浏览器来查找 API 文档或 Stack Overflow 上的示例,”他说。 “确实感觉有点像我的工作已经从代码生成器转变为代码的鉴别器。”
但 Naka 发现错误会以不同的方式潜入他的代码中。 “有时候,当我接受它的一个提议时,我会错过一些微妙的错误,”他说。 “而且很难追查到这一点,也许是因为它似乎犯了与我会犯的错误不同的错误。”
AI 生成错误代码的风险可能高得惊人。 纽约大学的研究人员最近 分析了 Copilot 生成的代码 ,发现对于某些对安全性至关重要的任务,代码包含大约 40% 的安全漏洞。
说,这个数字“比我预期的要高一点” 布伦丹·多兰-加维特 参与分析的纽约大学教授 。 “但 Copilot 的训练方式实际上并不是编写好的代码——它只是生成符合给定提示的那种文本。”
尽管存在这些缺陷,Copilot