Certora首席科学家Mooly Sagiv警告,大型语言模型生成的代码可能隐藏严重漏洞。此前已发生首起与AI相关的去中心化金融(DeFi)安全事件。
区块链安全公司Certora首席科学家Mooly Sagiv警告称,大型语言模型(LLM)编写的代码可能通过“悄然跳过困难部分”而导致严重漏洞。他的评论与近期的MoonwellDeFi事件有关,该事件被称为首起因AI生成代码引发的DeFi攻击。此案引发了业界对在去中心化金融开发中使用人工智能工具安全性的讨论,凸显出智能合约中潜在隐蔽缺陷的风险。