Moonwell DeFi不正利用を受け、Certora幹部がAIリスクを警告

Certoraの主任科学者ムーリー・サギブは、初のAI関連DeFi(分散型金融)セキュリティ侵害を受け、大規模言語モデルが生成するコードには重大な脆弱性が潜む可能性があると警告した。

要約

ブロックチェーンセキュリティ企業Certoraの主任科学者ムーリー・サギブは、大規模言語モデル(LLM)が作成したコードが「難しい部分を密かに飛ばす」ことで深刻な脆弱性を生む恐れがあると警告した。彼の発言は、AI生成コードが関係した初のDeFi(分散型金融)不正利用事件とされる最近のMoonwellDeFi事案を受けたものである。この事件は、分散型金融開発における人工知能ツールの安全性について議論を呼び、スマートコントラクト内で見過ごされる欠陥の潜在的リスクを浮き彫りにした。

用語解説
  • DeFi (Decentralized Finance): 仲介者を介さず、融資や取引などのサービスを提供するブロックチェーンベースの金融システム。
  • LLM (Large Language Model): 膨大なテキストデータで学習された高度な人工知能モデルであり、コードや自然言語の生成・補完が可能である。
  • Smart contract: 仲介者を介さずに契約条件を自動的に実行するブロックチェーンコードである。