AI(LLM)により自動生成されるコードは脆弱?
下記の記事が出ている。
Popular LLMs Found to Produce Vulnerable Code by Default
infosecurity: 25 April, 2025
https://www.infosecurity-magazine.com/news/llms-vulnerable-code-default/
***
コンピュータプログラムではなく,明治大学の講義の中で実施している理解度テスト(小テストの一種)の回答の中に生成AIによって自動生成された文がそのまま貼り付けられている例がある。
ほぼ例外なく.内容的に評価すると,「質問に対する回答には全くなっていない」という意味で0点。デフォルトで(内容的に)脆弱とでも言うべきか・・・
いつも書くことだが,ダメなものを何万個学習しても,やはりダメなままだ。
真に良いものは存在しないか希少であり,希少である場合には学習可能な状態で流通していない知識であることが多いので,結局,生成AIは,まともな知識を学習する機会に非常に乏しく,良い知識を学習することができない以上,いつまでたっても超駄目システムから脱却できない。
たとえ何兆円をかけて開発しても,この状態から脱却することは不可能なことだ。
そもそも,理論と知識が全て完成されているという前提からスタートしているということだけで敗北が必至となる。現実には,まともな理論は滅多にないし,正しい知識を獲得できる機会はほとんどない。
コンピュータプログラムの場合も同じであり,非常に優れたコードを学習することはほぼ不可能なことなので,脆弱性だらけの「並レベル」のコードしか学習できず,従って,生成されるコードも(ほぼ常に)駄目コードになってしまうのだ。
| 固定リンク
コメント