近年、大規模言語モデル(LLM)の実用化において、外部知識を参照する**RAG(検索拡張生成)**は不可欠な技術となりました。しかし、その「外部知識を参照する」という仕組み自体が、新たなセキュリティホールになることが明らかになっています。
2024年に発表され、トップクラスのセキュリティ会議 USENIX Security 2025 に採択された論文 『PoisonedRAG: Knowledge Corruption Attacks to Retrieval-Augmented Generation of Large Language Models』 は、RAGシステムに対する「知識汚染(データポイズニング)」の脆弱性を体系的に指摘した極めて重要な研究です。
