AI技術
プロンプトインジェクション
Prompt Injection
プロンプトインジェクション
プロンプトインジェクション(Prompt Injection)とは、LLMに対して意図しない動作をさせるために、入力テキストに特殊な指示を埋め込む攻撃手法。間接的プロンプトインジェクションでは、AIが参照するウェブページに悪意あるテキストを仕込み、AI検索結果を操作しようとするケースもある。LLMOの文脈では、自社コンテンツが悪用されないよう注意が必要であると同時に、不正なLLMO手法としてGoogleやAIプロバイダーが取り締まる対象でもある。
背景と成り立ち
LLMの普及に伴い2022年頃から注目された脆弱性。OpenAI、Google、Anthropicなどが対策を強化しているが、完全な防止は困難とされる。AI検索エンジンがウェブをクロールする際のリスクとしても研究が進んでいる。
実務での活用
LLMO施策として、AI向けにコンテンツを最適化する際は、プロンプトインジェクションと疑われるような隠しテキストや不自然な指示文をページに含めないこと。そのような手法はペナルティの対象となる。正当な構造化データと良質なコンテンツで対応するのが正道。