翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
最新の LLMs への迅速なインジェクション攻撃を回避するための迅速なエンジニアリングのベストプラクティス
Ivan Cui、Andrei Ivanovic、Samantha Stuart、Amazon Web Services (AWS)
2024 年 3 月 (ドキュメント履歴 )
エンタープライズ IT 環境での大規模言語モデル (LLMsの拡散は、セキュリティ、責任ある人工知能 (AI)、プライバシー、プロンプトエンジニアリングに新たな課題と機会をもたらします。出力のバイアス、プライバシー違反、セキュリティの脆弱性など、LLM の使用に関連するリスクを軽減する必要があります。これらの課題に対処するには、組織は LLMs の使用が責任ある AI のより広範な原則と一致し、セキュリティとプライバシーを優先するように事前に確認する必要があります。
組織が LLMs を使用する場合、適用される規制コンプライアンスと同様に、LLM デプロイのセキュリティを強化するための目標を定義し、対策を実装する必要があります。これには、堅牢な認証メカニズム、暗号化プロトコル、最適化されたプロンプト設計をデプロイしてプロンプトインジェクションの試行を特定して対処することが含まれます。これにより、セキュリティに関する AI 生成の出力の信頼性が向上します。
LLM の責任ある使用の中心は、プロンプトエンジニアリングとプロンプトインジェクション攻撃の軽減です。これは、セキュリティ、プライバシー、および倫理的 AI プラクティスを維持する上で重要な役割を果たします。プロンプトインジェクション攻撃には、バイアスや有害な結果をもたらすことを目的とした、LLM 出力に影響を与えるプロンプトの操作が含まれます。LLM デプロイを保護するだけでなく、組織はプロンプトエンジニアリングの原則を AI 開発プロセスに統合して、迅速なインジェクションの脆弱性を軽減する必要があります。
このガイドでは、プロンプトエンジニアリングおよびプロンプトインジェクション攻撃を軽減するためのセキュリティガードレールの概要を説明します。これらのガードレールは、さまざまなモデルプロバイダーやプロンプトテンプレートと互換性がありますが、特定のモデルには追加のカスタマイズが必要です。
ターゲットを絞ったビジネス成果
-
LLM を使用した検索拡張生成 (RAG) アプリケーションのプロンプトレベルのセキュリティを、さまざまな一般的な攻撃パターンに対して大幅に改善し、悪意のあるクエリでは高い精度を維持します。
-
プロンプトテンプレートで短時間でも効果的なガードレールを少数採用することで、推論のコストを削減します。これらのガードレールは、さまざまなモデルプロバイダーやプロンプトテンプレートと互換性がありますが、追加のモデル固有の調整が必要です。
-
生成 AI ベースのソリューションの使用に、より高い信頼と信頼性を注入します。
-
システムオペレーションを中断することなく維持し、セキュリティイベントによるダウンタイムのリスクを軽減します。
-
社内のデータサイエンティストとプロンプトエンジニアが責任ある AI プラクティスを維持できるようにします。