【パブコメ】総務省「AIのセキュリティ確保のための技術的対策に係るガイドライン」(案)に対して、意見を提出しました

一般社団法人 新経済連盟は2026年1月29日、総務省が実施した「AIのセキュリティ確保のための技術的対策に係るガイドライン(案)」のパブリックコメントに対して、意見を提出しました。
【提出意見概要】
1. ガイドラインの適時改訂と新技術への早期対応
AI技術の著しい発展に合わせ、本ガイドラインを定期的にアップデートし、産業界との連携を密にして有益な対策や事例を収集するべき。特に、広告制作で実用化されている画像生成AIや、実用化が検討されているAIエージェント(MCP活用)など、新たなテクノロジーに対応したセキュリティ指針を可能な限り早期に提示すべきである。
2. 学習データの信頼性確保の要件強化
案にある「学習データの信頼性確認は重要となる場合がある」という表現を、「不可欠な要素である」と修正し、全ての主体に重要性を明確に喚起すべき。データポイズニング等のリスクは甚大であり、特に社会インフラに関わるAIではその重要性が顕著である。あわせて、量子コンピュータによる暗号解読(PQC)等への新たな対策の言及も必要。
3. ガードレール運用における柔軟性の確保
セキュリティ優先のガードレールによって、広告特有の比喩や多様な表現が一律にブロックされることが懸念される。画一的な制限ではなく、用途に応じて強度や検証項目を柔軟に設定できる運用が望ましい。過去のハラスメント検出ツールでの誤検知事例のように、一律なブロックが正規のやり取りを阻害し、利用者の利便性を損なうリスクがある。
4. ログ保存とプライバシー保護のバランス
セキュリティ確保のためのログ全量保存は、従業員の思考プロセスや未公開アイディアを扱う際のプライバシー侵害や監視感につながる懸念がある。ログ保存が利用の阻害要因にならないよう、追跡可能性の確保と利用者の利便性・プライバシー保護のバランスについて、運用上の留意点をガイドラインに追記すべきである。
5. RAG等における情報の機密性に応じた分離指針
複数クライアントの機密情報を扱う場合を想定し、RAG等のデータストア管理における技術的対策の指針が必要。具体的には、論理的分離(タグ付け等)で十分か、物理的分離が必要か等、情報の機密性に応じた具体的な分離レベルを明確化すべである。これにより、事業者が安心してAIシステムを導入・運用できる環境が整う。
※提出意見の全文はこちらをご覧ください。
