企業の生成AI導入におけるセキュリティとガバナンスの課題
企業の生成AI導入におけるセキュリティとガバナンスの課題
OpenTextがPonemon Instituteと共同で実施した「AI、生成AI、およびエージェント型AIのリスク管理と価値の最適化」調査によると、企業の半数以上が生成AIを部分的または全面的に導入しているものの、セキュリティやガバナンスに関しては十分な対策が講じられていない実態が明らかになりました。これは、生成AIの急速な普及に伴い、適切なリスク管理のための基盤が整っていないことを示しています。
生成AI導入の現状と課題
調査結果によると、生成AIを導入している企業の52%がリスク管理のガバナンスが欠けているとしています。特にサイバーセキュリティという領域では、AIを完全に活用し、セキュリティリスクの評価ができる「AI成熟度」に達した企業はわずか5社に1社の割合にとどまっています。この成熟度の差は、専門家によれば、信頼性や長期的なビジネス価値を担保するためには解消すべき重要な課題となっています。
Muhi Majzoub氏は、「AIの導入は単にツールを導入することではなく、責任を持って使うことが重要」と強調しています。テクノロジーの進化に伴い、企業は可視化された運用を実現し、AIシステムがもたらす結果を信頼できる環境を整えていく必要があります。
AIセキュリティのギャップ
調査では、サイバーセキュリティ活動の充実度も示されています。実に79%の企業が、AIの成熟度に達していないことが明らかでした。AIに関連するリスク、特にバイアスや不正確さ、倫理的問題に対して適切に対応している企業は半数にも満たず(43%)この結果は、AIシステムが自律的に稼働し始めるなかで、企業が取り組むべき課題が山積していることを示しています。
回答者の62%は、AIのモデルやデータのバイアスを最小限に抑えることが難しいと回答。さらに58%がプロンプトや入力の誤解のリスクを挙げており、情報の信頼性に対する懸念が広がっていることも分かりました。
AIの信頼性と運用の透明性の重要性
AIの導入によって効率化が進む一方で、信頼性や説明可能性の欠如が組織の運用に影響を及ぼしています。51%の回答者は、AIが脅威を検出するスピードに課題があると認識し、さらにはデータ入力のエラーも有効性を阻害する要因として挙げているのが現実です。
このような背景から、A企業のセキュリティ対策としては、AIの自律性を高めるだけでは不十分であり、人間の監視やはっきりとしたガバナンス体制が求められています。AIを活用したシステムの透明性を確保し、リスクを最小限に抑えるためには、データやガバナンスの整備が不可欠です。
企業が求められる対応
OpenTextは、企業がAIを安全に拡大するためには、透明性と管理機能が組み込まれたAIの構築が求められると提言しています。具体的な施策としては、情報管理基盤の整備、ポリシーに基づくガバナンス、そして継続的な監視体制を設けることが大切です。
AIの利用が進む中で、企業は責任ある形でのイノベーションを行い、ビジネス価値を生み出す環境を構築する必要があります。適切なデータとセキュリティ対策を講じながら、今後のAIの進展に対応していく企業の役割がますます重要になっていくことでしょう。これにより、企業は生成AIを安全に運用し、持続可能なビジネスモデルへとつなげていくことが可能となります。