FineArt News

情報セキュリティを考慮してChatGPTの使用は慎重に

ChatGPTはもともと善意を持って人々を助けるために設計された言語モデルです。一見素晴らしいアイデアに見えますが、しかしながらAIの発展は、人間の認知メカニズムを模倣することを目指しており、道徳的な審査メカニズムは存在しません。そのため、悪人に対してもネット犯罪者に対しても同様のサービスを提供します。したがって、意図的に誤用されたり、意図せずに悪意な内容が生成されたりして、ビジネスやデータにとっては潜在的な脅威となる可能性があります。

以下でChatGPTを企業の業務に活用する際、データセキュリティへの脅威とは何か?企業が自己保護を行うにはどうすべきかを紹介します。

ChatGPTは、日常的な業務運営において非常に優れたツールです。メールの返信からデータ分析、より複雑なタスクの処理まで、幅広い用途に活用できます。ChatGPTを使用して企業のためのチャットボットを作成したり、大量のデータを整理したりすることも簡単にできます。人力で数時間かかるタスクでもAIなら1分未満で完了できるかもしれません。ここまで読んで、この記事がAIによって書かれたものではないかと疑い始めているかもしれません。

会社の財務情報などの分析にAIを使用する場合はたしかに時間の節約として魅力的かもしれませんが、そのうち、逆効果になる可能性もあります。

データ漏洩の影響が他のツールよりも見落とされやすい

今までは外部攻撃手法、情報漏洩の防止、APT(高度な持続的脅威)、内部脅威などのテーマについて議論してきました。フィッシングやソーシャルエンジニアリング・横のつながり・ネットワークリサーチなどを通じて内部の認証情報を入手し、さらにデータを窃取したり破壊したりするリスクは恐れられてきました。これらの手法は大規模で技術的に巧妙な手法であり、検出の回避に最大限の力を入れています。これをChatGPTに置き換えて見ると、同じ情報漏洩にも関わらず、ユーザが積極的に自身のデータを提供しています。これはChatGPTが歴代で最も急速に成長しているアプリケーションの1つであることからも証明されています。これらのデータは当然他者への回答として活用されます。ChatGPTは、ユーザの対話から学習する深層学習モデルです。会話内容は当然ChatGPTと使用者の間に留まりません。

情報は生成型AIプラットフォームに永久に存在し、生成するための情報として活用される

現実として、ChatGPTの情報漏洩は容易に起こり得ることです。サムスンの調査結果で示しましたが、AIとChatGPTへの過度な依存が、データセキュリティの重要な検討手段であるコンテンツ審査メカニズムや認証を無視する原因となる可能性があります。

最近の報道によると、同社の半導体グループのエンジニアグループは、開発中の新機能を効率化させるために、ソースコードをChatGPTに入力していました。これ自体は開発者の間では普通の手法のようにも見えますし、一部のコードを開発コミュニティに投稿して新しい機能の効率と有効性を検証することは一般的です。しかし、ChatGPTや他の生成型AIツールは、入力データを保持してトレーニングに活用するため、入力されたコードは他ユーザへの回答生成にも使用されます。この仕組みを悪用したセキュリティホールの発見や競合による産業スパイ行為が行わる可能性は決して小さくありません。

注意すべきことは、オリジナルコードだけではありません。別のケースでは、組織の幹部がChatGPTを使用して内部会議のメモをプレゼンテーションファイルに変換しました。もし競合他社の野心的な幹部がChatGPTでこの組織のビジネス戦略に関する質問を意図的に投げかける場合、これらの内部会議の情報は返答を作成するために使用される可能性があります。つまり内部情報が漏洩する可能性があります。

既存の保護ツールには限界がある

残念ながら、既存のデータ漏洩防止(DLP)・クラウドアクセスセキュリティブローカー(CASB)および他の内部脅威対策ソリューションは、この新しいテクノロジーと通常のウェブサーフィンを区別する能力を持っていません。これらのソリューションは、イベントの検出と対応という仕組みを採用しており、外部に転送される大量のトラフィックの中から関連するキーワードを検索します。キーワードは通常、セキュリティ専門家やデータ所有者によって考案する必要があり、すべてのコンテンツをカバーすることはほぼ不可能です。仮に情報漏洩を検出できたとしても、情報はすでにアップロードされて取り消すことはできません。

生成型AIプラットフォームやチャットボットには情報の入力時点でブロックする必要があります。しかし有用なツールが全く使用できないのでは意味がありません。例えば、コピー&ペースト自体を制限するなら、使用自体は可能になります。あるいは文字数の制限を設けるなども有効です。少なくともソースコードの貼り付け自体を防止できます。数千行のソースコードを手動で入力する人はさすがにいません。貼り付けの制限はAI使用時の注意を促す意味合いもあります。一番重要なのは、エンドポイントデバイスのブラウザからChatGPTや他の生成型AIプラットフォームとのインタラクションを制限することです。他のソリューションを活用する場合は、例えばイベントアクティビティログやブラウザログの有効化、条件付き録画などのセキュリティポリシーを適用することで、漏洩の制御と事後分析の解決策にサポートできます。最終防衛ラインはログという証拠になります。内部違反行為の調査では、意図を証明するための証拠が必要です。クリップボードのイベントやブラウザの接続ログを記録することで、十分な可視性と透明性および証拠力を提供し、ユーザが悪意のある行動をとっているのか単なる不注意か見分けるのに役立ちます。

結論として、既存の情報漏洩防止ツールは、クライアントブラウザの制御・コピー&ペースト(クリップボード)の制御・既存のテキストコンテンツの検出能力を強化することで、大規模なデータ漏洩を防ぐ最初の防御線として機能します。これにより、従業員には保護されているデータだと認識され、これらの革新的なAIツールを効果的に活用して生産性を向上させ、ビジネスのアジリティを高めることができます。