2025/05/30 09:00

はじめに:ChatGPTの光と影、そして中小製造業の皆様へ

ChatGPTは、業務効率を劇的に高める革新的なツールとして注目されていますが、その手軽さゆえに情報漏えい事故も発生しています。2023年には、韓国大手電機メーカーSamsungで開発中のソースコードがChatGPTに入力され、AIモデルの学習データに取り込まれた可能性が報じられました。「便利だがセキュリティが心配」と感じる経営者や担当者も多いでしょう。

特に三重県四日市市に拠点を置く中小製造業では、CAD図面や配合レシピといった秘匿性の高い重要データを扱っており、情報漏えいリスクは深刻です。さらに2023年には、10万件超のChatGPTユーザーアカウント情報がマルウェアで盗まれ、ダークウェブで不正取引されたことも確認されています。

被害を防ぐには、情報漏えい経路や社内ルール、運用方法を体系的に理解し、対策を講じることが不可欠です。本記事では、一般的なSaaS版ChatGPT利用を基本としつつ、API利用やローカルLLM導入といった選択肢も整理し、それぞれのメリット・デメリットを踏まえ、最適な情報セキュリティ対策の進め方を解説します。

この記事を読めば、プロンプト入力時のルール作りからIT部門の技術的防御策、全社的なセキュリティ意識向上まで、必要な知識と具体的ステップを網羅的に理解できます。また、Neo Cubeが提供する「Neo Cube AI導入支援コンサルティング」や研修プログラム「Neo Cube|AI教室」についても紹介します。生成AIを「安全かつ攻めに転じられる戦略的な武器」とするため、本記事をご活用ください。

ChatGPTセキュリティリスクの全体像:情報漏えいからジェイルブレイクまで、潜む脅威を理解する

ChatGPT活用時のセキュリティリスクは主に3つに分類されます。

1.  入力データのAIモデル学習・ログ記録による情報漏えいリスク
2.  アカウント認証情報(ID・パスワード等)の窃取リスク
3.  ジェイルブレイク攻撃(AIの倫理的・安全性の制約を不正に解除する試み)による不正利用リスク

これらのリスクは技術的脆弱性、人的ミス、外部攻撃者が絡み合い発生し、企業規模や業種を問わず起こり得ます。リスクの全体像を把握し、自社での潜在箇所を可視化することが対策の第一歩です。

📌 入力データに起因する情報漏えいリスク

ChatGPTに入力した顧客情報、開発中の製品情報、社外秘の経営戦略などの機密データが、AIモデルの学習データやサービス提供事業者のログに残り、第三者がアクセス可能になる危険性です。2023年のSamsung事例では、技術者が開発中のソースコードをChatGPTに入力し、社外秘情報がクラウド上に残存した可能性が指摘され、同社は一時的にChatGPTの業務利用を全面禁止しました。SaaS版ChatGPTでは、データが「モデル学習に利用されない」設定を明示的に行うか、プロンプト自体をフィルタリングしない限り、リスク排除は困難です。

📌 アカウント認証情報の窃取リスク

ChatGPTアカウントのIDやパスワードが盗まれるリスクも深刻です。2023年6月、サイバーセキュリティ企業Group-IBは、マルウェア「インフォスティーラー」により10万件超のChatGPTアカウント認証情報が不正収集され、ダークウェブで売買されたと報告しました。特にアジア太平洋地域での被害が多く、日本企業も例外ではありません。対策として、MFA(多要素認証)の全社的義務付け、ブラウザ隔離環境の導入、DLP(情報漏えい対策)ゲートウェイ製品による通信監査などが不可欠となります。

📌 ジェイルブレイク攻撃によるAIモデル制御突破リスク

ジェイルブレイク攻撃は、AIの倫理的・安全的制約を意図的に突破する手法です。2024年には、プロンプト文脈を操作し安全機能を回避する「Context Fusion Attack」が発表されました。これにより、通常拒否される違法行為の手順や悪意のあるプログラムコード生成指示も、標準フィルターをすり抜けて実行可能と確認されています。攻撃者はAIに特定の役割を演じさせるなどで誤認させようとするため、単純なNGワードリストでは防御困難です。

📌 日本政府の動向と公的ガイドラインの重要性

生成AIを巡るリスクの高まりを受け、日本政府も対応を加速。個人情報保護委員会は2023年6月、生成AIサービス事業者に個人データ取り扱いに関する注意喚起を行い、個人情報保護法遵守、利用目的明確化、削除請求等への迅速な対応体制整備を求めました。経済産業省は2024年4月に「AI事業者ガイドライン Ver1.0」を公表し、AI導入・利用時のリスク評価手順、社内体制整備、従業員教育計画などの指針を示しています。これらの公的指針を参考に、自社ポリシーを策定することが安全活用の近道です。

リスク発生のメカニズム:技術・運用・外部環境の三側面から徹底解剖

生成AIのセキュリティ事故や情報漏えいは、「技術的要因」「運用的要因」「外部環境要因」が複雑に絡み合って発生します。SaaS版ChatGPT利用を念頭に、各要因のメカニズムと対策ポイントを整理します。

📌〈技術的要因〉モデル内部に残存するデータと“見えないログ”のリスク

SaaS版ChatGPT利用時、入力内容は処理のためベンダーサーバーへ転送され、AIモデルの学習データやログファイルに残存する可能性があります。「会話は記録されない」表示があっても、性能向上や障害解析目的で開発者が参照する場合がある点は重要です。対策として、API利用に切り替え、DLPゲートウェイ経由でのリクエスト限定やセキュアプロンプト技術導入でリスク低減が可能です。一方、オンプレミスLLM構築は高性能GPUサーバー調達やメンテナンスコストが増大するため、TCOと期待効果のバランス検証が重要です。

📌〈運用的要因〉“シャドーAI” の蔓延とBYOAI文化の落とし穴

従業員が個人端末やアカウントで無許可にChatGPTを利用する「シャドーAI」が横行すれば、企業のセキュリティは無力化します。BYOAI(個人利用AIの業務持込)が常態化すると、「社内ルール周知不足」「機密情報判断基準の曖昧さ」が深刻化し、セキュリティギャップが拡大します。2023年にはインフォスティーラー型マルウェアによるChatGPTアカウント情報流出元の多くが個人端末だったと報告されています。対策には、MFA利用徹底、MDM(モバイル端末管理システム)導入、ブラウザ隔離技術活用など、人とデバイス両面からの統制が必要です。

📌〈外部環境要因〉攻撃手法の巧妙化とアタックサーフェス(攻撃対象領域)の拡大

生成AI技術の普及に伴い、サイバー攻撃者の関心も高まっています。ジェイルブレイク用プロンプトキットや盗難アカウント情報がダークウェブで売買されています。2024年には、会話文脈を悪用し安全機能を無力化する「Contextual Compliance Attack」(CCA)が発表され、従来のNGワードフィルタリングでは回避される危険性が示されました。AIモデルの大規模化・多機能化に伴い攻撃は高度化・巧妙化し、「攻撃技術の進化に防御が追いつかない」構図が鮮明です。

📌〈ガバナンス〉公的指針を遵守し、実効性のある社内体制を構築する

複合的リスク対応には技術対策だけでなく組織全体のガバナンス体制確立が重要です。日本の個人情報保護委員会は2023年6月、生成AI事業者にユーザーからの個人データ削除請求等への即応体制整備を求める行政指導を行いました。経済産業省は2024年4月「AI事業者ガイドライン Ver1.0」を公表し、リスク評価から従業員教育計画策定までの実践項目を提示。企業はこれらをベースラインとし、自社のデータ種類や業務プロセスに応じたデータガバナンス体制構築とアタックサーフェス最小化施策を計画的にマッピングし、SaaS版、API利用、オンプレミスLLMから最適な組み合わせを選定すべきです。

これらの要因を総合的に理解し、バランスの取れた対策を講じることが安全なAI活用の鍵です。

実例から学ぶ:Samsung情報漏えい事件と最新ジェイルブレイク研究の教訓

ChatGPTを巡るセキュリティインシデントは現実の脅威であり、国内外の事例から学ぶことが重要です。

📌 Samsungにおける機密情報漏えい事件

2023年3月、Samsungの技術者が開発中のプログラムソースコードや社内会議の音声認識文字起こしデータをSaaS版ChatGPTに入力し、機密データが外部AIサーバーに送信・残存した可能性が報じられました。Samsungは即日全従業員にChatGPT業務利用を禁止し、再開後も入力文字数を厳しく制限しました。この事例は、情報セキュリティ対策を怠れば大企業でも機密情報が流出するリスクを示しています。

📌 インフォスティーラーによるChatGPTアカウント大量流出

AIサービスのアカウント情報自体が盗まれるケースも深刻です。2023年6月、Group-IBはインフォスティーラー型マルウェアにより10万件超のChatGPTアカウント認証情報が不正収集され、ダークウェブで売買されたと発表しました。被害端末の約40%がアジア太平洋地域に集中し、日本企業の従業員PCも含まれたと報告されています。会社が許可しない「シャドーAI」利用が、管理困難で狙われやすい攻撃面となります。

📌 進化するジェイルブレイク攻撃とその脅威

AI技術の高度化に伴い、ジェイルブレイク攻撃も進化・巧妙化しています。2025年3月公開の学術論文では、複数回のやり取りの文脈を操作し攻撃者の意図をAIに注入する「Contextual Fusion Attack」が提案されました。この手法は従来の安全フィルターを高確率でバイパスし、不適切コンテンツを生成可能と実証。論文著者は「従来のNGワードリストによるブロッキングは効果が薄い」とし、AIモデル設計段階からの多層防御を推奨しています。海外ITニュースサイトTechRadarは同年5月、ユーザーが演劇台本形式で指示し、AIの倫理フィルターを回避して禁止情報を引き出した事例を報道。専門知識がなくてもジェイルブレイク攻撃を比較的容易に再現できる危険性を示しています。

📌 四日市市内製造業におけるリスクシナリオ

四日市市内の製造業A社が、新製品設計効率化のためCAD図面データをSaaS版ChatGPTにアップロードした場合、従業員アカウント情報がマルウェアで窃取されれば、CADデータごと外部流出し模倣品製造や技術ノウハウ漏えいに繋がり、取引先との信頼を失墜する可能性があります。

Samsung事件やアカウント情報流出事例が示す通り、「機密情報を不用意に入力しないルールと仕組み」「認証情報が盗まれない堅牢な端末管理とアクセス制御」「AIモデル制約が不正突破されない高度なフィルタリング技術」という三重のセキュリティガードが不可欠です。

中小企業が今すぐ取り組むべき具体的セキュリティ対策:ガイドライン策定・技術的防御・人材教育の三本柱

ChatGPTを安全かつ効果的に活用するには、「社内ルールの整備(ガイドライン)」「技術的なセキュリティ対策」「従業員への教育(人材育成)」の三位一体アプローチが不可欠です。SaaS版ChatGPT利用を前提としつつ、API連携やローカルLLM導入など、段階的なステップアップも視野に入れた施策を解説します。

📌【ルール】社内ガイドラインを最速で整備し、利用基準を明確化する

まず、生成AI利用に関する社内ガイドラインを策定します。「入力禁止の機密情報・個人情報一覧」「業務目的外私的利用禁止」「生成内容のファクトチェック義務」「利用状況ログの閲覧権限・管理手順」などを明文化し、全従業員に周知徹底します。
個人情報保護委員会は2023年6月、OpenAI社に対し日本の個人情報保護法適用を伝え、適正な取り扱いと削除請求等への迅速な対応体制整備を求める行政指導を行いました。経済産業省は2024年4月「AIビジネスガイドライン Ver1.0」を発表し、リスク評価方法や従業員教育計画策定のチェックリスト等を提示。これらを参考に自社ガイドラインを具体化し、実効性の高いポリシーを構築します。

📌【技術】技術的防御策を導入し、システム的な “抜け穴” を塞ぐ

SaaS版ChatGPT利用では、SASEやCASBを導入し通信経路を可視化・監視することが第一歩です。DLPゲートウェイを設置し、送信データ内の機密語句を自動検知しマスキングやブロックを行う構成が推奨されます。セキュリティレベルを高めるには、Azure Private LinkやAWS VPCエンドポイント経由でChatGPT APIにアクセスする方法も有効で、通信盗聴リスクを大幅低減できます。API利用ならプロンプトフィルタリングロジックの独自開発も可能です。米国CISA中心の官民連携組織JCDCも2025年1月「AI Cybersecurity Collaboration Playbook」で多層防御戦略とインシデント対応のための脅威情報・ログデータ共有体制の必要性を強調しています。

📌【技術・選択肢】機密性の高いデータは “ローカルLLM” の導入も検討

設計図面や個人医療データなど極めて機密性の高い情報には、SaaS版でなく、自社管理オンプレミス環境のGPUサーバーにLlama 3やMistralといったOSSのLLMを導入・運用する「ローカルLLM」も有効です。AIモデルとデータ処理を社内隔離ネットワーク内で完結でき、外部サーバーへのデータ残存リスクを最小限に抑えられます。ただし、高性能GPUサーバー初期投資や運用管理の人的・金銭的負担が大きいため、TCOと期待効果から十分な事前検証(PoC)が不可欠です。Microsoft Azure OpenAI ServiceのPrivate Link機能やAWS BedrockをVPC経由で利用する「ハイブリッド型」構成も注目されており、クラウド事業者の高性能AIモデルと閉域網によるセキュリティコントロールを両立できる可能性があります。

📌【人】人材教育とリテラシー向上で “最後の砦” を強化する

高度な技術対策や厳格なルールも、従業員のセキュリティ意識が低くシャドーAIを利用すれば無意味です。情報セキュリティ対策では「人」が最も重要な「最後の砦」であることを組織全体で認識すべきです。
Neo Cube提供の「Neo Cube|AI教室」では、プロンプト入力NGパターン解説やMFA設定必須化など、ヒューマンエラーリスクを低減する実践的知識とスキルに特化した研修を提供しています。これらと並行し、社内ガイドライン策定支援や技術対策導入を専門家が伴走支援する「Neo Cube AI導入支援コンサルティング」を利用すれば、ルール・技術・人の三側面から組織全体のセキュリティ体制の“抜け穴”を効果的に塞げます。

まとめ:ChatGPTのリスクを管理し、攻めのDXを実現するために

ChatGPTなど生成AIの利便性とセキュリティリスクは表裏一体です。入力データのAIモデルへの残存・学習リスク、アカウント認証情報の流出リスク、ジェイルブレイク攻撃による不正利用リスクという三大脅威は現時点では完全にはゼロにできません。しかし、

1.  【ルール】明確な社内ガイドラインを策定し、機密情報を “入れない” 仕組みを構築する
2.  【技術】多層的な技術的防御策を導入し、情報を “盗らせない” 環境を整備する
3.  【人】全従業員に対する継続的な教育を実施し、人的ミスで “誤らない” 組織文化を醸成する

という「三重のセキュリティガード」を確実に敷設・運用することで、インシデント発生確率を大幅に下げ、影響も最小限に抑えられます。

具体的な導入ステップとして、まずSaaS版ChatGPT利用とDLPゲートウェイ導入といった最小構成から始め、社内利用状況や潜在リスクを「可視化」するのが現実的です。その上で、データの機微性やセキュリティ要件に応じて、API経由閉域網利用やローカルLLM導入へと段階的にセキュリティレベルを上げるアプローチを推奨します。

社内ガイドライン策定、ログ設計、技術的対策選定に不安があれば、Neo Cubeの「Neo Cube AI導入支援コンサルティング」が初期要件定義から本格導入・運用体制構築まで伴走します。

情報セキュリティ対策における「人」の重要性も忘れてはなりません。「Neo Cube|AI教室」では、生成AIを安全かつ効果的にビジネス活用する知識とスキルを習得できる研修を、四日市市内対面開催や全国オンラインで提供しています。社内の誰もが安心してChatGPTのメリットを享受できるリテラシー環境を整備し、全社的な生産性向上と競争力獲得への第一歩を踏み出しましょう。

生成AIのリスクを恐れる時代は終わりました。適切な「守り」の仕組みを組織全体で体系的に整え、リスクをコントロールできれば、生成AIをビジネス成長加速の「攻め」の戦略に活用できます。

Neo Cubeと共に、安心・安全なAI活用の未来を今日から始めませんか。

貴社のAI活用をサポートします: