目次
- 結局どのAIを使えばいいのか
- 3つのAIを比較する
- オプトアウトしても残るリスク
- ポリシーは頻繁に変わる
- 療法士が取るべき現実的な対策
- AI利用前の3ステップ確認
- 組織に申請するなら
- もし入力してしまったら
結局どのAIを使えばいいのか
前回の記事で、AIに患者情報を入力することのリスクを解説しました。では、結局どのAIを使えばいいのか。
結論から言うと、どのAIを選んでも「患者情報を入力しない」という原則は変わりません。ただし、サービスごとにデータの扱いが異なるのは事実です。現状を正しく理解した上で、自分の使い方に合った選択をしてください。
3つのAIを比較する
ChatGPT・Gemini・Claudeのデータ利用ポリシーを比較します。なお、各社のポリシーは随時更新されるため、最新情報は公式ヘルプを確認してください。
⇆ 横にスワイプして比較を確認できます
ChatGPTOpenAI
個人向けは学習利用あり
無料版・Plus版ともに、設定を変えなければ学習に使用される可能性あり
ビジネス版:Enterprise/Businessはデフォルトで学習に使用されない
設定変更でオプトアウト可能
GeminiGoogle
無料版は学習利用あり
18歳以上はKeep Activityがデフォルトでオン。人間レビュアーが一部確認する場合あり
Workspace版:管理者設定により学習利用が制限される場合あり
設定変更でオプトアウト可能(ただし機能制限あり)
ClaudeAnthropic
ユーザーが選択
2025年8月にポリシー変更。新規はサインアップ時、既存は通知で選択を求められる
ビジネス版:Claude for Workは別ポリシー
許可した場合のみ学習に使用
ChatGPTの注意点
ChatGPTは個人向けプラン(無料・Plus・Pro)の場合、設定を変更しなければ会話内容がモデル改善に使用される可能性があります。月額20ドルのPlus版でも同様です。
オプトアウトは可能ですが、設定画面から手動で切る必要があります。詳細はOpenAIの公式ヘルプを参照してください。Enterprise版やBusiness版は、デフォルトで学習に使用されません。
Geminiの注意点
Geminiの個人向け無料版は、18歳以上の場合「Keep Activity」がデフォルトでオンになっています。この設定では、会話内容がサービス改善や生成AIモデルの訓練に使用される可能性があり、人間のレビュアーが一部の内容を確認する場合もあります。
Keep Activityをオフにすることは可能ですが、その場合一部のConnected Apps機能が使えなくなります。詳細はGoogleの公式ヘルプを参照してください。Google Workspace経由で提供されるGeminiは、管理者設定により学習利用が制限される場合があります。
Claudeの注意点
Claudeは2025年8月にポリシーが変更されました。以前は消費者向けでも原則として学習に使用されない運用でしたが、現在はユーザーに選択を求める形式になっています。
許可しなければ学習には使用されませんが、選択は必須です。詳細はAnthropicの公式ヘルプを参照してください。
オプトアウトしても残るリスク
ここで重要な注意点があります。オプトアウト設定をしても、完全にリスクがなくなるわけではありません。
一時保存は残る
ChatGPTのTemporary Chat機能を使っても、安全目的で最大30日間は会話が保存されます。この期間中、運用上レビュー対象になり得ます。
GeminiもKeep Activityをオフにしても、サービス提供のために最長72時間は一時保存されます。また、人間のレビュアーが確認したチャットは、削除しても最大3年間保持される場合があります。
第三者提供の問題は残る
前回の記事で解説した通り、学習に使われるかどうかとは別に、外部サービスへの入力自体が「第三者提供」に該当する可能性があります。この問題は、どの設定を選んでも解消されません。
つまり、オプトアウトは「学習利用されるリスクを下げる」手段であって、「患者情報を入力していい」という許可ではないのです。
ポリシーは頻繁に変わる
ここまで各サービスのポリシーを比較してきましたが、ひとつ覚えておいてほしいことがあります。これらのポリシーは頻繁に変わるということです。
AI企業の変更履歴
Anthropicは2025年8月に方針を大きく転換しました。それまで「消費者向けでも原則として学習に使用しない」としていたのが、ユーザーに選択を求める形式に変わった。Google Geminiも2025年7月にアプリ連携時のプライバシー設定を変更しています。OpenAIは2023年にオプトアウト設定を導入し、その後もNYT訴訟への対応など、年に複数回の更新が行われています。
つまり、AI企業のポリシーは半年〜1年で大きく変わる可能性があります。
日本のガイドラインも更新される
厚労省の「医療情報システムの安全管理に関するガイドライン」は、第5.1版(2021年1月)→ 第5.2版(2022年3月)→ 第6.0版(2023年5月)と、1〜2年ごとに改訂されています。経産省・総務省のガイドラインも同様のペースです。HAIPガイドラインは2024年に第1版、2025年7月に第2版が出ています。
半年ごとの確認を習慣に
今日時点で正しい情報が、半年後には古くなっている可能性があります。組織でAIを利用する場合は、少なくとも半年に一度、利用中のサービスのポリシー変更と、関連ガイドラインの改訂状況を確認してください。記事末尾のExcelテンプレートには定期チェック用のシートも含まれています。
●この先の内容
次のセクションでは、療法士がAIを安全に使うための5つの現実的な対策と、毎回の入力前に確認すべき3ステップを解説しています。さらに、組織への申請方法と、HAIPガイドライン準拠の申請書テンプレート(Excel・Word)を無料でダウンロードできます。
療法士が取るべき現実的な対策
ここまで読んで「じゃあAIは使えないのか」と思うかもしれません。そうではありません。使い方を限定すれば、リスクを抑えながら活用できます。






