AI活用で一番大切な「安全性」の話
安全なAIと安全ではないAIの違いとは?
ChatGPTをはじめとするAIは非常に便利で、スタッフの業務負荷を減らし、サービスの質を向上させる大きなポテンシャルを秘めています。
一方で、AIを活用する上で絶対に避けては通れないのが「セキュリティ」の注意点です。今回は、AIを導入する際に最も大事な「安全なAIと、そうではないAI」の見分け方について解説します。
結論から言えば、それほど難しい話ではありません。「ほとんどの無料で使えるAIには、情報漏えいのリスクがある」ということだけ、まずは覚えておいてください。
なぜ「無料のAI」にはリスクがあるのか?
AIにとって、何よりも大切なのは「学習」です。 超ざっくり言うと、たくさん学習したAIほど賢くなり、多くの人に使われることで、開発メーカーは利益を上げることができます。
では、AIは何を教材にしているのでしょうか? ネット上のあらゆる情報や書籍などはもちろんですが、もうひとつ重要な情報源があります。それが、「ユーザーとの会話内容」です。
ユーザーとのやり取りを新たな学習データとして利用できれば、AIメーカーにとっては非常に価値があります。しかしここには、少なくとも理論上、情報漏えいの可能性があるのです。
具体的なリスクの例
たとえば、あなたの事業所のスタッフが、利用者のAさんについてAIに相談したとします。
「放課後等デイサービスXXのAさんが、今日パニックになって……どう対応すべき?」
もしAIがこの会話を学習してしまったら、全く別の誰かが同じAIと会話している最中に、AIが「放課後等デイサービスXXのAさんの例では……」と、あなたの事業所の情報を外部の人に伝えてしまう可能性がゼロではないのです。
実際にはそこまで単純な話ではありませんが、仕組みとして「その可能性がある」というのは事実です。
安全にAIを活用するための「2つの鉄則」
では、どうすれば安心・安全にAIを使えるのでしょうか。意識すべきポイントは2つだけです。
1. 信頼できる企業のAIを使う
現実的には、日本やアメリカの大手が提供するものならまず安心といえます。具体的には以下の3社が筆頭です。
- OpenAI(ChatGPTの運営)
- Google(Geminiの運営)
- Anthropic(Claudeの運営)
2. 「学習に使わない契約」で使う
ここが最大のポイントです。先ほど挙げたような企業のAIでは、「有料契約」であれば、ユーザーとのやり取りは学習に使わないという規約になっています。
逆に言えば、「無料枠」で使っている分については、まず間違いなく学習に使われる規約になっていると考えてください。
ルミナノートのAI機能が安全な理由
当然ながら、ルミナノートで提供しているAI機能はすべて、入力内容が学習に使われない設定になっていますのでご安心ください。
2026年3月現在、ルミナノートではGoogleの「Gemini API」を採用しています。利用規約の中には、以下の通り明記されています。
「Gemini API の有料枠などを含む本有料サービスを使用する場合、 Google は、使用者のプロンプト(関連するシステム指示、 キャッシュに保存されたコンテンツのほか、画像、動画、ドキュメントなどのファイル)または 回答をプロダクトの改善に使用することはありません。」 (出典:https://ai.google.dev/gemini-api/terms?hl=ja)
つまり、ルミナノートを通じてAIに相談した内容は、外部に漏れることも、AIの教材にされることもありません。
便利なツールだからこそ、正しい知識を持って「安全な環境」で活用することが、利用者様を守ることにもつながります。ルミナノートは、これからも安全第一で現場の業務効率化をサポートしていきます。