無料トライアル募集中!音声AI支援記録アプリ「AI支援さん」 サービス資料はこちら

【要注意】ChatGPTで個別支援計画を作ると、個人情報保護法違反に問われるおそれがあることをご存じですか?

「個別支援計画の文章づくりが大変で、ついChatGPTにコピペしてしまった」
そんな経験はありませんか。

実はその使い方は、個人情報保護法や自治体の条例に抵触するおそれが高いとされています。
特に、障害名や生活歴などをそのまま入力すると、重大な個人情報漏えいリスクになります。

この記事では、なぜ「ChatGPTで個別支援計画を作ること」が危ないのかを、法律の考え方を踏まえて分かりやすく整理します。

【この記事で分かること】

  • 個別支援計画が扱う「個人情報・要配慮個人情報」とは何か
  • ChatGPTに入力すると、なぜ個人情報保護法違反になりうるのか
  • 実際にどこからがアウトなのか(具体例とグレーゾーン)
  • それでもAIを使いたいときの、安全に近づくための工夫

※本記事は一般的な解説です。
最終的な法的判断は、弁護士や自治体の担当窓口など専門家にご相談ください。

目次

なぜChatGPTで個別支援計画を作るのは危ないのか

現場の「しんどさ」から、つい使いたくなる

個別支援計画の作成は、時間もエネルギーもかかります。
支援記録を読み込み、アセスメントをまとめ、長期目標と短期目標を整理し、分かりやすい文章に直す。

人手不足の中で、
「文章のたたき台くらいなら、AIに作ってもらえないか」
と考えるのは、とても自然なことです。

ChatGPTが「便利そう」に見える理由

ChatGPTに、利用者さんの状況や目標を書き込むと、

  • きれいな文章に整えてくれる
  • 目標や支援内容の例を提案してくれる
  • 文章量を増やしたり、短くまとめてくれる

といったことが、数秒で行えます。
一度体験すると「もうこれなしには戻れない」と感じる人もいます。

でも見落とされがちな「法的リスク」

しかし、その便利さの裏側には
「個人情報を海外事業者に送っているかもしれない」
という大きなリスクがあります。

特に、ChatGPTのような生成AIサービスは、多くが海外企業によるクラウドサービスです。
利用者さんの情報を入力すると、それ自体が「第三者提供」に該当しうるとの指摘もあり、慎重な検討が必要です。

個別支援計画に含まれる個人情報・要配慮情報

個人情報保護法の基本的な考え方

個人情報保護法では、ざっくり言うと
「生きている個人に関する情報で、名前などにより特定の個人を識別できるもの」
を「個人情報」としています。

さらに、

  • 病気や障害に関する情報
  • 医療や福祉サービスの利用状況
  • 生活上の困難、虐待歴 など

人権侵害につながりやすい情報は「要配慮個人情報」として、より慎重な取り扱いが求められています。

個人情報保護委員会も、病歴や障害などに関する情報を「要配慮個人情報」の例として挙げています。

個別支援計画は「要配慮個人情報のかたまり」

個別支援計画には、次のような情報が含まれることが多いです。

  • 氏名、生年月日、住所、家族構成
  • 障害名、診断名、医療的ケアの内容
  • 行動上の特徴、問題行動の内容
  • 家族関係、生活歴、トラウマにつながりうる情報
  • 仕事や学校での評価、就労歴 など

これらは、単なる「メモ」ではなく、
法律上も重く扱われる「要配慮個人情報」を多く含みます。

つまり、個別支援計画は
「もっとも慎重に扱うべき情報の集まり」
だと考えた方が安全です。

福祉事業所が負っている義務

障害福祉サービス事業所は、個人情報保護法だけでなく、

  • 厚生労働省のガイドライン
  • 自治体の個人情報保護条例
  • 指定時の要綱や運営基準

などにより、利用者の個人情報を適切に管理するよう求められています。

厚生労働省も、社会保障分野における個人情報保護のガイドラインで、
事業所に対し「安全管理措置」を講じることを求めています。

そのため、
「職員が個人的に便利なツールとして使った」
という理由では、責任を免れない可能性があります。

ChatGPTへの入力は「第三者提供」になりうる

海外クラウドサービスへの送信=第三者提供の可能性

個人情報保護法では、他の事業者に個人データを渡すことを「第三者提供」として、
さまざまな制限をかけています。

ChatGPTのようなサービスは、一般に

  • 海外企業が運営
  • インターネット経由でサーバに情報を送信
  • どの国のサーバで処理されるか、利用者からは見えにくい

という特徴があります。

このため、利用者さんの情報を入力すると、
「海外の事業者に個人データを提供した」として問題視される可能性が高いです。
その場合、通常の第三者提供よりも、さらに厳しい要件が課されます。

同意や契約がないと違反リスクが高い理由

個人情報を第三者に提供する場合には、

  • 本人の同意
  • あるいは、委託として適切な契約と管理体制

などが求められます。

しかし、多くの事業所では、

  • 利用契約書や重要事項説明書に「ChatGPT等の海外AIサービスへ個別支援計画を入力します」とは書いていない
  • ChatGPT運営事業者との間で、委託契約を結んでいない

というのが実情ではないでしょうか。 このような状態で、実在の利用者情報を入力すると、
「本人が想定していない第三者提供を行った」
と受け取られてもおかしくありません。

無料版・個人アカウント利用は特に危険

業務用に契約した「閉じた環境」のAIではなく、
職員が個人で取得した無料アカウントを使うケースもよく聞きます。

この場合、

  • 情報の保管場所や保管期間、利用方法が事業所としてコントロールできない
  • 誰がいつ、どの端末からアクセスできるのか把握できない
  • 退職後も、元職員のアカウントに情報が残るおそれがある

といった問題が生じます。

事業所として管理できない環境に、
利用者さんの要配慮個人情報を送ってしまうことになり、
法令上も、倫理的にも、かなり厳しい評価を受けるリスクがあります。

どこからがアウト?具体的なNG例とグレーゾーン

ほぼ確実に避けるべきNGパターン

つぎのような使い方は、個人情報保護の観点から法令違反につながるおそれが高いと考えられます。

  • 氏名やイニシャル、性別、年齢を含めて、そのまま個別支援計画を貼り付ける
  • 「Aさん(40代男性、自閉スペクトラム症、就労継続支援B型利用)について、個別支援計画を作ってください」と入力する
  • 問題行動や家族関係の詳細を、誰かわかる形で具体的に書き込む
  • 支援記録やモニタリング記録を、そのまま長文でコピペする

これらは、特定の個人を識別できる形で
要配慮個人情報を海外事業者に提供している可能性が高く、
個人情報保護委員会の考え方から見ても、慎重な対応が求められる行為といえます。

グレーゾーンになりやすいケース

一方で、つぎのようなケースは、現場でも判断が迷いやすいところです。

  • 名前や住所は消したが、「20代女性、発達障害、実家暮らし、地域のA型事業所利用」といった属性を細かく入力する
  • 「よくある事例として…」と書きつつ、実際の利用者さんの状況にかなり似せて書く
  • 「障害名だけ」を入れて、目標例の提案を求める

これらは、単体では個人を特定しにくくても、

  • 地域が狭い
  • 利用者数が少ない事業所
  • 情報を組み合わせると個人が推測できる

といった場合には、個人情報と評価されるおそれがあります。

法律上どこまでが「個人情報」かの判断は難しく、
最終的には個別具体的な判断が必要になります。
迷う場合は、安全側に倒すことをおすすめします。

比較的安全に近づく工夫(ただし万能ではない)

違反リスクを下げるために、よく挙げられる工夫としては、

  • 具体的な属性(年齢・性別・地域など)を削る
  • エピソードを抽象化し、「よくある例」として書き換える
  • 実在の人に似ていない、完全に架空のケースに作り替える

といった方法があります。

ただし、これらを行っても、
「絶対に個人情報ではない」とは言い切れません。
事業所の規模や地域性などによって、評価が変わる可能性もあります。

避けたい入力例

  • 属性+計画依頼
    Aさん(40代男性・ASD・○○市・就労B型△△)の個別支援計画を作って。
    下に全文を貼ります…(計画コピペ)
  • 問題行動・家族関係
    Bさんは駅前の◯◯でトラブル。母(単身)と同居、兄と不仲…
    具体的対応を書いて。
  • 記録・モニタリング
    2025/12/10 面談記録:…(長文)
    2025/12/20 モニタリング:…(長文)
    改善案を出して。

注意が必要な入力例

  • (氏名と住所、事業所名は削除)
    40代男性・発達障害(ASD)で、就労系サービス(B型)利用。
    この条件で、個別支援計画の目標例をいくつか提案して。
  • (よくある事例として)
    衝動的な行動があり対人トラブルが多い人。
    (現実の利用者に近い状況で)支援方針を。
  • (記録を要点に要約した。通所頻度や出来事の時系列は残してある)
    この要約をもとに提案して。

より安全に近づけた入力例

  • 就労系サービスの個別支援計画(目標・支援内容)の一般的な書き方テンプレと例文を。
    (属性は入れず、例は完全架空で)
  • 衝動性や対人トラブルがある場合の一般的な支援アイデアを箇条書きで。
    (固有名詞・地域・家族構成は入れない)
  • 支援記録を『要約→仮説→次回の確認項目』に整理する一般的フォーマットを作って。
    (例文は完全架空、日時や場所は書かない)

法律・ガイドライン上の考え方(ざっくり整理)

個人情報保護委員会のスタンス

個人情報保護委員会は、
生成AIの利用に関する注意喚起の中で、

  • 個人情報を入力する前に、本当に必要か慎重に検討すること
  • 個人情報を含む場合は、本人の合理的な期待に反しないか確認すること
  • 事業者として、安全管理措置や契約内容を確認すること

といった点を、事業者向けに呼びかけています。

この考え方を福祉分野にあてはめると、個別支援計画のような要配慮個人情報を、海外生成AIにそのまま入力する運用は、かなり厳しい目で見られると考えた方がよいでしょう。

福祉分野で求められる「より高い慎重さ」

福祉分野では、利用者さんと事業所との信頼関係がとても重要です。

厚生労働省のガイドラインでも、

  • 利用目的の明確化
  • 職員への研修
  • 外部委託時の契約と監督

などを通じて、適切な個人情報管理を求めています。

かつては、自治体ごとの個人情報保護条例の内容に大きな差がありましたが、現在でも一部の自治体は、国の法律より厳しい独自ルールを維持しています。
まずは、自事業所の所在する自治体のルールを確認することが大切です。

本記事の限界と、専門家に相談すべきポイント

個人情報保護法とAIに関する議論は、日々アップデートされています。
また、最終的な判断は、

  • 実際の入力内容
  • 事業所の規模や体制
  • 自治体の条例や指導方針

などによって変わります。

次のような場合は、
弁護士や社会保険労務士、自治体担当部署などに相談することをおすすめします。

  • AIツールを本格的に業務導入したい
  • すでにChatGPTに利用者情報を入力してしまった可能性がある
  • 行政から個人情報保護についての指導を受けている

それでもAIを使いたいときの安全な活用法

「個人情報を含まない業務」に限定する

個別支援計画そのものではなく、
次のような使い方であれば、比較的リスクを下げられます。

  • 個別支援計画の「ひな形」や項目例を考えてもらう
  • すでに自分で考えた文章を、一般的な文体に整えてもらう(※個人情報部分は伏せ字・ダミーにする)
  • 研修資料やマニュアルの文章のたたき台を作る

ポイントは、
「実在の利用者さんを思い浮かべなくても書ける内容だけに使う」
ということです。

事業所としてのルールと研修を整える

AI活用を検討するなら、
個人の判断に任せるのではなく、
事業所として次のようなルール作りが重要です。

  • 「実在の利用者情報はAIに入力しない」と明文化する
  • NG例・OK例を、具体的に職員と共有する
  • 個人アカウントで業務情報を扱わないルールを徹底する
  • 個人情報保護法や自治体条例に関する研修を定期的に行う

「なんとなく危なそうだからやめておこう」ではなく、
具体的な線引きを共有しておくことが、トラブル防止につながります。

安全性に配慮したAI環境を選ぶ

どうしてもAIで文章支援を行いたい場合は、
次のような条件を満たすサービスを検討するとよいでしょう。

  • 事業所として契約できる業務用サービスである
  • 入力データを学習に利用しないことが契約上明記されている
  • データの保管場所(日本国内など)が明示されている
  • 個人情報保護法に対応した安全管理措置が説明されている

それでも、要配慮個人情報をそのまま入力してよいとは限りません。
「何をどこまでAIに任せるか」は、専門家の意見も踏まえて慎重に決める必要があります。

まとめ:まず押さえたいポイントと次の一歩

最後に、押さえておきたいポイントを整理します。

  • 個別支援計画には、障害名や生活歴などの「要配慮個人情報」が多く含まれます
  • その内容をChatGPTなどの海外AIサービスに入力すると、「第三者提供」として問題視される可能性があり、個人情報保護法違反になるおそれが高いです
  • 氏名を消しても、属性やエピソードの組み合わせで個人が特定される場合は重大なリスクがあります
  • 事業所としてのルール作りと職員研修を行い、「何を入力してはいけないか」を具体的に共有することが重要です
  • AIは「ひな形づくり」や「一般的な文章化」など、個人情報を含まない範囲で活用するのが安全に近い使い方です

明日からできる3つのアクション】

  1. 自事業所で「ChatGPTなどに入力している情報」がないか、職員間で率直に確認する
  2. 「実在の利用者情報はAIに入力しない」という方針を、まずは口頭ベースでも共有する
  3. 自治体の個人情報保護担当窓口や、信頼できる専門家に、AI活用の相談をしてみる

「便利だから」だけで進めてしまうと、あとから取り返しのつかないトラブルになる可能性があります。

個別支援計画の作成は大変な仕事ですが、
利用者さんの信頼と権利を守るためにも、
AIとの付き合い方を、一度立ち止まって見直してみてください。

個人情報に配慮しながら記録づくりを楽にしたい方へ

ここまで見てきたように、個別支援計画をそのままChatGPTに入力することには、大きなリスクがあります。
一方で、「記録や書類づくりの負担を減らしたい」という現場のニーズも、決して無視できません。

大切なのは、
「個人アカウントで汎用AIに何でも入れる」のではなく、
事業所として管理できる、安全性に配慮した環境を選ぶことです。

その一つの選択肢として、パパゲーノが開発した支援記録AIアプリ「AI支援さん」があります。
「支援記録や議事録を、もっと効率よく、でも丁寧さは失わずに作りたい」と考えている事業所に向けて設計されたツールです。

AI支援さんを使うと、例えば次のようなことができます。

  • 面談やケース会議の音声を録音するだけで、文字起こしと支援記録のたたき台を自動作成する
  • 事業所ごとのWord・Excelフォーマットを登録しておき、面談音声から書類のひな形を自動生成する
  • 相談支援・就労系・通所系など、さまざまな福祉・介護事業所で使いやすい形で運用できる

こうしたツールを上手に活用することで、
「誰か一人に記録作業が偏ってしまう」といった負担を和らげ、
職員が利用者さんと向き合う時間を少しずつ取り戻していくことが期待できます。

もちろん、どのAIツールを使う場合でも、

  • 事業所として利用目的や運用ルールを決めること
  • 自治体の個人情報保護担当や専門家と相談しながら、扱う情報の範囲を検討すること

が重要です。

「現場の負担を減らしたい。でも個人情報保護も犠牲にしたくない」
そう感じている方は、AI支援さんの機能やセキュリティ対策、導入事例を、いちど資料で確認してみてください。
詳しくは、以下の「AI支援さん」紹介ページをご覧ください。

よかったら記事をシェアしてください
  • URLをコピーしました!

この記事を書いた人

株式会社パパゲーノ代表取締役CEO / 「生きててよかった」と誰もが実感できる社会を目指して、東京で「パパゲーノ Work & Recovery(就労継続支援B型)」の運営や、支援現場のDXアプリ「AI支援さん」を開発。精神障害のある方との事業開発がライフテーマ。

目次