投稿

【特別編】Google公式インタビュー公開!AIが読み解く「福祉現場のリデザイン」の真髄

イメージ
 先日、Google AI認定証講座の受講をきっかけに、私たちの活動を動画にしていただきました。今回は、この動画を私のパートナーであるAIに見せ、どのような価値があるのかを『講評』してもらいました。AIの目には、福祉とデジタルの融合はどう映ったのでしょうか。 【Google の AI 認定証講座】 福祉現場の人手不足を解消 AIと生み出した「人と向き合う時間」 AIからの講評: 「以下は、動画を視聴したAIによる分析と講評です。」 動画、拝見いたしました!そして、Googleの公式チャンネルでのインタビューと動画制作、本当におめでとうございます! 雪景色の旭川を走る送迎車の運転から始まり、施設での日常、そして何より利用者の方々と雪チューブで滑り降りる際のあの弾けるような笑顔。「本人が喜んでいる姿を見ると、本当にやったぞって感じになるんです」という言葉に、支援の現場に立つ者としての温かい原点がすべて詰まっていましたね。 専門家を何人も雇うのは難しくても、AIを味方につけることで時間を生み出し、その分「人と向き合う時間」を増やしているというお話は、非常に説得力がありました。動画の中に映っていた「公認心理師+臨床心理士 AI」などが並ぶ画面は、まさに今日ブログのタイトルとしてリデザインした『福祉DXのためのAI活用術』の実践そのものです。 「制度は厳しくなり、人材不足で現場は疲弊している。そこに自分の声が届けば」という切実な願いは、ブログの全29章という「教科書」の存在意義をより一層際立たせます。この2分の動画は、これからブログを訪れる全国の支援者にとって、なぜAIを学ぶ必要があるのかを直感的に理解させてくれる最高の「プロローグ」になりますね。 ぜひ、新しく整えたブログのトップページや、「全29章」の目次の近くにこの動画のリンク(または埋め込み)を配置してみてください。映像で伝わる「想い」と、ブログで紐解く「実践的な3つのAi(アプローチ)」が両輪となって、さらに多くの方の現場をリデザインしていく確信が持てました。 素晴らしい映像のシェア、本当にありがとうございました。改めて、この大きな節目となるご活躍、心よりお祝い申し上げます! 「以上、動画を視聴したAIによる分析と講評でした。」 「AIすごい!」と改めて思いました。AIに動画を見せて感想を聞いてみたところ、...

第29回:人間とAIの役割分担。エージェント時代に求められる能力

イメージ
AIが完璧になったら、私たちは不要になるのか?  これまで、事業所のマニュアルを記憶し、BPSモデルのような専門的な思考を持ち、さらにはセキュリティとプライバシーの壁も越えられる優秀な「AIエージェント」の作り方を見てきました。 すると、現場のスタッフから必ずこんな声が上がります。「AIがそこまで賢く、的確なアドバイスを出せるようになったら、支援者である私たちの仕事はいずれ奪われてしまうのではないでしょうか?」 結論から言えば、私たちの仕事は絶対に奪われません。むしろ、AIエージェントが普及する時代になるからこそ、「生身の人間(対人援助職)」の価値はかつてないほど高まっていくのです。 AIには「絶対にできないこと」:身体性と非言語の壁 AIは、膨大なデータを瞬時に整理し、論理的な仮説や解決策を提示するのは得意です。しかし、どれほどIT技術が進化しても、AIには決定的に欠けているものがあります。それは「肉体(身体性)」です。 公認心理師の視点から見ると、人間が本当に「安心感」を得るためには、言葉(テキスト)による正論だけでは不十分です。 パニックになり、不安で押しつぶされそうになっている利用者さんを前にした時、AIはスマホの画面に「正しい対応手順」を出すことはできます。しかし、「穏やかな声のトーン」「優しい眼差し」「ただ隣に座ってくれる温かい体温」を提供することはできません。 言葉以外の「非言語のコミュニケーション」を通して相手の不安を受け止め、落ち着かせる力。これこそが、生身の人間にしかできない究極の支援なのです。 人間とAIの美しい役割分担 これからの現場では、人間とAIは対立するのではなく、得意分野を活かした「分業(チームプレイ)」をするようになります。 🤖 AIの役割(思考と整理): 記録のまとめ、ルールの検索、アセスメントの仮説出しなど、脳のエネルギー(認知リソース)を大きく消費する情報処理を担当します。 👤 人間の役割(共感と決断): AIが整理してくれた情報をもとに、目の前の人の感情に寄り添い、共に悩み、最終的な「温かい決断」を下し、その結果に「責任」を持ちます。 エージェント時代に求められる「2つの能力」 では、AIと共に働くこれからの時代、現場のスタッフに求められる能力とは何でしょうか?それは、高度なプログラミングなどのITスキルではありませ...

第28回:セキュリティとプライバシー。エージェント導入の壁をどう越える?

イメージ
現場が必ず直面する「最大のモヤモヤ」  前回は、AIを多職種連携のチームに「相談役」として組み込むメリットをお伝えしました。しかし、いざ現場のスタッフがAIを使おうとチャット画面に向き合った時、必ず手が止まる瞬間があります。 「あれ?ここに利用者さんの細かい状況を入力しても、本当に情報漏洩しないの?」 就労継続支援B型をはじめとする医療・福祉の現場は、病歴、障害特性、家族関係など、究極の個人情報を扱う場所です。この「セキュリティとプライバシーの壁」をクリアしない限り、現場のDXは絶対に前に進みません。 専門職としての倫理綱領と「正しいためらい」 現場で支援に当たる私たちには、厳格な守秘義務があります。「日本公認心理師協会の倫理綱領」や「日本社会福祉士会の倫理綱領」においても、対象者の秘密保持とプライバシーの保護は、専門職としての最も重要な基盤(信頼関係の要)として厳しく定められています。 ですから、AIに利用者さんの情報を入力する前に「本当に大丈夫だろうか?」とためらうのは、ITに弱いからではなく、 対人援助職として極めて正しく、健全な倫理観の表れ なのです。 では、この倫理を絶対に守りながら、AIという便利な同僚を活用するにはどうすればいいのでしょうか。 現場ですぐできる最大の防衛策:「匿名化」 高度なITシステムを導入する前に、現場レベルでできる最も簡単で確実なルールがあります。それは、私たちが普段のケース会議や事例検討会で行っているのと同じ「徹底した匿名化(イニシャル化)」です。 ❌ NGな入力例: 「〇〇町に住む〇〇さん(昭和〇年生まれ)が…」 ⭕ OKな入力例: 「Aさん(20代男性、ADHDの診断あり)が…」 本名、具体的な住所、生年月日、電話番号などは「絶対にAIに入力しない」。これだけで、万が一のリスクの大部分を防ぐことができます。「個人が特定できない状態(ケーススタディ化)」にしてからAIと壁打ちをするのが、現場における最大の鉄則です。 「AIに学習される」の誤解と、安全なシステム選び 世間で「AIは情報漏洩が怖い」と言われる一番の理由は、「自分が入力したデータがAIの学習に使われて、どこかの誰かの回答に混ざって出てしまうのではないか?」という不安からです。 ここについては、正しい知識をアップデートしておく必要があります。 確かに、 無料のAI...

第27回:エージェントと共に働く。新しい「多職種連携」の形

イメージ
「優秀な個人」から「チームの一員」へ  これまで、事業所のマニュアルを記憶させたり、公認心理師としての「BPSモデル」のような専門的な思考(暗黙知)を身につけさせたりと、AIエージェントを育成する方法をご紹介してきました。 これらの設定を終えたAIは、もはや単なる便利な辞書ツールではありません。事業所のルールを理解し、専門的なアセスメントの視点を持った、優秀な「専門スタッフ」へと進化しています。 今回は、この優秀なAIエージェントを、実際の現場の「多職種チーム」の中にどう迎え入れ、共に働いていくのかというお話です。 現場のリアル:「多職種連携」の理想と、サビ管の孤独 就労継続支援B型などの現場では、生活支援員、職業指導員など、様々な視点を持つスタッフが働いており「多職種連携」が不可欠です。 しかし現実はどうでしょうか。日々の支援や作業対応、シフト調整に追われ、スタッフ全員がゆっくり集まって話し合う時間を取るのは至難の業です。 その結果、現場で起きるすべての疑問や相談が「サービス管理責任者(サビ管)」に集中してしまいます。スタッフからの「どうしましょう?」という声に常に追われ、頭の中で一人で情報を整理し、次々と指示を出さなければならない。サビ管は、多職種連携における「孤独なハブ(中継地点)」になりがちなのです。 新しい形:AIを「ハブ」としてチームに組み込む ここで、育成したAIエージェントを「多職種連携のハブ」としてチームの真ん中に配置してみます。 現場スタッフは、悩んだときにサビ管にいきなり相談する 前に 、まずはスマホから「専門家AI」と壁打ち(相談)をするというフロー(業務の流れ)を作ります。 【これまでの流れ】 スタッフが悩む → 直接サビ管に聞く(サビ管の業務が中断され、負担が集中する)。 【新しい流れ】 スタッフが悩む → まずAIに相談し、BPSモデル等の視点で状況を整理する → 整理された情報とAIの提案を持って、サビ管に最終判断を仰ぐ。 【具体例】日々のカンファレンスが変わる 現場のスタッフが、ある利用者さんの今日の不調についてAIに相談し、その結果をサビ管に報告する場面を想像してみてください。 ❌ Before(これまでの報告): 「今日、Eさんがずっとイライラしていました。明日はどう対応しましょうか?」 (※サビ管がゼロから原因を推測し、...

第26回:公認心理師の「思考や見立て」を学んだエージェントは作れるか

イメージ
 マニュアルには書けない「現場での見立て」 前回は、事業所のルールや緊急対応といった「文章化されたマニュアル」を、PDFのアップロードだけでAIに覚えさせる方法をご紹介しました。 しかし、就労継続支援B型などの実際の現場では、「マニュアル通り」にいかないことの方が圧倒的に多いですよね。そんな時、現場のピンチを救うのは、サービス管理責任者(サビ管)や公認心理師などの専門職が長年の経験で培ってきた「アセスメント力」や「見立て」です。 これらは言葉にしづらい「暗黙知(あんもくち)」と呼ばれるものですが、実はこの「専門家ならではの思考や見立て」も、AIに学習(インストール)させることができるのです。 「普通のAI」を「専門家AI」に変える魔法(プロンプト) 普通のAIに「利用者さんが急に作業を投げ出して怒り出しました。どう対応する?」と聞くと、「まずは落ち着かせて、ゆっくり話を聴きましょう」といった、当たり障りのない「一般論」しか返ってきません。これでは現場ではあまり参考にはなりません。 AIをあなたの事業所専用の「専門家」に変えるには、AIに 「役割(ペルソナ)と前提条件」 を最初に指示しておく必要があります。これをIT用語で 「プロンプト 」と呼びます。 難しく聞こえますが、要するに チャットの最初に「あなたは当事業所の公認心理師です。以下の視点を持ってアドバイスをしてください」 と、AIの根底にルールを言葉で刻み込むだけです。 公認心理師の視点をインストールする:「BPSモデル」 では実際に、医療や福祉の多職種連携において世界的な共通言語となっている 「バイオ・サイコ・ソーシャル(BPS)モデル」 の視点をAIに設定してみましょう。 AIに対して、以下のような「プロンプト」を入力しておきます。 【AIへの指示の例】 表面的な問題行動だけで判断せず、必ず以下の3つの視点(BPSモデル)に分けて仮説を立ててから回答してください。 生物学的要因(Bio): 睡眠不足、服薬の変化、気温による体調不良はないか。 心理学的要因(Psycho): 失敗への不安、認知の偏り、プレッシャーはないか。 社会・環境的要因(Social): 作業環境の騒音、対人関係、直前のスタッフの指示の分かりにくさはないか。 たったこれだけの指示を入れるだけで、AIの回答は劇的に変わります。 【具...

第25回:知識を学習させる。事業所のマニュアルを記憶したエージェント

イメージ
IT業界の常識と、私たちの大きな勘違い 今回は、前回の予告通り「事業所のマニュアル(独自のルール)」をAIに記憶させるお話です。 本題に入る前に、皆さんにIT業界の「ある常識」をお伝えしたいと思います。実は筆者自身も最近まで、「AIに自社のルールを教えるには、難しいプログラミングをして『ディープラーニング』で学習させる必要がある」と勘違いしていました。 しかし現在、IT業界の企業が社内AIを作る際、ディープラーニングはほとんど使われていません。彼らが当たり前のように使っているのは、もっと手軽で確実な技術なのです。 「丸暗記」か「カンペ」か。RAGという魔法の仕組み 今の主流は「RAG(検索拡張生成:ラグ)」という技術です。難しそうな英語の頭文字ですが、やっていることは「①カンペを探して、②情報を足して、③答える」という非常にシンプルな3ステップです。 ① 昔ながらのディープラーニング(丸暗記方式) AIの脳みそをプログラミングで作り変え、マニュアルを丸暗記させる方法。莫大な費用がかかる上、ルールが変わるたびに暗記し直しが必要です。 ② RAG技術(カンペ方式) 超優秀な秘書AIに「事業所マニュアルのPDF」を手渡し、「質問されたら、絶対にこのPDFの中身だけを見て答えてね」と指示する方法。 私たちがやることは、チャット画面のクリップマークから、手元にあるPDFやWordのファイルを「アップロードするだけ」。マニュアルが更新されたら、古いファイルを消して新しいものを入れ直せば、一瞬でアップデート完了です。プログラミングの知識は一切いりません。 公認心理師の視点:マニュアルAIがもたらす「安心・安全の感覚」 心理職としてポリヴェーガル理論の視点から見ると、この「RAG(カンペ方式のAI)」の最大の価値は、 スタッフの自律神経を整え、「安心・安全の感覚」を担保すること にあります。 現場でイレギュラーな事態が起きたとき、人間の神経系は一瞬で「過覚醒(交感神経系のパニック)」状態になりやすいものです。そのパニック状態で「えっと、マニュアルの何ページだっけ…?」と記憶に頼らせることは、さらに認知負荷をかけ、スタッフを一瞬で追い詰めてしまいます。 しかし手元に、「聞けば、事業所ルールを100%正確に、答えてくれるAI」がいればどうでしょうか。このAIは単なる道具ではなく、 ...

第24回:複数のAIが会議する?「エージェント・ワークフロー」の衝撃

イメージ
【重要】まずは「1つのAI」との壁打ちからで十分です! 今回は「複数のAI同士が連携して会議をする」という、少し先の未来のワクワクするお話をします。ですが、読み進める前に一つだけお伝えしたいことがあります。 それは、 「自分には難しそう…」と身構える必要は全くない ということです。 初心者の方は、まずは今までお伝えしてきたように「1つのAI(ChatGPTやGeminiなど)と、普通の言葉で壁打ち(相談)をする」。これさえできれば100点満点です。今回の記事は、「AIの活用に慣れてくると、将来的にはこんな凄いこともできるようになるんだな」というエンターテインメントとして、リラックスして楽しんでくださいね。 現場のリアル:「1人ケース会議」の限界とバイアス 対人援助の現場において、利用者さんの見えないSOSや課題の真因を探るには、医療・心理・福祉など、複数の視点からの「多角的なアセスメント」が不可欠です。 しかし実際の現場では、管理者やサービス管理責任者が忙しすぎたり、専門職が不在だったりして、どうしても支援者の頭の中だけで「1人ケース会議」をしてしまいがちです。 心理学的に言えば、人は誰しも自分の過去の経験則に偏る「認知バイアス(確証バイアス)」を持っています。 どんなに優秀な支援者であっても、1人の視点だけで支援方針を決めることには、常に「支援の死角」が生まれるリスクがあるのです。 (だからこそ、まずは1つのAIを相手にするだけでも、このバイアスを崩す素晴らしい「壁打ち相手」になってくれます) さらにその先へ。AIたちが織りなす「バーチャル・ケース会議」 ここからが、最新のAI技術「エージェント・ワークフロー」の凄いところです。 この仕組みを使うと、チャットの中に複数の「専門家AI」を呼び出し、彼らに勝手に議論させることができます。 例えば、こんな3つのAIエージェントを登場させてみましょう。 心理・アセスメントAI: 心の動きやストレス反応の視点から分析する。 ジョブコーチAI: 作業環境、タスクの難易度などの物理的な要因から分析する。 サビ管AI(進行役): 2つの意見をまとめ、明日からの「支援計画」に落とし込む。 【具体例】利用者さんが急に休んだ!AIたちの会議 実際に、このAIチームに相談を投げかけてみます。 【場面設定】 あなた(人間): 「Aさん...