AIが育児に与える影響、わかっていること・わかっていないこと
読者の皆さん、こんにちは。4月の最終便です。
日本はゴールデンウィークでしょうか?アメリカは当然ながらゴールデンウィークはないので、通常通りの日程になっています。
実家のある金沢は観光客でごった返していると両親が言ってましたので、日本全国の観光地はさぞ賑わっていることでしょう。
では4月最後のニュースレターもどうぞよろしくお願いします。
ふらいと先生のニュースレターは、子育て中の方が必要な「エビデンスに基づく子どもを守るための知識」をわかりやすくお届けしています。過去記事や毎月すべてのレターを受け取るにはサポートメンバーをご検討ください。
さて、今回はみんな気になるAIの話題です。
娘達が通う米国の中学校では去年までAIの使用が全面禁止だったのですが、今年からガラリと方針が変わって先生がAIで出してきた情報を検証する授業が始まったようです。
つまり、AIの出してくる情報の一次情報を探ることをやり始めたようです。まあ米国人らしい発想だなと思って見てます。
外来でも保護者向けの講演でも、ここ1〜2年で「ChatGPTって、子どものことに使っていいんですか?」「子どもが宿題でAIを使い始めて、これって発達に悪いんでしょうか?」という質問が一気に増えてきました。
育児SNSや子育てコミュニティでも、生成AIに離乳食のメニューを聞いたという声、夜泣きの相談をしたという声、子どもの病気の症状をChatGPTに入れたという声、いろいろ聞こえてきます。
僕自身、AIで論文を整理したり、書類の下書きを任せたりとして有効活用しているので、その便利さはよくわかります。同時に小児科医として、育児にとってのAIの影響については、はっきり言えること、まだほとんどわかっていないことが混在していて、親御さん達が判断しづらいのも当然だと思います。
そこで今回は限られている先行研究を中心に、「AIが育児に与える影響について、いま確かなこと・まだ確かでないこと」を整理してみようと思います
わかってきたこと① 健康情報の道具としてのAI
親はAIの文章を専門家より信頼してしまうことがある
まず、保護者がAIをどう受け止めているか、というところから見ていきます。
米国カンザス大学の研究者らが2024年に発表した横断研究では、18〜65歳の親116人(平均45歳)を対象に、子どもの薬・睡眠・食事に関する小児健康情報について、小児医療の専門家が書いた文章と専門家の監修下でプロンプト調整したChatGPTが書いた文章を、どちらが書いたかを伏せて評価してもらいました〔#1〕。
結果は意外なものでした。
多くの項目で、親はChatGPTと専門家の文章を見分けることができなかったのです。さらに、両者の評価に差が出た項目では、ChatGPTの方が「信頼できる」「正確そう」「参考にしたい」と高く評価されました。著者らは、プロンプト調整したChatGPTは、薬・睡眠・食事についての保護者の行動意図を実際に変えるほどの影響力があると報告しています。
これはつまり、AIの文章は読みやすく、自信たっぷりで構造化されて書かれているので、人間の専門家の文章よりも説得力があるように感じられてしまうということです。
もっともらしさと情報の正確さは別物だ、という当たり前のことを情報を受け取る側の親御さんは気をつけないといけないのです。
診断補助としてのAIは、まだ精度が足りない
では、肝心の中身の正確性はどうでしょうか。
米国Cohen Children's Medical Centerの医師らが2024年にJAMA Pediatrics誌に発表した研究では、JAMA PediatricsおよびNew England Journal of Medicine(NEJM)に掲載された小児科の症例チャレンジ100例をChatGPT(GPT-3.5ですが)に提示し、鑑別診断のリストと最終診断を答えてと尋ねました〔#2〕。
結果、ChatGPTの最終診断は83%で誤りでした。鑑別診断のリストの中に正解が含まれていたケースですら36%にとどまりました。著者らは現時点のLLMが小児科診断において臨床医を置き換えるレベルにはないと結論しています。
もちろん、AIの進化は日進月歩なので、しかも今はGPT-5.5にまでアップデートされてますからこの情報はリアルタイムに現状を示しているものではありませんので、解釈にご注意ください。
そしてAIが万能でないとはいえ、得意・不得意の質も大事です。
ドイツの研究チームは、基本救命処置と小児高度救命処置を含む小児救急22症例をChatGPTおよびGPT-4に与え、保護者・市民救助者を支援する立場でどう答えるかを評価しました〔#3〕。
その結果診断そのものは94%で正しく、敗血症性ショックや肺塞栓症を除いて緊急事態を認識できました。
一方、「119(米国では911)に通報すべき」という最重要の指示は54%(12/22)でしか出ず、誤った応急処置を9例(45%)で提案し、保護者には実施困難な高度救命手技を3例(13.6%)で勧めるなど、緊急時の運用には危険が残ることがわかりました。
つまり、AIで子どもの症状の見当をつけるのは比較的得意でも、いつ救急車を呼ぶべきか、家でどう動くべきかという判断についてはAIにはまだ任せられない、というのが現状と言えます。
もっともらしく書かれた情報の落とし穴
もう一つ重要なのは、AIが堂々と書いた文章のなかに危険な誤りが混じってしまうことです。
米国Tennessee大学の研究者らが2024年に発表したパイロット研究では、扁桃摘出術後の子どもについて保護者がよく尋ねる16の質問にChatGPTに答えさせ、3人の小児耳鼻咽喉科医が評価しました〔#4〕。
提携媒体
コラボ実績
提携媒体・コラボ実績