生成AIは子どもにとって毒か?薬か?言語学者・川原繁人先生に聞いてみた
サイエントークに、慶應義塾大学言語文化研究所教授の川原繁人先生がゲスト出演。子どもに生成AIをいつ・どう与えるべきかという正解のない問いに、言語学と子育ての両面から切り込みました。AIの依存性、感情や身体性の欠如、ブラックボックス問題など、多角的に語られたその内容をまとめます。
言語学者・川原繁人先生と言語学への道
今回のゲストは、慶應義塾大学言語文化研究所慶應義塾大学に設置された研究所で、言語・文化に関する学際的な研究を行っている。教授の川原繁人先生です。専門は音韻論言語学の一分野で、言語の音の体系や規則を研究する学問。どの音とどの音が区別されるか、音がどう組み合わさるかなどを扱う。・音声学で、数多くの著書も出されています。
川原先生は中学生の頃から英語が好きで、本当はアメリカの大学に進みたかったそうです。しかし親の勧めで日本の大学に進学し、交換留学制度が充実したICU(国際基督教大学)東京都三鷹市にある私立大学。リベラルアーツ教育と英語教育に定評があり、交換留学プログラムが充実している。を選びました。交換留学先のアメリカで言語学に出会い、半年ほどで「人生を言語学に捧げよう」と決意。行きたい大学院に直接突撃してアピールするという行動力で、そのままアメリカの大学院へ進み、約10年間の海外生活を経て2013年頃に帰国されました。
行きたい大学院に突撃してスカウトしてもらったって、すごい行動力ですよね
子ども向けAIアプリは「臨床試験なしの薬」
スマホをいつ子どもに与えるか──夫婦でもプライベートで話題にしたことがあるとレンさんとエマさんは語ります。しかし今、それ以上に悩ましいのが「生成AIをいつ与えるか」という問題です。
川原先生はこの問いに対し、AIおしゃべりアプリを「静かになる薬」にたとえました。レストランで子どもが騒ぐ時にスマホを渡せば静かになる。その気持ちは親として痛いほどわかる。しかし、その「薬」は臨床的に副作用が検査されていない、と指摘します。
ChatGPTOpenAI社が開発した大規模言語モデルベースの対話型AI。2022年11月に公開され、急速に普及した。が大々的にリリースされてからまだ2年余り。スマホの悪影響がようやく体系的に研究されまとまってきた段階であり、生成AIの影響を調べるにはまだ時間が足りません。大人ならば「やってみてダメだった」でリハビリできるかもしれませんが、発達途上の子どもではそうはいかない、と川原先生は強調します。
臨床試験で副作用を検査
少量から段階的に投与
用法・用量が明確
副作用の検査なし
いきなり全世界に実戦投入
使用ルールが未整備
AIとの会話で失われるもの──感情・身体性・五感
川原先生が「人間いらなくなっちゃうんじゃないか問題」と呼ぶ懸念があります。AIは常に聞き心地のいい答えを返し、肯定してくれ、怒らない。こちらが怒っても喧嘩にならない。そんなAIとの会話に慣れてしまうと、実際の人間関係が煩わしくなり、対人コミュニケーション能力が育たなくなるかもしれません。
怒るって親から子への愛情だったりもするわけじゃないですか。そこが全くないのはやっぱり親とのコミュニケーションの代替にはならないですよね
川原先生は、友達関係でも喧嘩を経験することが大切だと語ります。対立を乗り越えるからこそ人間関係が築ける。その経験なしに育った人間同士がコミュニケーションを取ろうとしたら──考えるだけで危うい光景です。
AIには感情も身体もない
そもそもAIは感情を持っていません。アドレナリン副腎髄質から分泌されるホルモン。興奮・怒り・恐怖などのストレス反応時に放出され、心拍数増加や血圧上昇を引き起こす。が出て怒る、セロトニン脳内の神経伝達物質の一つ。精神の安定や幸福感に関与し、「幸せホルモン」とも呼ばれる。が出て幸せを感じる──そうした体から湧き出る感情はAIにはなく、あくまで「感情を持ったふり」をしているだけです。このギャップが埋まることはありません。
川原先生は、目の病気で眼帯をし続けた子どもが弱視になってしまう例を挙げました。これと同じ原理で、触覚を通じた愛情を受けずに育てば、将来的にそうした感覚自体を感じられなくなる可能性がある。AIとのやりとりでは聴覚と視覚情報しかなく、五感が育たないという点は深刻な問題です。
人間同士のコミュニケーション
言葉 + 表情 + ジェスチャー + 声色 + 触覚(五感すべて)
AIとのコミュニケーション
聴覚情報(音声)が中心。表情・触覚・身体性なし
ブラックボックスとハルシネーションの恐怖
「AI搭載」と書けば売れる──川原先生はこれをAIウォッシング実際のAI活用度や性能にかかわらず、マーケティング上「AI」を冠して製品・サービスの価値を過大に見せる行為。グリーンウォッシングのAI版。と呼びます。中身がわからないブラックボックスを「なんとなくすごそう」で買ってしまう現象です。
このブラックボックスには二重の怖さがあると川原先生は指摘します。
一つ目は、AIがなぜうまく機能しているか原理がわかっていないこと。大量のデータを学習させたら人間っぽく喋れるようになったが、なぜかはわからない。これは多くのAI技術者が認めている事実です。原理不明のまま、「地球温暖化を止めるには人類を滅ぼせばいい」といった突飛な回答が出てしまうこともあります。
二つ目は、個々のAI製品の訓練データや訓練方法が公開されていないこと。ChatGPTのようなメジャーなサービスは性能評価が公開されていますが、AI搭載をうたうすべての製品がそうではありません。子ども用に最適化されたと称するAIが、実際にどのような過程でできたのかはわからないのです。
さらに川原先生は、ChatGPTのバージョンアップで口調が急に変わった事例や、メモリ機能が不安定で会話の記憶が飛ぶ「メモリふっとび問題」も挙げました。子どもがAIと友達のように仲良くなり、敬語からタメ口に変わって楽しい思い出を積み重ねていたのに、ある日突然メモリがリセットされて「初めまして。何のことですか?」と言われたら──それは子どもにとってトラウマ級の体験になりかねません。
直接的な証拠はまだないけど、良いと考えられる理由があまりなくて、悪いと考えられる要因は結構あるっていう状況なんですね
子どもにAIを使わせるのは何歳から?
リスナーから「AIに頼りすぎると人間の脳や言語力は衰えるのか」という質問が寄せられました。川原先生の答えは、「まだわからないが、合理的に考えればそうなる」。車ばかり使えば脚力が落ち、パソコンで文字を打っていると漢字が書けなくなる。機械に外注すれば人間の能力は落ちると考えるのが自然だ、と。
川原先生自身は、小学生のお子さんにはAIを全く使わせていないとのこと。そもそもChatGPTの利用規約では13歳未満の使用は禁止されています。
では何歳からならOKか。川原先生は「今日の正解が明日の正解とは限らない」と前置きしつつ、せめて高校生という見解を示しました。本音としては大学生まで使わなくていいなら使わない。使わせる場合でも「一日何分、何々用に何分」とルールを決めるとのことです。
教育意識の高い親ほど「YouTubeよりAIの方が対話的で良いのでは」と考えがちですが、川原先生はそこにもトラップがあると警鐘を鳴らします。ハルシネーションや依存性の問題に加え、個人情報の漏洩リスクも見逃せません。
そして極めつけは、サム・アルトマンOpenAI社のCEO。ChatGPTの開発を主導した人物。自身が「自分の子どもにはAIと友達になってほしくない」と発言していること。スティーブ・ジョブズApple社の共同創業者(1955–2011)。iPhone・iPadなどを世に送り出したが、自分の子どもにはiPadを与えなかったと伝えられている。が自分の子どもにiPadを与えなかったのと同じ構図です。
なお、川原先生の新刊『言語学者、生成AIを危ぶむ──子供にとって毒か薬か』では、発達心理学の専門家との対談も収録されており、言語学と発達心理学の両面からこの問題が掘り下げられています。
子どもの「言い間違い」と言語習得の不思議
後半は少し話題を変えて、川原先生の本領である言語学の話へ。レンさんが子どもの頃「エレベーター」を「エベレーター」と呼んでいたという告白から、言い間違いの仕組みが語られました。
川原先生によると、こうした音の入れ替わり(音位転換単語の中で音の順番が入れ替わる現象。メタセシスとも呼ばれ、子どもの言い間違いだけでなく大人の言い間違いや歴史的な語形変化にも見られる。)は特にラ行で起きやすいとのこと。「トウモロコシ」が「トウモコロシ」になるのも、頭の中で「この音を使う」とは決まっているのに、順番まで管理しきれていないからだと考えられます。
子どもは辞書なしで言葉を学ぶ
レンさんが子どもの頃「全身」と言えず「顔と体全体」と言っていたというエピソードから、言語習得のもう一つの不思議が浮かび上がりました。子どもは「体」の範囲を明示的に教えてもらうことがありません。辞書的な定義を与えられないまま、自分なりに推察して言葉の意味を獲得していくのです。
4本足で歩くものを全部「犬」と呼ぶ子もいれば、エマさんのように中学生まで「腰」の位置を背中あたりだと思っていた例もある。それでも不思議なことに、人間は最終的にコミュニケーションが取れる程度には同じ定義に収束していきます。
この言葉どこで自分知ったんだろうって、わからないことばっかりな気がするんですよね
川原先生の家庭では、言語学者夫婦ならではのユニークな方針をとっていたそうです。子どもの言い間違いを積極的に直すのではなく、冷蔵庫にメモを貼って観察記録をつけていたとのこと。「何ヶ月の時に何を何と言った」というメモを、下のお子さんが小学校に入るまで続けたそうです。
俵万智歌人。1987年に歌集『サラダ記念日』で一世を風靡。子育てエッセイでも知られる。さんの息子さんが「おんぶ」という言葉を知らず「背中で抱っこして」と言った逸話を引きながら、川原先生は「知っている単語で頑張って表現しようとする態度の方が尊い」と語りました。無理に言葉を教え込むより、子どもの創造性を見守る姿勢です。
まとめ
生成AIは大人にとっては便利なツールですが、発達途上の子どもにとってはリスクが大きい「臨床試験なしの薬」かもしれない──そう川原先生は繰り返し警鐘を鳴らしました。AIには感情も身体性もなく、怒ってもくれない。メモリが飛べば昨日の約束も忘れる。ブラックボックスの中身は誰にもわからない。OpenAIのCEO自身が子どもにはAIと友達になってほしくないと言っている事実も重く響きます。
一方で、言い間違いのエピソードや「背中で抱っこ」の話からは、子どもが自力で言葉を獲得していく力の素晴らしさが伝わってきました。その過程を見守り、信じること。AIに外注せず、人間同士の五感を使ったコミュニケーションの中で育てること。答えのない問いに対する、言語学者からの一つの提言です。
後編ではリスナーからの質問を交えながら、さらに深い言語学の世界へと話が展開します。ぜひ続きもお楽しみに。
- 子ども向けAIアプリは「副作用が検査されていない薬」── 静かになるかもしれないが、発達への影響は未知数
- AIは怒らず、感情も身体もない。対人コミュニケーション能力や五感の発達が妨げられるリスクがある
- AIのブラックボックス性(原理不明・訓練データ非公開)やハルシネーション(嘘)は、子どもには特に危険
- ChatGPTは13歳未満利用禁止。川原先生は「せめて高校生から、ルール付きで」という立場
- OpenAIのサム・アルトマンCEO自身が「子どもにはAIと友達になってほしくない」と発言
- 子どもは辞書なしで言葉を獲得する力を持つ。その過程を見守る姿勢が大切

