📝 エピソード概要
哲学研究者の山野弘樹さんを迎え、「AI時代の思考力」をテーマにした議論の第2回。今回は、AIが特定の文化圏(主に米国)の論理構造を強化し、思考の多様性を損なう「認知的植民地主義」の懸念や、効率化によって人間が「わからない状態」に耐える力(ネガティブ・ケイパビリティ)を失うリスクについて深掘りします。身体知や暗黙知がテクノロジーによってどう変容するかなど、技術と人間の境界線に迫る対話が展開されます。
🎯 主要なトピック
- 論理の多様性とAIの均質化: 国や文化ごとに異なる「論理の型」が、米国製AIの普及によって一つの価値観に塗り替えられてしまうリスクを議論します。
- AIの背後にある「顔」と価値観: AIは単数形ではなく、開発企業や国家の文化・歴史を反映した個別具体的な存在であるという視点が提示されます。
- 「AI抜き」の思考力と複数使い: 複数のAIを比較・メタ認知するスキルの重要性と、AIに頼らない基礎的な知的能力の必要性について語られます。
- 暗黙知と身体性のゆくえ: 職人の技のような言葉にできない「暗黙知」が、AIによる言語化の圧力やXR技術による継承によってどう変化するのかを探ります。
- 「わからない」という贅沢の喪失: 即座に正解や要約を出すAIの利便性が、人間が悩み、誤読し、独自の着想を得るプロセスを奪う可能性を危惧します。
💡 キーポイント
- 認知的植民地主義: 英語圏の論理(結論から話す等)がAIを通じてグローバルスタンダードになり、日本的・フランス的な思考の多様性が失われる懸念。
- AIの「多神教」的活用: 一つのAIを妄信するのではなく、モデルごとの特性(癖)を理解し、複数の回答をぶつけることで人間が上位の判断主体に留まる。
- ネガティブ・ケイパビリティの危機: 効率性を追求するAI社会では、あえて「答えを出さずに宙吊りの状態に耐える」という知的体力が奪われつつある。
- 形式知化される身体: XR技術は身体の動きを可視化・継承できるが、それは身体知を「形式知」へと変換している側面もあり、言語化以前の感覚をどう守るかが問われている。
