📝 エピソード概要
本エピソードでは、私たちが現在利用している生成AI(特にChatGPT)の背景にある、約60年にわたる開発の歴史と技術的進化を振り返ります。1960年代からの2度の大きな「AIの冬」を乗り越え、ディープラーニング、そしてGoogleのトランスフォーマー技術を経て、現在のブームが到来した経緯を解説。
さらに、AIが単語間の関係をベクトル(方向性)として認識する仕組みや、学習データ量の違いが専門分野におけるAIの信頼度にいかに影響するかといった、利用者が知っておくべきキーポイントを掘り下げています。
🎯 主要なトピック
- AIブームと「AIの冬」: 1960年代と80年代に、人間の思考をコンピューターで再現しようとする試みがあったものの、期待外れに終わり、長い停滞期(AIの冬)を経験した歴史が紹介されました。
- ディープラーニングと性能向上: 2000年代に入り、半導体やチップの性能が向上したことで、ビッグデータを活用するディープラーニング技術が発展し、現在のAIの基礎が築かれました。
- トランスフォーマー技術の開発: 2017年にGoogleが自然言語モデルの根幹となるトランスフォーマー技術を開発。この技術が、2022年のChatGPT(3.5/3)登場の大きな土台となりました。
- AIが言葉を認識する仕組み(ベクトル表現): AIは、単語間の関連性や方向性を座標上のベクトルとして認識し、確率論的に意味を理解しているため、ハルシネーション(嘘)が発生する理由の一つとなっています。
- 学習データ量と専門分野における信頼度: マーケティングなどの市場が大きい分野では学習データが豊富でAIの信頼度が高い一方、寄生虫研究のようなニッチな専門分野ではデータ不足によりとんちんかんな回答が出ることがあります。
💡 キーポイント
- 現在の生成AIの繁栄は、過去60年にわたる研究の継続と、2度にわたる大きな研究停滞期(AIの冬)を乗り越えた結果である。
- ChatGPTの対話能力を支える核心技術は、2017年にGoogleによって開発されたトランスフォーマー技術に基づいている。
- AIの回答は単語間の確率論的な予測によって生成されており、完璧な知識や論理に基づいているわけではないため、間違い(ハルシネーション)が発生し得る。
- AIの信頼度は分野によって大きく異なり、一般的な話題や大規模なデータが存在する分野では有用だが、専門性が高い分野では利用に注意が必要である。
- ユーザーは、AIの背景にある歴史や仕組みを理解することで、より賢く、その技術的限界を認識して利用することができる。

