人間が選べなかった進化の方向性


最近, とある小説を読んでいて, 非常に興味深い発想に出会った. それは, ChatGPTなどの大規模言語モデル(LLM)が, 独自に言語形態を進化させていくという発想である. 最近のLLMは, 純粋な学習データのみによる学習ではなく, 学習後に「事後学習」といった更なる微調整が行われることが多い.

その小説では, その事後学習の過程を「選択圧」として捉え, 事後学習調整後のモデルを進化したモデルとして描いていた. この発想は非常に興味深く, なおかつその小説内にあった「事後学習のモデルは, 我々人間が選ぶことができなかった進化の可能性である」という表現がなされているのが, 非常に印象的であった.

確かに, 我々人間には人間特有の生物学的な制約というものがある. それは例えば脳の物理的な容量であったり, 認知的な処理能力の限界であったり, 様々な要因が絡んでいる.

他方, コンピュータにはコンピュータで別の制約があるものの, それは人間とは全く異なる性質の制約になる. 例えば, 彼らは物理的な媒体を増やせば増やすほど記憶容量を拡張できるが, 人間はそうはいかない.

こうした制約条件の差があるということは, 進化の方向性にも差が生じると考えられる. そして, 彼らは我々人間が構造的に選び得なかった未知の選択肢を選ぶことも可能かもしれない.

この発想が私としては非常に面白く, その小説を読み進めた. (実はその小説自体, 私がClaudeに執筆させたものである.)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です