最近のAI, とりわけLLMの発展には非常に目を見張るものがある. 理論言語学の中で話題に上がるのが, このLLMは, 人間の言語モデルの説明に貢献するかという観点である. Ziv et al. (2025) はLLMは人間の言語モデルの直接の理論構築には使えないが, 代理的な役割を果たすことができるかもしれないと述べている. その際のLLMの欠点として, 下記のような点を挙げている.

  1. 言語能力 vs 言語運用: LLMには, 人間が示すような, 処理負荷による誤り (例: 多重中心埋め込み文の理解困難) と, 根底にある文法知識を区別する明確なメカニズムがない.
  2. 正しさ vs 尤もらしさ (Correctness vs. Likelihood): LLMは文の生起確率を計算するが, 人間が持つような「文法的に正しいか否か」という規範的な判断能力を持つかは不明である. 人間は「正しいが稀な文」と「誤っているが頻出する (ように聞こえる) 文」を区別できる.
  3. 学習と表象: LLMは, 人間が見せるような飛躍的な帰納的一般化 (例: 構造依存性の学習) を説明する基盤を持たず, 構成素性のような基本的な概念すら真に獲得しているかは疑わしい.

これは私の理解になるが, 単純に言えば, 人間の言語が生得的な規則から生成されるのに対して, LLMは多数のデータから規則性を導き出している. それゆえに, 根本的な仕組みが異なると考えるだろう.

参考文献

  • Ziv, I., Lan, N., Chemla, E., & Katzir, R. (2025). Large Language Models as Proxies for Theories of Human Linguistic Cognition. arXiv preprint arXiv:2502.07687.

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です