LLMは人間とどう違うか?


以前の投稿でLLMは人間の言語モデルの直接の理論構築には使えないが, 代理的な役割を果たすことができるかもしれないというZiv et al. (2025)の主張を見た.

今回はより具体的な例として完全に反転させた文章を用いた実験を行っている.

その実験では, イタリア語, ロシア語, ヘブライ語の摂動版は, その摂動が人間には不可能だと考えられているにもかかわらず, 実在する英語よりも学習が容易であると予測されたとのことである.

人間が自然言語を反転した順番で学習することは非常に困難であろう.

しかし, LLMが容易だと予測されるとしたら, それはやはり根幹の処理システムすなわち大規模データから勾配を調整する学習装置と生得的に備わった処理機構を用いる演算システムとの違いと言えるかもしれない.

Ziv et al. (2025)は結論を出すにはこういった結果だけでは不十分であるという留保を主張しており, その点は私も同意できるが少なくとも方向性としてはLLMの処理は人間の言語処理とは異なるために, LLMは人間の言語モデルの直接の理論構築には使えないという主張を強く支持するものであるように捉えている.

 参考文献

  • Ziv, I., Lan, N., Chemla, E., & Katzir, R. (2025). Large Language Models as Proxies for Theories of Human Linguistic Cognition. arXiv preprint arXiv:2502.07687.

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です