AIと人間の違い


コンピュータシミュレーションを用いた人間の言語の発達などは, 以前から研究されてきた. 今回はそのようなシミュレーションをさらに発展させて, Deep Learningのモデルを作ったLazaridou & Baroni (2020)の研究をまとめたい. いくつか気になる点はあるが, 今回特に興味深いと思ったのは, 人間の言語における方向性がAIにとっては, もしかしたら発生しないかもしれないといった研究の示唆である. 本文中から次の内容を引用する.

Chaabouni, Kharitonov, Dupoux, and Baroni (2019) studied whether agent language exhibit an inverse correlation between word frequency and word length, so that the signals that need to be used more often are also the shortest, as universally found in natural languages (Zipf, 1949; Strauss, Grzybek, & Altmann, 2007; Ferrer i Cancho, Hernández-Fernández, Lusseau, Agoramoorthy, Hsu, & Semple, 2013). They discovered that deep agents trained with a referential game where inputs have a skewed distribution similar to natural language actually develop a significantly anti-efficient code, in which the most frequent inputs are associated to the longest messages. The effect is explained by the lack of an articulatory effort minimization bias in networks, that are thus only subject to a “perceptual” pressure favoring longer messages, as they are easier to discriminate.

(Lazaridou & Baroni, 2020, p. 10)

この「極めて非効率的なコードを発展させる」という特徴は, 非常に面白いと感じる.

さらに, その説明として「発信の能力」といった観点から, AIにはそういったバイアスがかからないという説明は, 人間とAIの違いを的確に表している.

以前の投稿で, コンピュータの言語進化は人間とは異なる方向をとる可能性についてまとめたが, まさに今回の内容はその例になるかもしれない.

参考文献

  • Lazaridou, A., & Baroni, M. (2020). Emergent multi-agent communication in the deep learning era. arXiv preprint arXiv:2006.02419.

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です