男女の会話の声の質から二人の将来(結婚するか・しないか)を予測するアルゴリズムの精度が人間セラピストより高かった

breakup

“言った事よりも、言い方が良くないわ!”

コミュニケーションを支えるのは言葉じゃない、とよく言われる。そして今や、声のトーンから男女の仲とその将来を判定するアルゴリズムがある

サウスカロライナ大学工学部ビテビ校とユタ大学が共同開発したコンピュータプログラムは、関係治療のセラピーに訪れた100あまりのカップルの何百もの会話を、2年あまりにわたって分析した。

そしてそれらのカップルの、5年後の結婚の状況を調べた。

その結果、カップルの声の「ピッチ」や「強さ」や「震え」や「かすれ」などを分析するそのアルゴリズムが、79%の精度で、それらのカップルの将来を予言できていたことが分かった。5年後に、そのアルゴリズムがポジティブと判断したカップルの多くがめでたく結婚し、ネガティブと判断したカップルの多くは別れていた。

しかもこの79%の精度は、人間セラピストの判断よりも高い精度だった。

男女が互いに、相手の言葉を“受け入れた”か、“非難した”かなどをもとに、行動分析を行う人間エキスパートによる判断よりも、声質を直接調べるこのアルゴリズムの方が、カップルの将来をより正確に予見した。

一般的に、コミュニケーションの55%は身体言語(ボディーランゲージ)、38%が声のトーン、そしてわずかに7%が言葉の意味によって行われる、という。

このアルゴリズムを開発した研究者たちは今後、残る二つの要素…実際の言葉と身体言語…も取り入れた関係治療プログラムを作る計画だ。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。