言語障害の検診は早めに、しかも複数回やれ、と言われる。でも、すべての子どもをタイミングよく検査できる設備と要員が完備している地域は、そう多くない。しかし、ここでご紹介するMITの研究結果が正しければ、少なくとも基本的な検査は、自動化され、家庭でもできるようになるだろう。
サンフランシスコで行われたInterspeech カンファレンスで、同校のコンピューター科学者たちが、その新しいテクニックを説明した。まだ開発の初期的な段階だが、かなり期待を持てそうだ。
神経の障害のために、会話(発話と相手の言葉の理解)がうまくできない子どもたちは、ある種のテストで一定のパターンを示す。それは、複数の画像を見せ、それらについてお話をさせるテストだ。休止や、特定の時制や代名詞でのつまづき、そういった小さなことが、深刻な問題の指標であることもある。
院生のJen GongとJohn Guttag教授が作ったそのシステムは、まず、子どもたちのそんなお話の録音を多数、機械学習システムに聞かせる。そのデータ集合を細かく分析することによって、システムはいくつかのパターンを学習する。それらは、健常者のパターン、発達障害に顕著なパターン、初期の言語障害を示すパターン、などだ。それらは、これまでの研究で確証されているパターンなので、問題はない。
専門教育を受け、訓練を積んだ専門家に代わるものではないが、でも専門家をアプリに詰め込むことはできない。システムは、現状で精度も実用レベルに達しており、どんなスマートフォンからでもできる検診なので、障害の早期発見早期治療に貢献するだろう。
でも、まだまだやるべきことはある。
“大量の良質なデータにより、今後ともシステムを訓練していく必要がある”、とGongは述べている。“子どもたちの発達過程はきわめて多様だから、健常と障害の両方について、いろんな子どもたちのデータを集めることが、システムのより良質な判断力を育てる”。