ビデオ関連のワークフローを支えるツールをクラウドから提供しているMicrosoftのAzure Media Servicesが、相当賢くなるようだ。今日ラスベガスで行われた2016年NAB show〔放送機器のカンファレンス〕でMicrosoftは、同社がビデオ用の機械学習サービスのために開発したツールの一部を、Media Servicesが利用していく、と発表した。
これによりたとえば、Media Servicesはソースのビデオからいちばんおもしろい部分を取り出したり、ビデオ全体の要約を素早く作って見せたりできる。
また、これらのツールには顔認識の技術や、人間の感情を見分ける能力も加わる。感情の判別は同社のCognitive Servicesがすでに、静止画像に対して行っている 。これらの技術や機能により、たとえば、何かのイベントで行われたスピーチに、人びとがどのように反応したかが分かるようになるだろう。あなたのキーノートがあまりにも長かったら、人びとの感情は、楽しい→無関心→うんざり、と変わっていくだろうね。
Microsoftは今、Hyperlapseというものも作っている。それは、いわゆるタイムラプスビデオをAzure Media Servicesの中へ作り込める機能だ。この機能はすでに公開プレビューをやっており、最初、最大1万フレームまで、という制限があったが、今はない。
そのほかの新しい機能としては、動きの検出、音声をテキストに変換するインデクサーが新たに6つの言語(計8言語)に対応、ビデオ中のテキストに対する動き検出とOCR機能、などがある。たとえば、ふつうの、キーワードによる検索の結果に、ビデオも含まれるようになるのだ。