Microsoftが強化学習のスタートアップBonsaiを買収して自律型システムの研究開発を推進

もしも、すべてのテクノロジー大企業が現時点で合意しているたったひとつのことがあるとするなら、それは、人工知能と機械学習が彼らの事業が今後進むべき道を指し示している、ということだ。いや、実際にMicrosoftは、バークリーのAIスタートアップBonsaiを買収しようとしている。大きなM社はこの小さなB社を、同社のAIへの取り組みの中心に据えるようだ。

Bonsaiは、強化学習(reinforcement learning)が専門だ。それは主にシミュレーションの分野で、一種の試行錯誤のようなやり方でシステムを教育する。この学習方法は、自律的なシステムを、特定のタスクが完全にできるまで訓練するために利用できる。Microsoftによると、この買収によって、同社がこれまでAzureのクラウドプラットホームでやっていた研究を、前進させることができる。

Microsoftの企業担当VP Gurdeep Pallが、発表声明の中で言っている: “AIを誰でも便利に利用できるようにするためには、開発の障害を取り除き、すべてのデベロッパーに力をつけ、機械学習のエキスパートでなくてもAIデベロッパーになることが重要だ。Bonsaiはそのために大きな進歩を成し遂げており、Microsoftはこの仕事をさらに前進させることに積極的に関わっていく”。

Microsoftは、この4歳のスタートアップを支援してきた複数の高名な企業のうちの一社だ。Crunchbaseによると、昨年はABB, Samsung, Siemensなどの助力で760万ドルのラウンドを調達し、総調達額が1360万ドルに達した。今回の買収事案は、Microsoftが最近演じた、コードホスティングツールGitHubの派手な買収劇別記事)に続くものだ。

Bonsaiの協同ファウンダー/CEO Mark Hammondは、ブログ記事でこう述べている: “私たちの前方には、インテリジェントで自律的なシステムを動かす人工知能を作って運用するために必要なツールと技術で、世界中の企業とデベロッパーに力をつけていく、大きな機会が開けている。そう感じるのは、私達だけではない。今日は、MicrosoftがBonsaiを買収して、この共通のビジョンの実現の加速に力を貸すことに、私たちは大いに勇気づけられている”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

自然に会話できるAI開発のSELFが東京理科大VCとエイベックスから2.5億円を調達

対話型AI開発を行うスタートアップのSELFは6月18日、東京理科大学ベンチャーファンドとエイベックスを引受先とした第三者割当増資により、2億5000万円の資金調達を実施したことを明らかにした。

SELFが開発するのは、自動で理解と推測を行い、自然な会話を進めることができるAI会話エンジンだ。ボットや自然言語処理開発者によって開発されたこのシステムは、ユーザーと会話した内容をもとに情報を記憶。これをリアルタイムに応用して新しい情報を提示する。ユーザーとAIとの掛け合い、コミュニケーションがより自然に行えるという。

SELFのAIエンジンでは、単層的なレコメンドサービスやボットサービスと違い、ユーザーから得られたさまざまな情報を各要素へ分解した上で、総合的に会話と情報提示へ結びつける。同社が独自に開発した30万近い会話のライブラリーから、システムが自動で適した会話を選択して、ユーザーとのコミュニケーションを成立させる。

現在同社では、このAIエンジンを活用して、自動でセールスや接客を行う企業向けのマーケティングソリューションや、ユーザーとの会話でグルメやニュースの提案や性格診断ができる個人向けAIアプリ「SELF」を提供している。

SELFでは、今回の資金調達は出資元との実践的なシナジーを見込んだ業務提携を目的としたものと説明している。

東京理科大学とは今回の資金調達後、学生生活をサポートする新規サービスの開発や共同研究、新規技術開発など、サービス面・技術面・人材面での総合的な提携を目指す。

エイベックスには、まずはエイベックスグループが運営するアーティスト育成スクールに、サービスナビゲーション型AIの導入を行う予定だ。AIが会員や入会希望者向けの情報提供を行うことで、サービスの利用促進を目指す。また、今後エイベックスが保有する、音楽コンテンツやエンタテインメントコンテンツに関わるサービスへのAI導入、アーティストやアニメキャラクターのAI化なども進めていくという。

調達資金については、AIエンジンの開発とサービス拡充に充てていくということだ。

Facebookの、真に「目を見張らせる」新しいAI研究

赤目やレンズフレアを除去することなど、写真を操作してより良く見せる方法は沢山ある。しかし、これまでのところ、まばたきは良いスナップショットの頑固な敵であることは良く知られている。だがそれも、Facebookによる研究によって変わるかもしれない。この手法は閉じた目を開いた目へと、驚くほどもっともらしく置き換えることができるのだ。

それは、プログラムが特定の領域を類推によって塗りつぶし不要なオブジェクトを消してしまう、インテリジェントな「インペインティング」の例よりも遥かに進んだものだ。例えばAdobeは「コンテキストを意識した塗りつぶし」で似たことを行っていて、ユーザーが望まない対象、例えば突き出た枝や雲を、非常に巧みな類推を使って、まるでなかったかのように消去することを可能にしている。

しかし、ツールの置き換え能力を超越してしまう場合もある。そのうちの1つが「目」の置き換えである。目の詳細で多様性をもつ性質は、システムがそれをリアルに変更あるいは生成することを、実質的に困難にしている。

おそらく歴史上、他の誰よりも多く、まばたきをしている人の写真を保有しているFacebookは、この問題に切り込むことにした。

それはGAN(Generative Adversarial Network)を基本にしている。これは本質的には、自分自身の創造物が実物であると考えるように、自分自身をだまそうとする機械学習システムである。GANでは、システムのある部分が顔などを認識することを学習し、システムの別の部分は認識部分からのフィードバックに基づいて、徐々にリアルになって行くイメージを繰り返し生成する。

左から順に、「原型」画像、ソース画像、Photoshopの目開きアルゴリズム、そしてFacebookの手法。

この場合、ネットワークは、開いた目をもっともらしく認識し複製するように訓練されている。これは既にある程度できているかもしれないが、右に示した例からわかるように、既存の手法にはまだ改善の余地がある。既存のアルゴリズムは、残りのイメージとの一貫性をあまり考慮せずに、人びとの目に対して貼り付けを行うようだ。

これは機械の単純さに由来するものである:開いた目はまわりの皮膚の色を変えたりしないという直感的理解を持っていないのだ(その点に関して言えば、そもそも彼らは目や色などに関する直感的理解を何一つ有していないのだが)。

Facebookの研究者がしたことは、目を開けた対象者を示す「原型」のデータを取り込むことだった。そこからGANはどの目が顔の上に乗るかを学習するだけでなく、特定の個人の目がどのような形や色などになるかも学習する。

結果は非常にリアルなものである:色の不一致や明らかな継ぎ目は存在しない、なぜならネットワークは人間がそのように見えないことを知っているからだ。

テストしてみたところ、人びとは作られた「目の開いた写真」を、本物だと間違えた。言い換えれば半分以上のケースでどちらがどちらかを区別できなかったのだ。写真が間違いなく改変されていることを知っていなければ、おそらくニュースフィードをスクロールしている最中にそれが出てきても気付くことはないだろう。とはいえガンジーは少しばかり奇妙に見える。

まだ時々失敗することもある。ひとの目が部分的に髪で覆われていた場合には妙な結果を生成するし、色を正しく再生成できないこともある。しかし、それらは修正可能な問題である。

ある人の他の写真をチェックして、最新の写真のまばたき部分を置き換えてくれるFacebook上の「目を開ける」自動ユーティリティの有用さは想像できると思う。それは少々気味の悪さもあるが、そうしたやり方は実にFacebookらしい。まあ少なくとも数枚のグループ写真を救うことはできるだろう。

[原文へ]
(翻訳:sako)

AIでラストワンマイルの配送ルートを最適化、名古屋大発のオプティマインドが数億円を調達

名古屋大学発の物流AIスタートアップであるオプティマインドは6月1日、自動運転ソフトウェアを開発するティアフォー寺田倉庫を引受先とした第三者割当増資を実施したことを明らかにした。調達額は公開されていないが、関係者によると数億円規模になるという。なお調達を行ったのは5月とのこと。

オプティマインドが取り組むのは、物流業界におけるラストワンマイルの配送最適化だ。具体的には組み合わせ最適化や機械学習、統計の技術を用いて「どの車両が、どの訪問先を、どの順に回るべきか」を効率化するクラウドサービス「Loogia」を開発中。7月のリリースを予定している。

近年、物流業界ではドライバーの高齢化や人材不足が課題となっている一方で、AmazonなどECの拡大によって物流量の増加や配送の複雑化、小口化が進行。今後この流れがさらに加速する可能性も踏まえると、限られたリソースを最大限に生かすためのシステムは不可欠だ。

オプティマインドで開発を進めるLoogiaでは、2段階のプロセスを経て最適な配送計画を割り出す。

まず機械学習や統計の技術を用いて、取得したデータから物流に特化した地図を構築するのが第1段階。たとえば「マンションの出口はどちらにあるか、車幅はどれくらいか、走行速度はどのくらいになるのか」といった規則や傾向が溜まった地図のようなものだ。そして第2段階でその地図データと核となるアルゴリズムを用いて、個別の条件下における最適な配送ルートを提示する。

同社代表取締役社長の松下健氏によると、これによって「配送ルートを作る時間の削減と(人力で作成していた時よりも効率的なルートが作れることで)実際の配送にかかる時間の削減が見込める」という。

オプティマインドは2017年秋から2018年にかけて日本郵便とサムライインキュベートが実施したインキュベーションプログラムに採択され、Demo Dayでは最優秀賞を受賞。その際に郵便局で実証実験を実施したしたところ、特にノウハウや経験が少ない新人配達員の業務時間が大きく削減されたのだという。

日本郵便との実証実験の結果。資料はオプティマインドより提供

「配達員はまず配送ルートを作成した上で、それが最適なのか不安を抱えながらも配送しているというのが現状。Loogiaではルート作成という属人的な業務を人工知能を使って効率化するとともに、(組み合わせ最適化技術により)人間では考慮できないレベルでの最適化を実現することで、配送業者をサポートする」(松下氏)

もちろん配送効率化を支援するシステム自体は以前からあるが、松下氏によると買い切り型で導入コストが高く、かつアップデートがされない仕様のものも多かったそう。

Loogiaのターゲットは宅配に限らず、弁当や食材、メンテナンスや引っ越しなど、ラストワンマイルの配送を手がける幅広い業者。小口の配送業者でも継続して使いやすいように、SaaSモデルで車両台数に応じて課金する仕組みを用いる。

名古屋大学の研究をプロダクトに落とし込んで展開

オプティマインドのシステムは名古屋大学の組み合せ最適化技術を活かしたもの。特に配送最適化の分野では高レベルの研究実績とアルゴリズムを持っているそうで、社員の中には松下氏を含め同大学院の博士課程に在籍するメンバーも多い。また技術顧問という形で情報学研究科の柳浦睦憲教授も参画している。

同社はもともと2015年に合同会社としてスタート。当初は物流に限らず、最適化技術を活かしたコンサルティング事業をやろうとしていたそう。松下氏いわく「その時に1番属人的で、変えるのが難しそうだったのが物流業界だった。だからこそ業界が抱える課題を自分たちが解決していきたいと思った」ことと、自身が研究していた領域が配送計画問題だったこともあり、物流領域に絞った。

今までは個別の企業ごとにコンサルという形で配送ルートの効率化サポートをしていたそうだが、より多くの企業の課題を解決するため、これからはクラウドサービスとして広く提供する。また「新しいサービスを展開したい人に対して配送計画というノウハウを提供する会社(プラットフォーム)」を目指し、SaaSに限らず計算エンジンのAPI連携やR&D事業も進めていく方針だ。

「今は最適システムの基盤作りの段階。その上に実配送データを収集・解析してGoogleなどがもっていないような『物流に特化した生データの地図』を構築していく。将来的にはライドシェアや自動運転が普及した時に、どのように回ればいいのかという部分においては、プラットフォーマーとしての立ち位置を確立したい」(松下氏)

今回の調達元である寺田倉庫では物流APIを企業やスタートアップに提供。エアークローゼットサマリーなどにも資本参加をした実績もある。同社にとっても配送ルートの最適化は重要で、オプティマインドとは事業シナジーもあるだろう。また松下氏の話す自動運転が普及した後の展望も踏まえると、このタイミングで自動運転ソフトウェアを開発するティアフォーから出資を受けている点も興味深い。

「今はぐっとアクセルを踏むタイミング」(松下氏)ということで、まずは調達した資金と元に組織体制も強化し、Loogiaの開発と導入企業の拡大に取り組むという。

AI文書読み取りエンジンでホワイトカラーの生産性向上へ、シナモンが約9億円を調達

不定形のドキュメントでも読み取ることのできるAIエンジン「Flax Scanner」などを展開するシナモン。同社は6月1日、SBIインベストメントの運用するファンドなどを引受先とする第三者割当増資と、みずほ銀行、三井住友銀行からの融資により総額9億円の資金調達を実施したことを明らかにした。

今回の投資家リストは以下の通り。内訳は第三者割当増資による調達額が約8億円、融資による調達額が約1億円となる。

  • FinTechビジネスイノベーション投資事業有限責任組合(SBIインベストメントの運営ファンド)
  • SBIベンチャー投資促進税制投資事業有限責任組合(SBIインベストメントの運営ファンド)
  • FFGベンチャー投資事業有限責任組合第1号
  • 伊藤忠テクノソリューションズ
  • Sony Innovation Fund
  • TIS

今回のラウンドはシナモンにとってシリーズBにあたるもの。同社では本ラウンドで第三者割当増資により総額10億円の調達を予定していて、2018年8月末日を最終クローズ予定日に追加の調達を進めるという。

なお同社は2018年2月にもMTパートナーズ、マネックスエジソン、ベクトル、RPAホールディングス、複数の個人投資家から資金調達を実施している。

シナモンの主要株主

独自開発のAIエンジンでホワイトカラーの生産性向上へ

シナモンは2016年10月の設立。代表取締役CEOの平野未来氏は2011年にmixiの子会社となったネイキッドテクノロジーの創業者でもある、シリアルアントレプレナーだ。

同社ではホワイトカラーの生産性向上をテーマに、文書を読み取るAI OCRサービスのFlax Scannerのほか、AIチャットボット「Scuro Bot(スクロ・ボット)」、レコメンデーションエンジン「Lapis Engine(ラピス・エンジン)」など独自のAIエンジンを軸にした複数のプロダクトを展開している。

主力サービスであるFlax Scannerは、PDFやWord、手書きの文書などを情報を抜き出し、データベースに自動で取り込めるというもの。手書き文字の読み込み精度が実データで95〜98%と高いことに加え、不定形のドキュメントにも対応しているのが特徴だ。

「たとえば運転免許証のように共通のフォーマットがあるものであれば、そこに記載されている氏名や生年月日といった情報をAIが抽出することはできていた。一方で住民票のように自治体ごとにフォーマットが異なる場合、同じような情報であっても既存のAIでは自動で抽出することが難しかった」(平野氏)

Flax Scannerの場合はディープラーニングを利用して文書を読み取り、テキスト情報がどの情報に属したものなのかを分類(これは「住所」、これは「名前」といったように)。整理をした上でシステムに自動で入力する。

契約書から要点を抽出する、請求書の情報を登録する、手書きの文書をデータ化するといったシーンを中心に、幅広い用途で利用可能。現在は金融・保険業界での利用が多く、特にデータ入力業務におけるニーズが高いという。

平野氏の話では、大手企業の場合データ入力に毎月1億円ほどのコストがかかっているケースも珍しくないそう。今までは人力で頑張っていた作業を人工知能が肩代わりできれば、コスト削減や業務スピード改善を実現しうるだけでなく、人間が本来やるべき仕事に時間を使えるようにもなる。

また直近では特化型の音声認識プロダクト「Rossa Voice(ロッサ・ボイス)」の開発にも着手。これは「コールセンターのやりとりや会議の議事録を自動で書きおこす」システムだ。

「一般的に音声認識というとGoogleを始めIT業界の巨人がやっているイメージが強いが、これらは汎用型の音声認識技術。一方でシナモンで開発を進めているのは、特定のシーンで使える特化型のもの。実際に企業で使うシーンを想定すると、業界ごとの専門用語などを正確に認識できる必要があるので汎用型では難しい面もある」(平野氏)

現在は実証実験を実施している段階。正式なローンチ時期は未定だが秋頃を目標にしている。

2022年までにAIエンジニア500人体制目指す

ベトナムに構える人工知能ラボの様子

シナモンでは今回調達した資金をもとに各プロダクトの基盤技術を強化するほか、人材採用を進める方針。プロダクトのラインナップもふやしていく計画で、大企業以外でも導入しやすいようなパッケージの開発や、新規プロダクトのR&Dにも取り組む。

なお同社はベトナムに人工知能ラボを構えており、大量のAIエンジニア(シナモンにおいてはディープラーニングをゼロから組める人のことを指すそう)を採用できる仕組みを構築。同社には現在40名ほどのAIエンジニアが在籍しているが、2022年までに「AIエンジニア500人構想」の達成を目指すという。

世界最高の評価額をつけるAIスタートアップである中国のSenseTimeが、6億2000万ドルの追加ラウンドを完了

45億ドル以上という世界最高の評価額を持つSenseTimeが、再び資金の話題の世界に戻ってきた。

先月発表された、Alibaba主導によるファイナンシングラウンドで6億ドルを調達したばかりだが、今回は本日(米国時間5月30日)発表された「シリーズC+」ラウンドで6億2000万ドルを追加したのだ

前回の取引を主導したのはAlibabaだが、今回はより多くの旧来の投資家たちが参加している、例えばFidelity International、Hopu Capital、Silver Lake、そしてTiger Globaなどだ。前回投資を行ったQualcommも、再び今回のラウンドに参加したことをSenseTimeは認めている。

今回の調達によって、これまでSenseTimeが投資家たちから集めた資金は16億ドルに達した。同社によれば、直近のこの2つのラウンドを経て、評価額は45億ドル「以上」に留まっているということだ。昨年シリーズBで4億1000万ドルを調達したときには、その評価額は15億ドルだった。

Alibabaは先月の投資時点で、SenseTimeに対する最大の単一投資家となったと述べていた。今回の新たな資金注入を経て、それが変化したのか否かははっきりしていない。SenseTimeの広報担当者はTechCrunchに対して、「Alibabaと他の主要投資家の状況は変わっていない」と語っている。

SenseTimeによれば、同社には様々な産業分野(フィンテック、自動車、スマートフォン、スマートシティ開発など)にまたがる700社以上の顧客がいるということだが、その中にはホンダ 、Nvidia、UnionPay、Weibo、China Merchants Bank、Huawei、Oppo、Vivo、Xiaomiなどが含まれている。

おそらく最も目立つパートナーは、国民監視システムにそのシステムを使用している中国政府だ。中国国内に設置された1億7千万のCCTVカメラや新システムで撮影されたデータをSenseTimeは処理している(その新システムには警察官が街頭で着用するスマートグラスなども含まれている)。

中国は技術開発に重点を置いており、AIはその重要な柱の一つである。

政府の計画では、2030年までに同国をAI技術の世界的リーダーにすることを目指していると、New York Timesはレポートしている。その時までには業界は年間1500億ドル以上の価値を持つだろうと予測されている。SenseTimeの継続的な開発は、その野望に直接注ぎ込まれる。

SenseTimeは最近、その存在感を高めようとしている。同社はMIT Intelligence Questに参加した最初の会社となり、Alibabaと共に香港にAIラボを立ち上げた。同社は、中国の高校生向けのAIの教科書も策定していると述べた。それは程なく40の学校で採用されるだろう。

[原文へ]
(翻訳:sako)

画像クレジット:Photographer is my life

Nvidiaで生まれた怪獣HGX-2はHPCやAIのサーバーを単一アーキテクチャでまかなう

Nvidiaが昨日(米国時間5/29)発表したモンスターHGX-2は、ギークの夢の実現だ。それはクラウドサーバー専用機と称され、しかもハイパフォーマンスコンピューティングと人工知能の要件をひとつの強力なパッケージで満足させている。

まず、誰もが気になる仕様から。プロセッサーは16x NVIDIA Tesla V100 GPUsで、処理能力は低精度のAIで2ペタFLOPS、中精度なら250テラFLOPS、最高の精度では125テラFLOPSだ。標準メモリは1/2テラバイトで、12のNvidia NVSwitchesにより300GB/secのGPU間通信をサポートする。これらにより、総合性能は昨年リリースされたHGX-1のほぼ倍になる。

図提供: Nvidia

NvidiaのTeslaデータセンタープロダクトを担当するマーケティングマネージャーParesh Kharyaによると、これだけの通信スピードがあれば、複数のGPUを一つの巨大なGPUのように扱うことができる。“それによって得られるのは、膨大な処理能力だけでなく、1/2テラバイトのGPUメモリを単一のメモリブロックのようにアクセスできる能力だ”、と彼は説明する。

図提供: Nvidia

残念ながらこのボックスをエンドユーザーが直接買うことはできない。売り先はもっぱら、ハイパースケールなデータセンターやクラウド環境をエンドユーザーに提供する、インフラのプロバイダー、いわゆるリセラーたちだ。これによりリセラーは、ワンボックスでさまざまなレンジ(幅)の精度を実現/提供できる。

Kharyaはこう説明する: “プラットホームが統一されるので、企業やクラウドプロバイダーなどがインフラを構築するとき単一のアーキテクチャだけを相手にすればよく、しかもその単機がハイパフォーマンスワークロードの全レンジをサポートする。AIやハイパフォーマンスなシミュレーションなどで、各ワークロードが必要とするさまざまなレンジを単一のプラットホームで提供できる”。

彼によると、このことがとくに重要なのが大規模なデータセンターだ。“ハイパースケールな企業やクラウドプロバイダーでは、スケールメリットを確実に提供できることがきわめて重要だ。そのためにも、アーキテクチャがバラバラでないことが有利であり、アーキテクチャが統一されていればオペレーションの効率も最大化できる。HGXを使えば、そのような単一の統一的プラットホームへ標準化することが可能だ”、と彼は述べる。

そしてデベロッパーは、そういう低レベルの技術を有効利用するプログラムを書くことができ、必要とする高い精度を一つのボックスから得ることができる。

HGX-2が動くサーバーは、今年後半にLenovo, QCT, Supermicro, Wiwynnなどのリセラーパートナーから提供されるだろう。

画像クレジット: Nvidia

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AI特化型インキュベーターのディープコアが60億円ファンドを設立へ、LPには親会社のソフトバンクも

写真左より、ディープコア代表取締役の仁木勝雅氏と、新ファンドの第1号案件となったVAAK代表取締役の田中遼氏

AI特化型インキュベーターであるディープコアは5月31日、シード・アーリー期のスタートアップ投資を目的としたファンド「DEEPCORE TOKYO」を設立したと発表した。同社が目標とするファンド規模は総額60億円だ。

設立時にも紹介したディープコアは、主にディープラーニングを中心とするAI領域でビジネスを行うスタートアップを対象としたインキュベーターだ。同社は2018年夏に東京の本郷にコワーキングスペース「KERNEL HONGO」をオープンする予定となっている。

ディープコアが今回立ち上げたファンドは、シードラウンドやシリーズAラウンドでの投資を目的としたもので、今年12月のファイナルクローズまでに約60億円の出資金を集めることを目指しているという。現時点で、LPにはディープコアの親会社であるソフトバンクグループのほか、ソフトバンク、ヤフーが参加することが決定している。

ディープラーニングを活用するスタートアップがまず必要とするのは、計算資源を整えるためのまとまった資金だ。ディープコアはその資金を直接スタートアップに供給するとともに、ソフトバンクグループが出資するNVIDIAの計算資源と技術コンサルティングを提供するとしている。これは、ディープラーニングを活用してビジネスを立ち上げたい起業家にとって大きなメリットとなるだろう。

ファンド運営を担当する渡邊拓氏は、「当社の調べでは、ディープラーニングを活用したビジネスを行う日本のスタートアップは、米国と比べて10分の1程度の数しかない。コワーキングスペースの運営から出資まで一貫して行うことで、その数を増やしていくことが目的だ」と語る。

ところで、ディープコアはソフトバンク子会社であるものの、彼らはその事実を積極的にアピールはしていない。その理由として、同社CFOの雨宮かすみ氏は「ディープコアのミッションは、ソフトバンクグループとシナジーを生み出すスタートアップを発掘することではなく、日本におけるAIスタートアップのエコシステムを活性化すること」だと語り、“ソフトバンクグループ色”を前面に出さずによりオープンな支援を行なっていくためだと説明する。

ディープコアによれば、同社はすでに防犯カメラの映像解析を手がけるVAAK(約5000万円)と、名称非公開のスタートアップ1社への出資を実施済みだ。同社は今後も1社あたり数千万円程度の出資を続け、最終的には100社近くのAIスタートアップに出資を行っていくという。

freeeにAIが会計上のエラーを自動チェックする新機能、今後は修正提案の自動化も

近年さまざまなWebサービスの登場によって、これまで手間のかかっていたアナログな作業の効率化、自動化が進みはじめている。「クラウド会計ソフト」の知名度が増してきている会計の領域は、まさにこの代表的な例といえるだろう。

クラウド会計ソフトといえば、銀行口座と連携することで入力や仕分けを自動化したり、領収書などのデータをスキャンすることで電子化したりなど、「入力業務」の負担を大きく削減してきた。それだけでも大きな効果があるが、会計業務にはテクノロジーによってさらに効率よくできる部分がまだまだ残されている。

クラウド会計ソフト freee」を提供するfreeeが5月28日にリリースしたのは、会計上のエラーを自動でチェックする「AI月次監査」機能だ。同機能は試算表の作成に必要な月次監査業務を効率化するもので、まずは会計事務所向けに提供する。

会計上のエラーを自動でチェック

月次監査とは、会計士や税理士が毎月顧問先の企業に対して行っている業務のひとつだ。残高試算表や仕訳帳をチェックし、請求書や領収書、立替経費などと照合を行った上で、月次試算表を確定。それをもとに経営や経理処理上のアドバイスを行い、月次報告書としてまとめて顧問先に送付する。これらの一連のプロセスを指す。

税務においてはもちろん、経営状況を把握するという意味でも重要な業務である一方で、freeeの担当者によると「これまではアナログかつ属人的な側面が強く、効率化のニーズがあった」という。具体的には資料のチェックがひとつひとつ目視で行われ、スタッフによって知識のレベルやチェックの質がバラバラであることも珍しくないそうだ。

「たとえばあまり知見のないスタッフが担当すると、同じような間違いを複数繰り返してしまっていることもあるが、それをアナログで見つけるのはかなり難しい。あらかじめルールを設定することで、ある程度機械的にチェックをすれば負担は軽減できる」(freee担当者)

AI月次監査機能では、貸借対照表や損益計算書の各勘定科目について「税務上のルールとの相違」「freeeを利用する際に発生しやすい作業漏れや誤り」「過去との変動率が大きいなどの異変」に基づいて、修正の必要がありそうな仕訳を自動で探し、ハイライトする。

また該当する仕訳を修正すると「類似の仕訳」も自動で判定。これによって知識のスタッフが誤った仕訳をまとめて登録してしまっていたとしても、漏れなく修正点を探しやすくなる。

「入力業務」だけでなく「チェック業務」も自動化

今後は会計事務所がチェック項目を柔軟にカスタマイズできるようにするほか、エラーをチェックするだけでなく「どのように修正すべきか」を提案するところまで対応する予定。従来力を入れていた「入力業務」の自動化に加え、「チェック業務」の自動化をさらに進めていくという。

「ユーザーからも『データの電子化や自動仕訳など入力業務は自動化されていて楽だけど、それ以降のフローはまだまだ効率化できそう』といった声はあるし、会社としても強化していきたいという思いは強い」(freee担当者)

今回のAI月次監査機能については会計事務所向けとなっているものの、今後は一般ユーザー向けに機能を調整して提供していくを検討している。また、たとえば資金繰り計画の自動化など、経営の意思決定をサポートする機能にもAIを活用していく計画もあるという。

今後はこれまで以上にAIが会計業務をサポートする時代へと突入していきそうだ。

VR空間でAI講師が英会話を教える「Smart Tutor」開発元がDBJキャピタルとD4Vから150万ドルを資金調達

AI×VR技術を応用した英会話学習ツール「Smart Tutor」を開発するPlusOneは、5月16日にDBJキャピタルD4Vを引受先とする総額150万ドル(約1億6500万円)の第三者割当増資を実施していたことを明らかにした。

PlusOneは2016年8月、サンフランシスコを拠点に創業した。2017年3月にHTCのアクセラレータプログラム「Vive X」でエンジェルラウンドの資金調達を受けており、今回の調達は同社にとってシードラウンドにあたる。

PlusOneが英会話スクール向けに提供するSmart Tutorは、VR空間上で生徒がレッスンを受けられる英会話学習ツールだ。AIを搭載したヒューマン・ホログラム「Holosapiens」が生徒のスピーチを、発音・流暢さ・スピーチペースなど7つの評価指標でリアルタイム分析。スピーチ内容を客観的にスコア化することができる。

また、Holosapiensが発音などの基本的な指導や練習相手を不足する語学講師に代わって行うことで、講師の業務負担が軽減され、限られた時間でより多くの生徒を指導することができるという。

PlusOneでは、VR空間でのシナリオを作成するツール「WebTool」も提供。英会話スクールは自社コンテンツをVR内のコンテンツに手軽に変換でき、生徒へ割り当てることが可能だ。また、先生がWebTool上から生徒の練習状況や評価指標のトラッキングを行い、指導に生かすこともできる。

PlusOne CEOのJon Su氏は、ディズニー米国本社、日本支社、中国支社で6年間アートディレクターを務め、ディズニー ツムツムなどの人気アプリ作成にも携わった人物。自身の体験から「仕事の傍ら語学スクールに通うのはお金も時間もかかる。もっと効果的で、時間・空間に縛られない学習方法が必要だと強く感じた」と述べ、将来的に「誰もが手軽な値段で、時間・場所など物理的な制限に縛られることなく、良質な語学教育を受けられる世の中にしたい」と語っている。

また、プラスワンジャパン代表の栗原聡氏は英会話スクールの社長を務めてきた経験から、「既存の英会話教育は労働集約型で、良い先生を獲得するための採用コストや給料が経営を圧迫し、生徒の負担となる」と英会話スクールの経営課題について語る。「Smart Tutorは、AI技術により、先生のスキルに頼らない客観的評価を提供する。英会話教育を劇的に変えるソリューションだと感じた」(栗原氏)

Smart Tutorの料金は、組織用に1アカウント、講師用に5アカウント、生徒用に30アカウントが含まれているマスターライセンスで月額30万円から。

PlusOneでは今後、エンドユーザーへのVR浸透率やハードウェアの改良をみて、エンドユーザーが自宅からコンテンツにアクセスできるよう、Smart Tutorのプラットフォーム化も視野に入れていくとしている。

デザインスケッチからコードを起こすAIとコンピュータービジョンのUizardが80万ドルを調達

アプリケーションを作る工程には、誰かが描いたスケッチを見つめながらそれをコードに換えていく、面倒で時間のかかる関門がある。でも実際やってることは毎回同じだから、もっと楽にできるやり方があるはずだ。フロントエンドのデザインからHTMLやCSS、そして実働コードを起こしていくこれまでのソフトウェア開発は、費用も時間もかかり、かったるい反復作業が多い。

そしてこの問題を解決する方法の多くが、むしろかえって複雑だったりする。ワイヤーフレームのようなスケッチを単純にコードに換えてくれて、デベロッパーはアプリケーションのもっと難しい部分に集中できる、というやり方はありえないだろうか?

この課題に挑戦したのが、コペンハーゲンのUizardだ。

Uizardはコンピュータービジョンの技術とAIを利用して、ナプキンの裏に描いたようなラフスケッチのデザインを、バックエンドに挿入できるソースコードに換える。

このほど同社は、ニューヨークのLDV Capitalがリードするプレシードのラウンドで、80万ドルを調達した。このラウンドには、ByFounders, The Nordic Web Ventures, 7percent Ventures, New York Venture Partners, 起業家でDatekの協同ファウンダーPeter Stern、Philipp Moehring、AngelListのAndy Chungらが参加した。得られた資金はチームの増員とプロダクトのベータローンチに充てられる。

同社は2017年6月に最初の研究プロジェクト“pix2code”(画素をコードへ)を発表したとき注目を浴び、そのGitHub上の実装は、Facebook PrepackやGoogle TensorFlowの登場よりも前に、第二回mosttrendingプロジェクト賞を取った。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Microsoft、AIでボットとの会話をさらに自然に――Semantic Machinesを買収

今日(米国時間5/21)、Microsoftはバークレーを本拠とするスタートアップ、Semantic Machinesを買収したと発表した。現在のチャットボットはいかにもボットと分かる話し方をするが、Semantic Machinesは会話合成で最大の難題である「自然な話し方」をAIテクノロジーを利用して実現しようとしている。

Microsoftのブログで、AIと研究部門の最高テクノロジー責任者、David Kuは「MicrosoftはSemantic Machinesの買収でバークレーに優秀なAI会話のセンターを確保した。これにより各種のプロダクトの言語インターフェイスが大きく進歩することになる」と書いている。

われわれのCrunchbaseのエントリーによれば、Semantic Machinesは2014年に創立され、これまでにGeneral Catalyst、Bain Capital Ventures他から2090万ドルのベンチャー資金を調達している。

2016年にTechCrunch記事で同社の共同ファウンダー、チーフ・サイエンティストのDan Kleinは「現在の会話テクノロジーは大部分が個別分析的だ。しかし会話システムはコンテキストの認識ができなければならない。つまり単独では意味をなさないセンテンスであっても前後の文脈から正しく解釈できる必要がある」」と語っている。Semantic Machinesは記憶に重点を置いており、AIテクノロジーにより質問を正しく解釈したり答えたりできるだけでなく、人間の会話にさらに近い自然さを得られるとしている。この自然さはSiri、Googleアシスタント、Alexa、それにMicrosoft自身のCortanaなどのスマートアシスタントが獲得のために苦闘している目標だ。

Semantic Machinesはプロダクトを一般向けに販売するのではなく、エンタープライズにライセンスする道を選んだ。このためSemantic Machinesのテクノロジーは、Microsoftの各種のAI会話プロダクトに適合する。これにはMicrosoft Cognitive Services(ユーザー100万)、Azure Bot Service(ユーザー30万)の他にCortanaや中国語ボットのXiaolceでも利用できる。

画像: Natali_Mis / Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

人間が犯す言葉の聞き間違いをAIは正してくれるか?答はノーだ

昨日(きのう)(米国時間5/17)までの二日間、ヤニー/ローレル(yanny/laurel)論争に加わらなかった人は、本当に幸せ者だ。でも、それもそろそろ時間切れ。口コミで広まった合成音声がAIへの誇大な過信にぶつかり、そしてその結果は、この俗世のすべてがそうであるように、幻滅だった。

AIによる音声認識ソフトウェアを作っているSonixが、その曖昧な音の断片を、GoogleとAmazonとIBM Watsonと、そしてもちろん自社の、文字書き起こしツールに与えてみた

GoogleとSonixは最初からうまくいった。ちなみに、正解は“laurel”だ。yannyではない。 Laurelだよ。

しかしAmazonは、そのロボット的な声に対して、何度やっても“year old”を出力した。IBMのWatsonは、驚いたことに、半分正解…“yeah role”と“laurel”をかわるがわる繰り返した。だからある意味では、Watson氏がいちばん人間的だ。

上: Amazon; 下: IBM。

SonixのCEO Jamie Sutherlandは、各社の機械学習モデルを実際に調べたわけではないから、その不均一な結果に対してコメントはできない、と言った。

“ご存知のように人間の声はとても複雑で、声量や抑揚、アクセント、周波数などがそれぞれ違う。おそらく各社が最適化のターゲットとしているユースケースが異なるから、結果も違うのだろう。音声認識のモデルをすべての声に対応させることは、難題だ”、と彼は言う。

無知な傍観者としてのぼくの推察は、声の周波数に対するプライオリティの取り方/与え方が、各モデルで違うのだろう。そんな気がするね。

明らかに欠陥がある人間の聴覚と認識能力に基づいて作られているシステムに、権威ある正しい判断を求めるのはそもそもおかしいのだが、でもだからこそ、おもしろい実験だった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AIを利用して神経障害を治療するBrainQが$5.3Mを調達、世界最大の脳波データベースを持つ

イスラエルのBrainQは、脳卒中の後遺症や脊髄の損傷などで障害を抱える人びとを、個人化された電磁療法で治療している。同社はこのほど、これまでの350万ドルに加えて新たに530万ドルを調達したことを、発表した。その投資家たちは、Qure Ventures、クラウドファンディングのOurCrowd.com、Norma Investments、IT-Farm、そしてValtech CardioのファウンダーでCEOのAmir Grossなど数名のエンジェル投資家たちだ。

本誌TechCrunchが今年の初めにBrainQを取材したときには、彼らはイスラエルの脳卒中患者を対象とする2件の臨床試験を行っていた。当時の同社は最初の資金調達ラウンドを完了したばかりで、GoogleのLaunchpad Acceleratorとの協働も開始していた。

BrainQは、患者の脳波を利用して、その人に合った治療計画を作る。AIは、どんなに優れたアルゴリズムでも、データがなければ何の役にも立たない。BrainQによると同社には、運動能力に関する世界最大の、Brain Computer InterfaceベースのEEGデータベース(脳波図/脳電図データベース)があり、それを利用して患者の脳波を解釈し、治療計画を作りだす。

BrainQの脳波読み取りデバイス

“今われわれは、新しい時代の入口に立っている。これからはAIをベースとする精密医療が神経障害の治療に使われていく。ただしまだ現状では、十分なソリューションが存在しない”、とBrainQのCEO Yotam Drechslerが今日の発表声明で述べている。“BrainQでは、神経障害の治療のためにこのビジョンが現実化していく機会に、喜びを感じている。短期的には、われわれはすでに相当量の成果を達成し、われわれの技術をさらに前進させ利用を拡大して行ける機会を目前にしている。それによりBrainQは、BCI(brain-computer interface)ベースの精密医療における世界的リーダーになるだろう”。

イスラエルのスタートアップによくあるように、同社のチームにも国の諜報部門の優秀な出身者が含まれ、またAIや神経科学の学者や研究者たちが顔を揃えている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AIでお利口になったGoogle NewsアプリがiOSとAndroidに登場

Googleは先週のI/Oイベントで、AIで強化したNewsアプリの新バージョンを披露したが、今日(米国時間5/15)ついにその新装アプリのiOSバージョンAndroidバージョンが127か国でローンチされた。この、設計もデザインも一新されたアプリは、これまでGoogle PlayにあったNewsstandアプリをリプレースする。

ニュースの発見や消費が前よりも容易になり、ユーザー体験を読者がカスタマイズでき、そして各種のメディア刊行物をこのアプリからサポートする。AIが読者の嗜好から学んでその人向けのコンテンツを提供するが、アプリ全体のデザインとレイアウトはきわめてすっきりしている。

アプリを開くと‘For You’(おすすめ)タブがあり、現時点の上位5つの記事や、あなたに向いていると思われるオピニオン、その下の長い読み物などがある。

‘Headlines’(ヘッドライン)というタグは最新のニュース集で、国際、国内、ビジネス、テクノロジー、エンタメ、スポーツ、科学、健康などに分かれている。記事タイトルをクリックすると、関連記事や社説、オピニオン、ツイート、ビデオ、イベントのタイムラインなどのリストが表示される。

  1. google-news-3

  2. google-news-1

  3. google-news-2

ユーザーが設定するカスタマイズには、AIが介入しない。だから好きなトピックやニュースソース、位置などを自由に指定できる。これは良い! 検索や記事を保存しておけるし、それらを一発で呼び出せる。

‘Newsstand’(ニューススタンド)というセクションでは、好きなメディアを指定できる。雑誌は1000種以上に対応しているそうだから、その中から好きなやつをタップして選ぶ。ただしこのセクションは、まだ建設途上のようだ。完成していない。

これもまだ未来形の機能である“Subscribe with Google”(Googleから購読する)では、各種メディアをGoogleのアカウントで有料購読できる。決済情報は、Google上のそれが使われる。それらのコンテンツは、NewsだけでなくGoogle Search(検索)や発行者のWebサイトでも閲読できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AdobeのCTOはAIへの取り組みを率先して押し進めている

現在まともな会社なら、人工知能(AI)に対して、全く何の取り組みもしていないということは考えられない。こうした組織は、この先どう展開して行くかは完全には理解していないとしても、AIがゲームチェンジャーになることを理解している。

3月に開催されたAdobe Summitで、私はAdobeのエグゼクティブVPでありCTOであるAbhay Parasn​​isに話を聞くことができた。話題は多岐にわたり、次の10年のために構築するクラウドプラットフォームや、そこでAIがどれほど大きな役割を果たすかなどについての話を聞くことができた。

Parasn​​isは、同社の技術戦略の方向を設定する、典型的なCTOの役割を始めとして、幅広い責任を負っていると語ったが、もちろんそれで終わりではない。彼はまた、コアクラウドプラットフォームの運用と、AIとSenseiを含むプラットフォーム構築のためのエンジニアリングを担当している。この役割には、数千人に及ぶエンジニアリングチームの管理も含まれている。また、全てのデジタルインフラストラクチャとIT部門に対しても、多少の責任を負っている。

これからの10年

Adobeが箱売りのソフトウェア企業から、サブスクリプションベースのクラウド企業に変わり始めたのは2013年のことだった。これはParasnisが入社するずっと前のことである。それは大成功をおさめているが、Adobeはそのことが、長期的な生き残りのために単に箱売りソフトウェアを捨て去ってしまう事以上の意味を持っていることを知っていた。Parasnisがやってきたとき、次のステップは、少なくとも10年は長持ちするような柔軟性を持たせるように、基礎プラットフォームを再構築することだった。

「次世代プラットフォームを考え始めたとき、私たちは何のために構築したいのか考えなければなりませんでした。それはとても気分を高揚させる体験でしたが、私たちは10年もつようにそれを作り上げなければなりませんでした」と彼は語った。特に技術が急速に変化している現在は、時間が経つにつれて多くのものが変化する可能性があるため、大きな課題が待ち構えている。

これは、時間の経過とともに、そうした変更を受け容れることを可能にするための柔軟性を持たなければならないことを意味している。同社はもちろん、ARとVRのような臨場感あふれる技術同様に、音声技術も将来への種として考え始める必要があった。そして彼らの基礎プラットフォームはそうしたものを支えられるような適応性の高いものでなければならなかったのだ。

すべてにSenseiを

しかし、Adobeには、AIに関わる万全の準備を整える必要もあった。それこそがおよそ18ヶ月前に同社が、新しいプラットフォームの中核としてAIを開発する戦略的決定をした理由なのである。彼らは、開発者向けのより汎用的なAIを狙っている多くの企業があることは知っていたが、彼らのビジョンはそれとは異なるものだった。それはAdobeの中核機能にしっかりと焦点の当たったものである。Parasn​​isはこれを、同社のクラウドプラットフォーム戦略の重要な部分と見ている。「AIはテクノロジーの中で最も変形力の強いものになるでしょう」と彼は言った。そして「Senseiは、これまで私が最も多くの時間を費やしているものです」と付け加えた。

写真:Ron Miller

同社は、より大きな人工知能の目標を念頭に置いた、新しいクラウドプラットフォームを考え始め、コアプラットフォーム機能を扱うための、AIを取り込んだアルゴリズムを構築し始めている。社内での利用を経て洗練された後、次のステップでは、これらのアルゴリズムをサードパーティの開発者たちに公開して、AdobeのAIツールを使用してそれぞれのアプリケーションを構築できるようにすることだ。

そのサービスがAIを含んでいようがいまいが、結局これは古典的なソフトウェアプラットフォーム作戦なのだ。BoxからSalesforceに至るまで、クラウド企業はそのサービスを何年も公開して来た。開発者たちはクラウド企業の専門知識を利用することで、自分たちの中核機能に集中することが可能になる。開発者たちはストレージやセキュリティなどを、初めから構築する必要はない。そうした機能は、専門知識が詰め込まれ、アプリケーションへの簡単な導入手段が提供されたプラットフォームから、取り込むことができるのだ。

ここで差別化を可能にしているのが、そこにはAdobeの中核機能が組み込まれているという点だ。このことでAdobe Experience Managerの中での自動トリミングやスマートタギングが可能になり、Creative Cloudの中でのAIを用いたビジュアルストック検索なども可能になる。これらは、Adobeのソフトウェア体験に不可欠な機能である。同社はこれらをAPIとしてパッケージングして、開発者たちが自身のソフトウェアの中で使用できるように提供している。

Senseiが今後10年間Adobeのクラウドプラットフォームを駆動する技術であるかどうかにかかわらず、Parasn​​isと会社はそのビジョンに真剣に取り組んでいる。今後数カ月そして数年のうちに、Adobeがより多くのAIアルゴリズムをプラットフォームに組み込み、それらを開発者たちにソフトウェア開発用として提供していくにつれて、私たちはより多くの発表をAdobeから聞くことになるだろう。

Parasn​​isはもちろん、これを現在進行形のプロセスだと認識している。「やらなければならない仕事はまだ沢山ありますが、私たちのアーキテクチャはとても良い方向にスタートを切ることができました。AIはその非常に重要な部分となるでしょう」と彼は言った。

[原文へ]
(翻訳:Sako)

AI自動運転レースカーがプロドライバーとタイムアタック合戦。26秒差で破れるも格段の進歩

eng-logo-2015AI搭載の自動運転EVレースカーによる無人レース開催を目指すRoboraceは、4月にイタリアで開催されたローマePrixにて開発車両DevBotのデモ走行を実施、人間とのタイムアタック合戦を披露しました。

以前のデモ走行では、コースの直線部分ではそこそこのスピードを出スことができたものの、カーブを曲がりきれずに壁にぶつかっていたRoboraceの開発マシンDevBotですが、その後も地道に開発は継続中。

フォーミュラE ローマePrixが開催される特設サーキットでのデモ走行では、Devbotのコクピットにドライバーが乗ったときと無人走行のとき、それぞれのタイムを競うという、ちょっとした催しがありました。コクピットに収まったのはプロドリフターのライアン・チュークです。

ライアン・チュークはドリフト競技のドライバーであるため、事前にフォーミュラEチャンピオンでRoboraceのCEOも務めるルーカス・ディ・グラッシに、ドライビングの手ほどきを受けました。とはいえ、初めて乗るマシンと不慣れな公道コースのせいもあり、練習走行では何度かカーブを曲がりきれずにオーバーシュートするシーンを見せていました。

しかし、そこはプロドライバー。いざタイムアタックに出れば、さらっと1分51秒台のタイムを記録して帰ってきました。これに対し、DevBotの自動運転によるラップタイムは2分18秒台でしかなく、約26秒という大差でライアンの勝利となりました。

レースカーのドライブは人間が持つ感覚と反射神経が物を言います。たとえばカーブでマシンがスライドすれば生身のドライバーは瞬時にカウンターステアを当てつつアクセルをコントロールして危機回避行動をとります。

これをロボットカーで再現しようと思えば、イメージセンサーとLiDARだけでなくGセンサーやアクセル開度などの数値を参照して瞬時に適切なステア舵角などを出力できる必要がありそうです。まして、まともにレースをしようとするならば、タイヤの温度や路面の汚れ具合まで感知できなければ安全には走れません。もし接触やクラッシュがあればコース上に落ちるデブリの認識や回避も必要になります。

しかし考えようによっては、いまこの時点での26秒という差は、もしかするとかなり小さなものなのかもしれません。Roboraceは2018年内にはDevBotが人間と同等の速度域に到達できると自信満々。もしそうなるならば、Roboraceから一般的な自動運転車開発メーカーへの技術供与なんてことも起こり得るのかもしれません。

Engadget 日本版からの転載。

AIと創造性:アルバムコラボレーションの未来

【編集部注】著者のTaryn Southernは、デジタルアーティストであり映画監督でもある。彼女は現在、脳に関するドキュメンタリーを共同演出している。また彼女の音楽アルバム”I AM AI”は今年9月にリリースされる予定である。YouTuberとして、彼女は1000本以上の動画を制作し、5億回以上の再生数を数えている。

1年前に、私はアルバム制作に取り組み始めた。私はボーカル用のメロディと歌詞を書いていて、私のパートナーが全体の作/編曲を行っている。私たちはどちらも楽器を担当し、お互いを補い合っている。この関係における唯一の奇妙な点は…私のパートナーが人間ではないということだ。

それはAIなのだ。

この関係は好奇心から生まれたものだ。恐怖を煽る「見出し」が私のニュースフィードを埋め尽くした時期があった…たとえば「AIが私たちの仕事を、データを、そしてついには魂までをも奪う」といった類のものだ。

この議論は私に疑問を残した。AIの世界では本当は何が起きているのだろうか?私は偶然、AIが音楽を作るためにどのように使われて来たかを解説した記事に出会った。簡単なGoogel検索をしてみた私は、作曲は氷山の一角にすぎないことに気が付いた。AIは詩も書けば、フィルムの編集も行い、そしてアートを合成し…果てはチューリングテストにさえ合格していたのだ。

もっと知りたいと思った私は、手に入れることのできるすべてのAI音楽制作ツールを試し始めた。まず手始めにAmper、そしてAivaを使った。その後IBM WatsonとGoogle Magentaを使った(この世界には他にも数え切れないほどのツールが存在している、2,3例を挙げるなら、AI Music、Jukedeck、そしてLandrなどもある)。

私のサイドプロジェクトは、急速に本格的アルバム(”I AM AI”)制作へと進化した。これには人間と技術の間の希薄な関係を探求する一連のバーチャルリアリティーミュージックビデオを伴っている。昨年9月、私はAmperで制作した最初のシングルBreak Freeをリリースした。これはクリエイティブコミュニティで広範囲な注目と関心を引きつけた

多くの人が私に質問してきた:AIがあなたよりも創造的になる恐れがあると思うか?私の答は「いいえ」だ。多くの点で、AIは私がより創造的になる手助けをした。その際に、私の役割を編集者やディレクターのようなものへと変えながら。私はAIに(学習のためのデータ、または出力のためのパラメータの形で)指示を与える、するとAIが素材を出力してくるので、私はそれを編集しアレンジして、まとまりのある曲を作り上げるのだ。またAIを使うことにより、私はボーカルのメロディ、歌詞、ミュージックビデオなどの、創造の他の側面に向けて、多くの時間を割くことができた。それはただこれまでのやりかたとは違うだけで、創造的であることには変わりがない。とはいえ、先端技術恐怖症の人びとよ、安心するが良い:AIはまだ完璧な仲間ではない。

AIと共に進化する私たちの世界の未来は、誰にも予測できないが…私は楽観的だ。

AIとのコラボレーションプロセスを取り巻く謎は、まだ多く残されているので、会話の基本認識を擦り合わせるために、その内容を分解してみることは有益である。以下に私が使用した主要なプラットフォームと、それぞれとのコラボレーションから得た私の気付きを紹介して行こう。

  1. Amper 何人かのミュージシャンたちによって共同創業されたAmperは、商用のオリジナルスコアを作曲するためのプラットフォームとして出発した。現在は無償で一般公開されている。AmperはシンプルなUIを提供していて、そこではBPM(曲の速さ)や楽器編成、そして気分などを変えることができる。コードに関する知識は不要だ!

気付き:Amperを使い始めるまでは、私は異なる楽器の音を聞き分けていなかったし、自分が特定の音楽的好みを持っているとも思っていなかった。いまや、私は数十の楽器の音を聞き分け、特定の創造スタイルに磨きをかけている。たとえば、私は電子シンセサイザーを、ピアノと深みのあるベースとミックスすることをとても好むようになった。それは私が制作した360 VRミュージックビデオである以下のLife Supportの中で聞くことができる。

  1. AIVA:Aivaは、受賞歴のある深層学習アルゴリズムであり、初めて著作権協会に登録されたシステムだ。私は最初にロンドンで創業者の1人Pierre Barreauと会い、クラッシックの学習スタイルをポップス/シンセサイザーなどの楽器と組み合わせる機会に対して、本当に興奮した。AIVAは深層学習と強化学習を使用して、何千ものクラシック音楽を特定のスタイルで分析し、新しいスコアを作成する。

気付き:私がAIVAを用いた最初の曲Lovesickは、ロマン主義運動後期(1800年代の初期から中期にかけて)の数千曲の音楽を分析することで作成された。その結果、ウェストワールド風のピアノ曲が得られ、それを私が電子シンセサイザーを用いてポップファンク風にアレンジした。そのような馴染みのない素材とのコラボレーションは、これまでの思い込みを打ち破るという意味で非常に楽しいものだった。曲をアレンジしているときには、私は本当に私の「ポップスタイル習慣」の多くを無視しなければならなかった。

  1. Watson Beat(IBM):Watson Beatはフロントエンドを持っていないが、IBMの優秀なエンジニアたちが私に、始めるためのチュートリアルをいくつか教えてくれた。とはいえ、コードの扱いに対して自信をもっているならば、無償のオープンソースプログラムとしてGitHubからダウンロードすることが可能である。数日のうちには、私はシステムの操作に慣れていた。古いお気に入りの曲を入力して、スタイルにヒネリを入れた沢山の音楽の素を作り出してみた(たとえばペルー風ワルツのスタイルで演奏されるメリーさんの羊を想像できるだろうか?)。

気付き:私は、さまざまなデータ入力を、想像もしないジャンルとミックスした結果を楽しんだ。さらにそれによって、私の創造的なアイデアを支配している根本的な影響により多く気付くことができた。出力はMIDIで得られるので(これに対してAmperの出力はWAVあるいはMP3ファイルである)、演奏に際してアーティストたちは音符を自由に移調することが可能である。ありそうもない音楽のスタイルへと当てはめて行くことで、私はすっかりシンセサイザーの虜になった。Watson Beatを使った最初の曲は、今夏リリースされる可能性が高い。

  1. Google MagentaWatson同様に、MagentaはGithub上で無償で公開されるオープンソースである。簡単なフロントエンドを提供するツール(たとえばAI Duetsなど)も存在し、多少バックエンドのコーディングに関する知識が必要なものもある。クールなのは、Googleが備えとして提供しているツールの範囲と数である。おそらくプログラマーたちにとって最も強力な仕掛けだろう。

気付き:Magentaのツールでは、作曲だけに注意を向ける必要はない。サウンドを分析することも可能だ。例えばNSynthでは、2つの異なる楽器の音を組み合わせることができる(猫とハープをミックスしてみよう!)。Googleには、音色や振動の品質を調べるアルゴリズムがあり、多くのエキサイティングなアプリケーションが用意されている。

AIが人間の「特殊性」に関する多くの疑問を引き出すのは驚くべきことではない…しかし私たちは間違った議論に焦点を当てているのかもしれない。人類は常にテクノロジーと共に進化している。そして重要なのは私たちがAIをどのように利用するかの選択なのだ。私はこれが、氷山の一角に過ぎないと信じている…そしてそれは私たちが想像もできないような創造性を解き放つことになるだろう。

正式な音楽訓練を受けていない新しい物好きの人たちにとって、AIは非常に魅力的なツールとなるだろう ―― 単に学習のためではなく、自己表現の入口として。今や、誰でも、何処でも、音楽を作り上げる能力が手に入ったのだ ―― そして表現へ向かう渇望と能力こそが、私たちを人間たらしめているのだ。

[原文へ]
(翻訳:Sako)

Google Clipsがハグやキスなど貴重な瞬間を認識してばっちり撮影する

【抄訳】
AIを山盛りにした“スマートカメラ”Clipsがさらにスマートになったことを今日(米国時間5/11)、Googleが発表した。とくにそれの、‘特別な瞬間’を捉える能力が進化した。たとえば、ハグとかキスなんかだ。ジャンプやダンスなんかも捉える。プライベートな特別な瞬間をすべて、苦労せずに撮っておきたければ、ぜひ利用しよう。

でも、すこし、説明をしたい。

Google Clipsは、画期的な消費者製品というよりも、今の人工知能の能力を写真撮影に使ったらこんなことができる、という概念実証のような製品だ。

両親も犬もいる私なんか、まさにこのカメラのターゲットだ(かわいい犬だよん)。でも私は、撮るのが難しい瞬間を捉えることのできるスマートカメラを欲しいとは思わない。うちの子や犬が、カメラの前でじっとしててくれるとしてもね。

なぜ欲しくないのか、その説明は難しい。写真が自動的にクラウドにアップロードされて公開されるからではない。というか、勝手に自動的にアップロードされることはない。寫眞はカメラ本体の16GBのストレージに保存され、あとで見たりシェアしたり消したりできる。お値段は、最近50ドル値下げされても199ドルとお高いが、欲しくないのは値段のせいでもない。

問題はたぶん、このカメラの‘思想’だ。

ある瞬間を完全にエンジョイするためには、それをカメラで捉えなければならない、という思想。しかしそのためには、生活や仕事をそっちのけにして、カメラやスマートフォンを手に持ち、その瞬間を逃さないようにしなければならない。子どもと遊んでるときも、犬にボールを投げてやっているときも。そしてこの問題への唯一の解が、テクノロジーの屋上屋を架すこと(テクノロジーの過剰)であること。カメラ(やスマートフォン)のことを忘れてもよい、ことであってほしいね。

もうひとつ、いらつくのは、すべての貴重な瞬間を写真やビデオに撮る、というClipsの思想。実際には、一瞬で過ぎ去ってほしい瞬間もある。記憶に残るだけでよいものもある。いろんな瞬間が積み重なって絆(きずな)や愛になるけど、その全部を撮らなくてもいい。

何もかもを写真で残す必要はない。

どうしても撮りたい瞬間、赤ちゃんが初めて歩くときとか、忙しすぎてパーティーのスナップ写真を撮れないときなどは、スマートフォンのカメラを“Google Clips”モードにすればよい。そう考えると、199ドルは高い。

【後略】

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AIでロゴを自動的にデザインしてくれるTailor Brandsが$15.5Mを調達

中小企業にブランド戦略とマーケティングサービスを提供するTailor Brandsが今朝(米国時間5/9)、シリーズBで1550万ドルを調達したことを発表した。

CEOのYali Saarによると、同社はデザインと機械学習が交わるところに位置している。というのは同社が、ロゴのデザインとコピーライティングとソーシャルメディア戦略を理解する技術を作っている、という意味だ。

同社の自動的に作られるロゴデザインは、すぐに人の目を引く。Tailor BrandsのWebサイトで、それを体験できる。有料で高品質な画像ファイルにもアクセスできるが、文字だけのロゴなら、あなたの会社に関する情報をいくつか入力すると、1分足らずで無料で作ってくれる。〔日本語文字はまだサポートされていない。〕

下図は、そうやって作ってもらった本誌TechCrunchの新しいロゴだけど、どうかな?

techcrunch tailor brands

Tailor Brandsは2014年の本誌TechCrunchのStartup Battlefieldでローンチし、これまでにロゴを4500万個作った、という。昨年の顧客数は386万で、毎月50万社ずつ増えているそうだ。

今回の投資ラウンドをリードしたのはPitango Venture CapitalのGrowth FundとBritish Armat Group、これにDisruptive TechnologiesとMangrove Capital Partnersが参加した。これで同社の調達総額は2060万ドルになる。今度の資金の主な用途は、グローバル展開と、多言語化、そしてブランド戦略のためのツールをもっと増やすことだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa