ロスアラモス研究所からのスピンオフ、AIベースの地理空間画像分析のデカルトラボが約22億円を調達

衛星画像には産業、科学、人道上の問題解決に役立つ情報が豊富に含まれている。ただ従来の大きな課題は多様なデータを特定の用途に活用する効果的な方法がなかったことだ。

良質な分析を求める声は常にあった。その声に応える分析技術を開発するスタートアップが事業拡大に向けた資金調達ラウンドを発表した。米国ニューメキシコ州サンタフェを拠点とする地理空間画像分析のスタートアップであるDescartes Labs(デカルトラボ)は10月11日、2000万ドル(約22億円)の資金調達完了を発表した。CEO兼創業者のMark Johnson(マーク・ジョンソン)氏は筆者に、今回のラウンドは次の大規模ラウンドまでのつなぎ資金を得ることが目的だと語った。

資金調達はUnion Grove Venture Partners(UGVP)がリードし、Ajax Strategies、Crosslink Capital、March Capital Partners(前ラウンドをリード)も参加した。Descartes Labsの資金調達総額は6000万ドル(約65億円)となった。ジョンソン氏はバリュエーションを公表しないと述べているが、PitchBookによるとポストマネーで2億2000万ドル(約240億円)、プレマネーで2億ドル(約220億円)とのことだ。

比較の対象としては、同じく地理空間情報分析のスタートアップであるOrbital Insightが4億3000万ドル(約470億円)のバリュエーションで資金調達中との情報がある。この情報は今年1月のもので、資金調達が完了したかどうか、TechCrunchは同社に問い合わせている。

退職者に人気があり観光が最大の産業であるサンタフェでハイテクスタートアップを見つけることはまずない。Descartes Labsがサンタフェにあるのは、その近くに拠点を置くロスアラモス国立研究所から同社がスピンオフしたためだ。

サンタフェに本社を置くのは創業後半年程度だろうと思っていた、とジョンソン氏は言う。同氏は以前サンフランシスコに住んでいて、Descartes Labsの立ち上げ支援のためにサンタフェに来た。彼は以前メディア用アプリのZiteの開発に関わった経験があるため、ロスアラモスの科学者たちはDescartes Labsが検索エンジンの会社だと思ったようだ。

従業員がより多様な場所から働く傾向があること(及びそれを可能にするクラウドコンピューティング)、多くのエンジニアが物価の高いサンフランシスコに代わる場所で仕事を探していること、シリコンバレーで人材獲得競争が熾烈になっていることが、Descartes Labsの本社をサンタフェに置く要因となった。

独創的な哲学者かつ数学者であったルネ・デカルトにちなんで名付けられたDescartes Labsは、自身を「データ精製所」と形容する。意味するところは次のような内容だ。まず地球に関する大量の画像と非構造化データを取り込む。データソースは主に衛星だがセンサー類もある(ジョンソン氏によれば、データソースには一般に利用が公開されている衛星からのデータ、NASAおよび欧州宇宙機関からのデータ、企業からのデータがあるという)。次に、コンピュータービジョン分析や機械学習などのAIベースの手法を適用して、粒度の低い画像を意味のある情報に変換する。最後に情報の精度を高めて、地球で何が起こっているのか、今後はどうなりそうなのかについて洞察を得る。

地球の表面だけでなく上空で起こっていることも捉える。Descartes Labsは、油田のメタンガスレベル、山火事の広がり、特定の地域で作物がどのように成長するか、また、そうしたものに気象が与える影響などを情報として抽出するプロジェクトに取り組んでいる。

Descartes Labsの顧客は政府(上記のメタンガスの調査をニューメキシコ州の温室効果ガス排出削減の取り組みの一環として委託した)、エネルギー大手企業、アグリビジネス、トレーダーなど多様だ。

「オンラインで利用可能になる全てのデータを顧客が活用できるようにしたい」とジョンソン氏は言う。例えば、銀行が商品作物の取引価格や、もっと踏み込んで作物の土壌組成の変化が価格にどう影響するか予測できるようになる。

Descartes Labsの研究がエネルギー産業と結びついたことが、「データ精製」という言葉に深みを与えている(石油やガスの精製を連想させる)。ただデータが倫理的に正しい目的のためにのみ使用されるのか疑問に思っている人もいるかもしれない。ジョンソン氏は、同社が潜在顧客を事前に調査し、提供するデータが前向きな目的のためかどうかを判断すると説明した。

ジョンソン氏は「顧客の効率性追求を支援できると思う。地球のデータを見る人は、地球のことを気にかけているし、持続可能性を高めるよう努力している」と述べた。

またジョンソン氏は筆者の質問に対して、これまでDescartes Labsが特定の国や顧客との仕事を禁止されたことはなかったが、データが現代の油田であり力の源泉となりえる以上、将来は問題になる可能性があると答えた。例えば、Orbital InsightはCIAのベンチャー部門であるIn-Q-Telの支援を受けている。

将来に向けて、Descartes Labsは地球のデジタルツイン(物理的な空間の情報をコンピューター上で再現したもの)を構築している。画像をうまくモデル化し、さまざまな地域からのデータをきれいにつなげるためだ(結局、世界のある地域での気候変動は必然的に別の地域に影響を与えるものだ)。デジタルツインは、企業がAIによる精度の高い将来予測を行う際に適用する一般的な概念だ。例えば、Forward Networksが企業のネットワークのモデルを構築してアプリの動作や停止の背後にある理由を特定するときに採用するアプローチだ。

Descartes Labsは資金調達ラウンドの発表のほかに、Phil Fraher(フィル・フレイハー)氏を新しいCFOに指名し、エネルギーイノベーションディレクターのVeery Maxwell(ベリー・マックスウェル)氏と、UGVPを共同設立したPatrick Cairns(パトリック・ケアンズ)氏を取締役会に迎えると発表した。

[原文へ]

(翻訳:Mizoguchi)

AIで消防士の安全を守るスタートアップ「Prometeo」がIBMのCall for Codeチャレンジで優勝

ニューヨークの国連内にあるカフェ、Delegates Dining Roomで行われたイベントで、IBMは毎年恒例の「Call for Code Global Challeng」の優勝者を発表した。世界的問題のコンピューターによる解決を目的としたコンテストで、救急の初期対応から医療情報まで5組が表彰された。

Prometeoは、ワトソンを使った消防士のためのAIソリューションで最優秀賞を獲得した。33歳の熟練消防士率いるチームは、作業中の医療と安全に関する情報を、長期および短期にモニターするツールを開発した。スペイン拠点のスタートアップが開発したスマートフォンサイズのデバイスは、利用者の手首につけて温度、煙、湿度などを測定する。

「カラーシグナルがグリーンなら消防士の健康状態はOK」と共同創業者のSalomé Valero(サロメ・バレロ)氏がIBMのサイトで説明した。「カラーシグナルがイエローやレッドになったら、指令センターが行動を起こす必要がある。救助あるいは消防士を現場から退避させるための緊急行動を起こさなくてはならない」

チームはこのデバイスをスペインでテスト展開する準備を進めているが、プロジェクトの資金源も探している。IBMからの賞金20万ドル(2160万円)がいくらか助けになるはずだ。

第2位は、インド/中国/米国拠点のSparrowで、自然災害時の身体的・心理的な健康状態を扱うプラットフォームを開発した。U.C.L.A(カリフォルニア大学ロサンゼルス校)のチームは似たコンセプトのRoveで、第3位に入った。

Call for Codeは5年間のプログラムで、世界で起きている社会問題に取り組むチームたちに総額3000万ドル(32億円)を授与することを目的としている。

[原文へ]

(翻訳:Nob Takahashi / facebook

米国のAlexaがスペイン語を話す、多言語モードでも

先週シアトルで行われたAmazonのハードウェアイベントで、米国とカナダとインドにおいてAlexaデバイスの多言語モードをローンチする計画が発表された。すなわちこれらの国々ではAmazonの音声アシスタントが、英語とスペイン語、フランス語と英語、ヒンズー語と英語をそれぞれ話せる。そして米国時間10月11日のAmazonの発表によると、米国では多言語モードがEchoなどAlexa対応デバイスで実際に使えるようになった。ユーザーはスペイン語と英語を切り替えられるだけでなく、Alexaアプリの設定でスペイン語のみにすることもできる。

これによりデベロッパーは、スペイン語を話す人びとを対象とするプラットホーム向けのスキルを作れる。そしてスペイン語の音声がAlexaに新たに加わり、スペイン語圏のローカルな知識や、Univision、Telemundoなどが作った何百ものスペイン語のスキルが導入される。

米国でAlexaをスペイン語モードで使うには、Alexaアプリで「Español(Estados Unidos)」に切り替える。するとユーザーは、スペイン語でAlexaに、ニュース、天気予報、スマートホームデバイスのコントロール、備忘録(リマインダー)、スキルの起動などを求めることができる。

しかしこの多言語モードのもっと面白いところは、アプリで設定を変えなくても自然に、スペイン語と英語の切り替えができることだ。

たとえば、Alexaに天気予報を英語で求めると返事は英語だが、スペイン語で話すと返事もスペイン語になる。ひとつの家族内で両方の言語が使われている世帯ではとても便利だ。

スペイン語対応のオマケとしてAmazon Musicでは、米国で使うAlexaに最新のラテン系プレイリストをスペイン語でリクエストできる。それらは、Sin Filtro(シン・フィルトロ、都市系アーティスト)、Tierra Tropical(ティエラ・トロピカル、バチャータ、サルサ、クムビアス)、Puro Reggaeton(プロ・レゲトン)、Fierro Pariente(フィエロ・パリエンテ、メキシコの地方音楽)などだ。

Amazonによると、カナダ(英語、フランス語)とインド(英語、ヒンズー語)の多言語モードも提供される。ただしその日程は明らかでない。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

IVS LaunchPad準優勝の「DeepLiquid」をJFEエンジニアリングが完全子会社化

水質判定AI「DeepLiquid」を開発・提供するAnyTechは10月11日、プラント大手のJFEエンジニアリング(JFEE)と株式譲渡契約を締結し、JFEEの完全子会社となったことを明らかにした。

AnyTechは2015年6月創業の「AI×流体力学」スタートアップ。彼らが提供するDeepLiquidは、流体力学の知見を生かして独自開発した水質判定AIだ。監視カメラとAIを活用した動画解析により、水質の異常検知を即時に可能とする技術で、これまでのセンサーや人による水質監視と比較して、異常発見までの時間を短縮し、コストダウンするだけでなく、監視精度を高め、水質異常による設備の操業停止や水質汚染の拡散などのトラブルを減少することができる。

DeepLiquidは、今年7月に神戸で開催されたInfinity Ventures Summit(IVS) 2019 Summer KOBEのLaunchPadで準優勝を獲得。既に水処理施設やバイオ医薬品・化粧品・飲料製造工場、自動車関連企業といったさまざまな業種の企業に提供され、高評価を得ているという。

AnyTechでは株式譲渡により「JFEEの保有する水処理・ゴミ処理・製鉄・エネルギー領域をはじめとする各種プラントのアセットやデータを活用し、DeepLiquidのさらなる事業拡大や新規事業の創出を目指す」としている。

また、JFEE代表取締役社長の大下元氏は「この度の取組みにより、当社既存事業領域の幅広いアセットとAnyTechの革新的なAI開発技術を存分に生かし、全く新しい価値の創造が可能になると確信しています。 当社は、今後も積極的に、革新的な技術を有するスタートアップ企業やベンチャー企業への支援、協業を進めてまいります」とコメントを寄せている。

MITが米商務省のブラックリストに載った中国のAI企業SenseTimeとの関係を見直す

マサチューセッツ工科大学(MIT)によると、同大は現在、中国のムスリム系少数民族に対する人権侵犯の疑いで米商務省のエンティティリストに載せられた8つの中国企業のひとつであるSenseTimeとの関係を見直している。

MITのスポークスパーソンはBloomberg(ブルームバーグ)に次のように語っている。「MITには長年、堅固な輸出管理機能があり、輸出管理に関する規制やコンプライアンスを常時注視している。MITは合衆国商務省のエンティティリストに加えられた団体とのすべての既存の関係を見直し、必要に応じてその関係のあり方を変更する」。

SenseTimeの代表者はBloombergに対し「合衆国商務省のこの決定には深く失望している。すべての関係当局と密接に協働して、状況を完全に理解し解決したい」とコメントしている。

ブラックリストに載ったいくつかの企業は、ウイグル族などのムスリム少数民族を迫害するために中国政府が使ったと思われる大量監視システムにソフトウェアを供給した、中国の技術的にも業績的にも上位のAI企業である。

現在100万人以上のウイグル族が収容所に拘置されていると信じられている。人権監視活動家の報告によると、彼らは強制労働や拷問に苦しめられている。

SenseTimeは時価総額が世界最大のAI企業で、CCTVカメラなどを使用する中国政府の国営監視システムにソフトウェアを提供した。同社は昨年ローンチしたMITのIntelligence Quest構想に最初に参加した企業で、それは「世界の大きな課題に直面する可能性のあるAIに技術的突破口を開くこと」を目標としている。この計画はこれまで、MITの研究者たちによる27のプロジェクトに資金を提供した。

今年の初めにMITは、経済制裁に違反したとされるファーウェイとZTEとの業務関係を終了した

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

「今後もファッションAIにフォーカスする」ニューロープが1億円調達

ファッション領域で人工知能による法人向けサービスを展開するスタートアップ、ニューロープは10月9日、大和企業投資、ディノス・セシール、中京テレビ、Reality Acceleratorを引受先とする第三者割当増資により、1億円の資金調達を実施したことを明らかにした。

画像検索から需要予測まで業界向けにAI活用

2014年設立のニューロープは、創業後、インスタグラマーと提携してコーディネートスナップを掲載する、メディアコマース「#CBK(カブキ)」をリリース。インフルエンサーマーケティングによるアパレルブランドのプロモーションなどにも取り組みながら、蓄積されたデータを活用して2015年10月からAI開発に着手し、2017年4月にはファッションに特化した人工知能「#CBK scnnr(カブキスキャナー)」をリリースした。以降、AIによるファッション画像検索、スタイリング提案、トレンド分析、需要予測など、さまざまなサービスを法人向けに提供している。

メディアコマース「#CBK」

2018年にはReality Accelerator、大和企業投資、都築国際育英財団から約5000万円を調達したニューロープ。その後、ECサイトにタグを入れると自動で類似アイテムやオススメのコーディネートが紹介できるレコメンデーション機能を充実させ、「取引先も順調に増えている」(ニューロープ代表取締役の酒井聡氏)という。

また、ファッションにおけるトレンドや需要予測などもサービスとして展開。トレンド予測では、SNS上のスナップをAIで解析し、トレンド分析を行う「#CBK forecast(カブキフォーキャスト)」を企業へ提供している。

AI解析によるトレンド分析ツール「#CBK forecast」

需要予測については、取引先から過去売上データの提供を受け、統計分析により、将来発注が予測できる推定モデルを作成。現在5社ほどの取引先とともに実証実験を行っており、今後SaaSとして製品化を進めていくという。

今後もファッションに特化、プロダクト強化に投資

酒井氏は「レコメンド、トレンド定量化、需要予測など、さまざまなプロダクトを開発・提供していく中で、純粋にリソースが足りなくなってきた」と述べ、今回の調達資金について「主にエンジニア採用に充てる」と話している。またグラフィックボード調達など、開発環境の整備にも充て、全体に「プロダクト面を強化するために投資していく」としている。

ニューロープ代表取締役 酒井聡氏

今回、株主に加わったディノス・セシールとは、昨年からECと紙のカタログを連携させる取り組みを行ってきた。「従来はたくさんの紙のカタログを配布して、縦に売上を積むスタイルが取られてきた。そこへAI技術、スナップ情報などを用いて、顧客ごとにパーソナライズしたカタログを作り、配布するという施策を昨年行ったところ、よい結果をもたらしている。これまでの協業でも実績が出ており、今後も提携していく」と酒井氏は話す。

ファッションAIの世界では、ニューラルポケット(旧ファッションポケット)やSENSY(センシー)といったスタートアップがスタイリング提案アプリやサービスを展開しているが、最近ではその多くがファッションに限らない汎用AIの領域へ移っている。酒井氏は「ニューロープは今後もファッションにフォーカスし、ファッションに特化したAIを提供していく」と語る。現在展開するファッションのレコメンド、トレンド予測、需要予測に加えて、今後は「デザイン支援や来店客分析なども手がけたい」という。

ニューロープが展開を目指すファッションの各領域

「ドメインをファッションに特化することで、営業部隊は比較的スリムにできる。その分、プロダクトは(ファッションの)バリューチェーンのいろいろなところに対応したものを開発していくつもりだ」という酒井氏。ニューロープはもともとITをバックグラウンドにしたメンバーで構成されたチームで「これからもエンジニア中心でやっていく」としつつ、ファッション業界で培われた知識を糧に「業界の人と同じ船に乗ってやっていく気持ちで、業界の発展に貢献したい」と語っている。

また「台湾やタイなどで現地企業を訪問して提案したところ、感触は悪くない。プロダクトを利用してもらえそうだ」と酒井氏は述べ、「ファッションSaaSは言語にそれほど依存しない」として、海外展開も図っていく考えだ。

ムスリム少数民族に対する人権侵犯に加担した8つの中国企業が米商務省の禁止リストに載る

SenseTimeやMegviiなど、中国のテクノロジー企業8社が、ウイグル族など中国の少数民族に対する人権侵犯に加担しているとして、合衆国政府のエンティティリストに載せられた。米商務省の発表によると、これらの企業を含む、多くが中国政府の政府機関である28の組織は、新絳(シンジャン)ウイグル自治区における「ウイグル族やカザフ人などムスリムの少数民族に対する弾圧や不法拘禁、ハイテクによる監視などの実施に」関与している。

国連によると、新絳地区のムスリム住民の最大12人に1人、すなわちおよそ100万人が抑留所に拘置され、強制労働や拷問の対象になっている。

エンティティリストに載った企業は、米国のサプライヤーから製品を購入するためには新たに許可証を申請しなければならない。しかし承認を得るのは困難で、実質的には米企業とのビジネスを禁じられた形になる。今年始めにエンティティリストに載ったファーウェイの創業者でCEOのRen Zhengfei(レン・ツェンフェイ、任正非)氏は、そのほかの財務的影響に加え、同社は300億ドルを失うことになると述べた

米国時間10月7日にエンティティリストに置かれた政府機関は、新絳ウイグル自治区人民政府公安局とその関連機関だ。テクノロジー企業はビデオ監視メーカーDahua TechnologyとHikvision、AIのYitu、Megvii、SenseTime、およびiFlyTek、デジタル鑑識企業Meiya PicoとYixin Technology Companyだ。

時価総額が世界最大のAIスタートアップSense Timeは、中国政府に国の監視システムのためのソフトウェアを供給した。そのシステムは、CCTVカメラや警官が装着するスマートグラスなどから成る。

Face++のメーカーMegviiとYitu Technologyはともに、顔認識技術に特化し、監視社会的な大量監視システムで使用するソフトウェアに関して中国政府と協働した。The New York Timesによると、Hikvisionは 少数民族を見つけるシステムを作ったが、昨年それを徐々に廃棄し始めた。

Human Rights Watchの2017年の報告書によると、音声認識技術のiFlyTekは新絳省の警察局に声紋技術を供給した。それは、大量監視のためのバイオメトリクスデータベースの構築に使われた。

ブラックリストに載ったことの影響の大きさは、各社の米企業との関わりの深浅にもよるが、しかし貿易戦争以降、米国の技術への依存を減らし始めた中国企業が多い。例えば、鑑識技術のMeiya Picoは中国の国営誌Chinese Securities Journalで、売上の大半は国内企業向けであり、海外は1%に満たない、と言っている。

TechCrunchは8社にコメントを求めたところ、Hikvisionのスポークスパーソンは声明で次のように述べた。「Hikvisionは本日の米政府の決定に強力に反対する。その決定は世界中で人権を改善しようとするグローバル企業の取り組みを妨害するであろう。セキュリティ産業のグローバルなリーダーであるHikvisionは人権を尊重し、米国と世界の人民を真剣に保護すべき責任を担う。Hikvisionは過去12か月政府職員たちと関わってきたがそれは、会社に関する誤解を解消し、彼らの懸念に応えるためであった」。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

データ分析会社のAlteryxが機械学習アルゴリズムの実装を加速するFeature Labsを買収

上場データ分析企業のAlteryxは、2018年にMIT出身者によって設立された機械学習のスタートアップFeature Labs(フィーチャーラボ)を買収したことを発表した。同社は契約の条件を明らかにしていない。

Feature Labsの共同創業者でCEOのマックス・カンター(Max Kanter)氏は、その創業時にTechCrunchに対して、同社はMITでの研究に基いていると語っている。その研究とは機械学習アルゴリズムの作成の自動化を追求するものだ。「Feature Labsは、ドメイン知識を使って生のデータから機械学習アルゴリズムを動作させるための新しい変数を抽出する、フィーチャーエンジニアリングプロセスを自動化するという点で、ユニークな存在です」とカンター氏は2018年にTechCrunchに語っていた

Alteryxにアピールしたのはまさにこの機能だ。「データサイエンティストとビジネスアナリストの両者が容易に洞察を得て、ビジネスを推進する要因を理解することを助けるという、Feature Labsのビジョンが、AlteryxのDNAとマッチしたのです」と声明の中で語るのは、Alteryxの共同創業者でCEOのDean Stoecker(ディーン・ストーカー)氏だ。同社が2017年に別の機械学習スタートアップYhatを買収し、そのテクノロジーに基づいてその年の後半に、新機能Alteryx Promoteを開始したことにも注目しておく価値がある。

関連記事:Alteryx Promoteは、データサイエンスを会社全体で使えるようにする(未訳)

Feature Labs側は、今回の買収を発表したブログ投稿の中で、カンター氏とチーフデータサイエンティストのAlan Jacobson(アラン・ヤコブソン)氏は、会社の長期目標に適合しながら成長を促すことのできるパートナーを見つけたと書いている。カンター氏とヤコブソン氏はまた、現在のミッションがこの先も継続されることに対して、既存ユーザーを安心させようとしていた。「私たちはこの買収を利用して、オープンソースのデータサイエンスコミュニティと、ドメイン知識を使ってAIと機械学習技法を実装する複雑なプロセスをガイドしてくれる、コード不要のツールを渇望するビジネスアナリストたちの両者に対して、私たちのAIと機械学習の取り組みを拡大する予定です」と彼らは投稿の中で書いている。

Feature Labsは、データサイエンティスト向けのオープンソースライブラリを提供しており、同社によればそれらは35万回以上ダウンロードされている。Crunchbaseのデータによれば、同社はマサチューセッツ州ケンブリッジで2018年に設立され、300万ドル(約3億2000万円)を調達している。同社は引き続きケンブリッジに残り、市内に新しいAlteryxエンジニアリングハブを設立する予定だ。

Alteryxは2017年に、Iconiq Partners、Insight Venture Partners、Sapphire VenturesなどのVC企業たちから1億6000万ドル(約171億円)以上を調達し株式公開を行った。今回で計5回目、今年2回目の買収となる。

[原文へ]
(翻訳:sako)

コンピュータービジョンでごみ処理を改善するGreyparrot

英国ロンドン拠点のGreyparrot(グレイパロット)は、ごみ処理の改善を目指している。とくに同社は、ごみ処理の各段階における選別を、コンピュータービジョンを利用して効率化する。GreyparrotはTechCrunch Disrupt SFで、Startup Battlefieldのワイルドカードに選ばれた。

同社は機械学習のモデルを訓練して、ガラスや紙、段ボール、新聞、紙、プラスチックなどを見分ける。プラスチックはPET、HDPEなど、その素材も識別する。

そしてGreyparrotはシンプルなカメラをコンピューターに接続し、個々のごみを一瞬で選別する。

このような技術にはいろいろなユースケースがあるが、特に有望なのはごみの分別施設だ。分別施設はすでに多くの機械を使って、ごみの大小や、金属とプラスチックの違いなどを分別しているが、でも最終的には人間の目が、機械が犯す間違いを修正している。

分別を100%正しく行うことは不可能だが、できる限り100%に近づきたいものだ。分別施設ではPETプラスチックの巨大なキューブを作って地球の裏側の国々に送り、そこでいろんなものに加工されている。

そのキューブが、汚れていることがよくある。そこでたとえばインドネシアなどは頻繁に、ごみのコンテナを米国やヨーロッパに送り返している。

  1. disrupt-battlefield-greyparrot-1228

  2. Greyparrot

  3. disrupt-battlefield-greyparrot-1216

 

Greyparrotは、分別工程の特に最後の段階を助ける。そのプロダクトは、コンベアベルトの汚れをチェックできる。また問題のあるオブジェクトを見つけた場合は分別ロボットを調整して、不純物や汚れたごみを自動的に拾い上げるようにする。同社はそのソリューションを、英国と韓国でテストしてきた。資金はこれまで、120万ドルを調達している。

Greyparrotには、今後の新しいユースケースのアイデアがある。例えば、ごみ集積容器がその技術を組み込めば、最初の時点でごみを自動的に分類できる。また、自動販売機の隣りにある空き瓶空き缶返還器をGreyparrot化すれば、ユーザーのアカウントにごみの種類に応じてお金が入るだろう。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

3Dのコンピュータービジョンと特製のロボットアームでイチゴの収穫を自動化

近い将来Traptic(トラプティック)のロボットは、もっといろんな種類の作物を収穫できるだろう。でも今のところ、このサウスベイに拠を置くチームはもっぱらイチゴにフォーカスしている。

米国では、果物の約88%がカリフォルニアで穫れる。その中でもイチゴ類はディスラプトの機会が大きい。労働力の不足に移民政策の引き締めが加わって、畑には大量の未収穫作物が放置されている。人手不足のために農家は、実った作物の約5分の1を失っている。

もちろん今すでに、さまざまな主要商品作物にオートメーションが適用されている。小麦やトウモロコシの収穫は、相当前から機械化されている。しかし、イチゴなどのフルーツには、独特の難しい側面がある。あまりにも繊細なので機械化に向かず、ピッカーと呼ばれる人間の摘果労働者の器用な手を必要とする。

Traptic Blog Photo 3

しかし今年のDisrupt Battlefieldに出たTrapticは、専用機のロボットでこの問題に挑戦している。ロボットアームは一般市販品だが、グリッパーとソフトウェアは自社製で、同社のそのデバイスはもっぱらイチゴの収穫作業の介助が目的だ。

アームはカートの上部のスペースに、そのスペースを囲むように5ないし6本ある。視覚系は3Dカメラとニューラルネットワークを利用してイチゴを見つけ、その熟度を判断する。そしてイチゴの位置を1mmの精度で判断して摘み取る。

でもこのロボットの最もユニークな部分は特製のグリッパー(Gripper、つかむ部分)だろう。ロボット用のグリッパーも、今ではいろんな市販品がある。でも上述の理由により、Trapticはイチゴの摘み取りに厳密に適したグリッパーを必要とした。それは正確であると同時に、熟したイチゴをキズつけない優しさも必要だ。

そこで同社が最終的に到達したのは、完全に厳密でもなく、完全に柔軟でもないグリッパーだ。爪が収まる金属製の基部はゴムバンドで覆われて、一定性のない果実の形に適応する。しかしそれと同時に果実をぴったりと保持して、植物本体から取り去る。

Trapticの現在のマシンはケレス(Ceres)と呼ばれ、トラクターの後ろに取り付けて牽引される大きな箱だ。現在、カリフォルニアの北部と南部の農家がテストしているが、極端に違う両方の気候でうまく行けば、イチゴ農家が年間を通して利用できるだろう。

disrupt battlefield traptic 0237

同社は当面、ロボットが人間ピッカーをリプレースするのではなく、彼らを助けると定義している。でも最終的にはこんなデバイスが人間の労働者をリプレースするのだろう。Trapticがマシンのリース料金を人間労働者の賃金と同じく収量ベースにしているのも、そんな未来を展望しているからだ。しかし労働力不足と言いながら人口は増加している現状では、それはまだまだ遠い未来の話だ。

Trapticは今後、オレンジやメロン、トウガラシなど、そのほかの作物の自動収穫機も開発していくつもりだ。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

Streamlitがオープンソースの機械学習アプリ開発フレームワークを公開

画像クレジット:Dong Wenjie/Getty Images

Streamlitは、GoogleXとZooxで働いていた経験を持つ業界のベテランエンジニアが立ち上げた、新しい機械学習のスタートアップ。これまでに、600万ドル(約6億4700万円)のシード投資を受けている。米国時間の10月1日、機械学習エンジニアが、カスタムなアプリケーションを簡単に開発できるようにする、フレキシブルなツールをオープンソースで公開した。機械学習に関するデータを、それぞれのモデルに従って調査するためのもの。

シードラウンドは、Bloomberg Betaも参加して、Gradient Venturesが主導した。また、有力な個人投資家も参加している。たとえば、Color Genomicsの共同創立者、Elad Gil氏、Angelsの創立者、Jana Messerschmidt氏、Y Combinatorのパートナー、Daniel Gross氏、Dockerの共同創立者、Solomon Hykes氏、Insight Data ScienceのCEO、Jake Klamka氏などだ。

Streamlitの共同創立者のエイドリアン・トロイユ(Adrien Treuille)氏によれば、彼ら自身が機械学習エンジニアなので、エンジニアのニーズがよく理解でき、その要求に合致したツールが開発できたのだという。1種類のツールで何にでも対応するというのではなく、さまざまな要求に応えられるフレキシブルなものを開発することが、特に重要だった。データの性格は、エンジニアが取り組んでいるものによって異なるからだ。

「Streamlitは、実際にこの市場でユニークな地位を確保していると考えています。他のほとんどの会社は、基本的に機械学習のワークフローの一部をシステム化しようとしています。私たちは、いわばレゴブロックのようなものをエンジニアに提供して、作りたいものを自由に開発できるようにしているのです」と、トロイユ氏は説明した。

Streamlitを使って開発されたカスタムな自動運転車のデータアプリ。機械学習エンジニアがデータを研究できるようにする

トロイユ氏によると、熟達した独自のスキルを持つ機械学習エンジニアでも、膨大な量のデータを理解するためのツールを開発するのに、結局のところ膨大な時間を費やすことになってしまっているという。Streamlitは、エンジニアが使い慣れているプログラミングツールを使って、そうしたニーズに合わせたツールを素早く開発できるよう、支援することを目指している。

機械学習エンジニアは、わずか数行のコードで、データを理解するためのツールを手早く開発し始めることが可能となる。それにより、データの種類に応じて、適切な方法でデータを扱えるようになる。たとえば、一連のスライダーを用意して、それぞれ異なる変数を調整することで、データの表示を操作したり、シンプルにデータのサブセットを表示する表を作成して、エンジニアに分かりやすく表示したりする、といったもの。

トロイユ氏によれば、このツールセットは、機械学習エンジニアが、自分のモデルのデータを扱う方法を劇的に変える可能性を秘めている。「機械学習エンジニアとして、これまでにこうした問題に遭遇し、その課題を解決するためにどうすればよいかを知っている人間として、もっといい方法があること、それもちょっとやそっとではないことを発表できることにワクワクしています。これまでは、4週間もの期間と、1万5000行のコードを必要としていたプロジェクトが、たった半日で片付いてしまうこともあるでしょう」。

このツールキットは、すでにGitHubからダウンロード可能となっている。

原文へ

(翻訳:Fumihiko Shibata)

AIスタートアップのピッチコンテストHONGO AI 2019の最優秀賞はMI-6、材料開発に革新と効率をもたらす

AIスタートアップと本郷近辺の活性化を目指すHONGO AIは10月2日、アーリーステージのAIスタートアップを集めたピッチコンテスト「HONGO AI 2019」を東京・文京区本郷にある伊藤謝恩ホールにて開催した。

HONGO AIは、アーリーステージを中心としたAIスタートアップを支援するために2019年に結成された組織。 NEDO(新エネルギー・産業技術総合開発機構)が主催し、代表幹事として、経営共創基盤(IGPI)、ディープコア、Deep30投資事業有限責任組合、東京大学エッジキャピタル(UTEC)、TomyK、東京大学協創プラットフォーム開発(UTokyoIPC)、ANRIの7社が名を連ねている。

最終審査に残ったのは以下の14社(登壇順)で、最優秀賞(HONGO AI BEST AWARD)は素材産業向けに実験計画を効率化するサービスを提供するMI-6、経済産業省産業技術環境局長賞は3Dプリンターによる義足開発のインスタリムが獲得した。各社の詳細は追って記載する。

ソシウム

「薬のない人に薬を、薬の効かない人に薬を」をミッションに掲げ、AIによる創薬の効率化を目指すスタートアップ。

estie

オフィス探しをAIによって効率化するスタートアップ。

シンカー

ウェブサイトのアクセスログ分析に機械学習を組み合わせることで、ユーザーの行動を解析するためのツール「CACICA」を開発。

Mantra(NSG Group賞、ソフトバンク賞、博報堂賞)

マンガを高精度で自動翻訳するサービスを開発。AIによる画像認識より、マンガ内の吹き出しの位置やテキストを自動認識して該当部分を抽出する。

MI-6(HONGO AI BEST AWARD、SIBAZIBA賞)

素材産業向けに、実験計画を効率化するサービスを提供する。

Xamenis

カプセル内視鏡の読影支援AIを開発。

スペースシフト

地球観測衛星のデータをAIで解析する事業を展開。

AIQ(ベネッセ賞)

AIによるプロファイリング技術を活用したデジタルマーケティングツールを開発・販売。

ACES(フジタ賞)

人をデジタル定量化するツールを開発。人間の行動や感情の認識、物の検知などを行う画像認識のAIアルゴリズムを提供している。

Revcomm

AI搭載型クラウドIP電話サービス「Miitel」を開発。

日本データサイエンス研究所

不在配達の削減や書籍の返本率の改善などを独自のAIアルゴリズムを活用して実現。

インスタリム(経済産業省産業技術環境局長賞)

AIを活用した画像解析と独自の3Dプリンターを組み合わせた低価格義足の開発・販売をフィリピンで展開。

アップルが最新iPhoneのカメラにML合成技術「Deep Fusion」のベータを導入

米国時間10月1日、Apple(アップル)は新しいiPhoneのカメラでDeep Fusionのベータ版を使えるようにした。これはiOSのアップデートとして提供される。Deep Fusionは複数画像をピクセルごとに合成して画質をアップするテクノロジーで、従来のHDRよりも高度な処理だ。特に、皮膚、衣服、植生のような複雑な対象の描写で威力を発揮するという。

今回のリリースはデベロッパー向けベータ版で、iPhone 11のカメラでは広角レンズが、 iPhone 11 ProとPro Maxではワイドに加えて望遠レンズがサポートされる。ただし超広角はサポートされない。

Appleによれば、Deep Fusion処理にはA13 Bionicプロセッサーが必要とのこと。つまり上記以外の旧モデルではこの機能は利用できない。

iPhone 11 Proのレビューでも詳しく説明してきたが、新しいiPhoneは写真の撮影にあたってソフトと専用ハードの両面から機械学習を積極的に利用している。

iPhone 7でAppleは写真の画質を改善するために広角レンズと望遠レンズから得られる情報を合成し始めた。このプロセスはユーザーの介入を必要とせずバックグラウンドで自動的に行われた。Deep FusionはこうしたAppleの写真哲学をさらに一歩先に進める素晴らしいテクノロジーだ。

E020289B A902 47A8 A2AD F6B31B16BEC8

Deep Fusionは一定のシチュエーションで自動的に起動されて画質を改善する

光源の状態によって異なるが、広角側での撮影ではナイトモードが使われる10ルクス以下の暗い状況では自動的に起動する。望遠側では常時起動しているが、極めて明るい撮影状況ではスマートHDRに切り替わる。ハイライトの光量が非常に大きい場合にはこちらのほうが有効だという。

AppleはDeep Fusionを利用した撮影サンプルを多数発表しているのでそれらを記事にエンベッドした。Deep Fusionが実際に使えるようになったので、利用した場合と利用しない場合を比較した写真もアップされるようになるだろう。

Appleによれば、Deep Fusionの仕組みは概ね以下のようなことだという。

カメラは段階的にEV(光量)値を変えるブラケット撮影を行う。最初はEV値をマイナスに振り、シャッター速度が速い暗めの映像を撮影する。ソフトウェアはここから鮮明さを得る。次に適正EV値で3枚撮影し、最後にシャッター速度を遅くしEV値をプラスにしたショットを撮影する。これらの映像を合成して2枚の画像を得る。

ここで生成された1200万画素の写真2枚をさらに2400万画素の写真1枚に合成する。最後の合成を行う際には4つの独立のニューラルネットワークが用いられ、iPhoneの撮像素子のノイズ特性や撮影対象が何であるかが考慮される。

合成処理はピクセル単位で実行される。機械学習モデルが撮影された画像の「空間周波数」を含めた情報を把握して最良の画質を得るための合成方法を決める。空などは全体が比較的単調で繰り返しが多いが、画像周波数は高い。人間の皮膚は画像周波数は中位、衣服や植生は画像周波数が高いが、どちらも複雑な画像だ。

Deep Fusinシステムはこうした画像各部の特質を把握して全体の構成を決定し、最良の結果が得られるようピクセルを選ぶ。

Appleによれば、こうした処理によって皮膚の質感や衣服のディテール、動く対象のエッジの鮮明さなどが改善されるという。

現在のベータ版では、Deep Fusionのオン、オフを切り替える方法はないが、超広角はDeep Fusionをサポートしていないため、これを利用してDeep Fusionの「あり」と「なし」を比較するテクニックがあるもようだ。

Deep Fusionは実行に1秒程度必要とする。ユーザーが撮影後すぐにタップしてプレビューを見ようとした場合、画像が現れるのを0.5秒ほど待つ場合があるかもしれない。しかしこの程度であればほとんどのユーザーはバックグラウンドでDeep Fusion処理が行われていることに気づかないだろう。

まずは実際に使ってみたいところだ。我々はDeep Fusionが利用できるようになり次第テストを行い、結果を報告するつもりだ。

原文へ

(翻訳:滑川海彦@Facebook

AIでソフトウェアテストを自動化する「Autify」が約2.6億円の資金調達、公式グローバルローンチへ

中央がAutifyのCEO、近澤良氏

AIを用いてソフトウェアテストを自動化するプラットフォーム「Autify(オーティファイ)」を提供するAutifyは10月2日、グローバル・ブレイン、Salesforce Ventures、Archetype Ventures、そして複数名の匿名の個人投資家から約250万ドル(約2.6億円)をシードラウンドで調達したことを明かした。

同社はプレシードラウンドでは、East Ventures、KVP、ジェネシア・ベンチャーズ、GW Ventures、そして、柴田陽氏、丹羽健二氏、山田進太郎氏、吉田浩一郎氏より、約51万ドルを調達している。

CEOの近澤良氏が率いるAutifyは2019年2月、日本人を含むチームとしては初めてB2B領域に特化したアクセラレーターのAlchemist Acceleratorを卒業。(先日紹介したLEADは2組目の卒業生としてAutifyに続いた)。

Autifyは3月にクローズドベータ版が公開されている。以後、上場企業、スタートアップを含む150社以上がデモをリクエストしたそうだ。そして10月、Autifyはグローバルローンチされる運びとなった。日本だけに留まらず、国外企業へのサービス提供を本格的に開始する。

前述の通り、AutifyはAIを用いることでソフトウェアテストを自動化するプラットフォームだ。近年、市場の急速な変化に対応すべく、「アジャイル開発」という開発サイクルを素早く回す手法が一般的となってきた。Autifyによると「既に92%がアジャイル開発を採用。そのうち71%が週1回以上のリリースを希望。だが、そのようなサイクルでは、ソフトウェアの検証作業(QA)を人手に頼ると時間が掛かりすぎ、早期リリースのボトルネックとなってしまう。そのため、アジャイル開発を推進する企業では検証作業の自動化が急務となっている」。

 

  1. image3

  2. image4

  3. image5

同社によると、検証作業の自動化においてソフトウェア企業が抱えている問題は大きく2つ。1、エンジニア人材の圧倒的な不足。2、自動化コードの高いメンテナンスコスト。エンジニアが自動化コードを構築することで検証作業を自動化したとしても、アジャイル開発ではUIや仕様が素早く変化していく。そのため、自動化コードがすぐに動かなくなり、継続的なメンテナンスが必須となってしまうそうだ。

「世界的に見ても、アジャイル開発化の大きな波が来ている。ソフトウェア開発の高速化がビジネスの競争力の源泉になってきている。というのも、市場の変化が激しい時代になってきているので、例えばiPhoneが登場してから10年くらいしか経っていないのに業界が様変わりしている。今までみたいにウォーターフォール型の開発で、1年などの期間をかけて設計、開発、テスト、そしてリリースをしても、『出したらユーザーは使いませんでした』となるリスクが高くなっている。細かく区切ってどんどんリリースして試していくというアジャイル開発に、スタートアップだけではなくSIerや大手企業も移行してきている。そんな中、よく聞くのが、QAに時間が掛かりすぎるということ。週1などの頻度でデプロイするとなると、毎回、全てを網羅的に検証することはできない。そうすると、切り捨てなければならない部分が出てきてしまい、バグが残ってしまう」(近澤氏)。

このような課題に目を付け開発されたのがAutifyだ。非エンジニアでも簡単にウェブアプリの検証作業を自動化でき、また、AIがアプリケーションコードの変更を監視し、検証シナリオの修正を自動で行うため、メンテナンスコストを大幅にカットすることができたという。従来のテスト自動化サービスでは困難だったJavaScriptを多用した複雑なアプリケーションの検証自動化も可能で、Slack、Circle CI、TestRailなどとの連携も可。今後は連携可能なサービスを増やしていく予定だ。そして「自動化範囲の拡張、テスト実行環境の内製化、Chrome Extensionの機能改善、AIでの要素の発見ロジックなどを中心に、ユーザーのテスト体験を充実させていく」(Autify)。他社にはない強みに関して、近澤氏は「非エンジニアでも使いやす設計に徹底的にこだわった」と話していた。

機械学習と画像認識のAIで歯科医療を改善するVideaHealthが約5.6億円調達

若きスタートアップVideaHealthの(ビデアヘルス)CEOを務めるFlorian Hillen(フローリアン・ヒレン)氏が歯科医療の問題に取り組んだのは約3年前だった。

MITとハーバード大学で学んだヒレン氏は、機械学習と画像認識を何年も研究し、その技術を切実に求めている分野に研究成果を応用したいと考えた。

歯科医療は、最初のターゲットではなかったかもしれないが、若き起業家が本気で取り組むべき市場だった。

「誰もが歯医者に行く。そして治療室の中ではレントゲンが主要な診断機器だ」とヒレン氏は言う。「しかし、歯科医療には品質基準がない。3人の歯科医を受診すれば、3種類の意見を言われるかもしれない。

VideaHealth(あるいは競合のPearl)は、同社が開発した機械学習技術を使って歯科医療全般にわたって治療の標準を決めることができるとヒレン氏は言う。これは歯科ビジネスが米国の大部分で大規模なサービス提供者に集約されつつある今、非常に魅力的だ。

Screen Shot 2019 09 16 at 16.33.16 1

画像出典:VideaHealth

歯科医療従事者は,一部の医療専門家(レントゲン技師など)と比べて自動化の恩恵に預かりやすい。歯科医は診療所で複数の役割を担うため、画像認識のような先端技術は治療の効率を高めることが期待され、失業者を生み出すものではない。

「放射線医療ではAIが放射線技師と競合する」とヒレン氏は言う。「歯科医療では歯科医が確実にかつ正確迅速に患部を発見する手助けをする」。

もっと多くの患者を診察し、もっと時間がかかって侵襲的な手法を用いることなく問題を見つけられるようになれば、医者にも患者にとっても有益だとヒレン氏は言う。

ヒレン氏が会社を設立してからまだ1年ほどだが、すでにZetta Venture PartnersやPillar、さらには最近540万ドルのシード資金を投資したMITのDelta Vなど、複数の投資家を引き込んでいる。

すでに同社は、中西部で950箇所以上のの歯科医院を経営するHeartland Dentalなどの組織と提携して共同作業を勧めている。現在社員は7名で、今回の資金は雇用の促進と研究開発に使う予定だ。

Screen Shot 2019 09 25 at 2.53.42 PM

Photo courtesy of VideaHealth

 

[原文へ]

(翻訳:Nob Takahashi / facebook

マイクロソフトはパワポ用のAIプレゼンコーチを導入開始

画像クレジット:NBC/Contributor/Getty Images

数カ月前、Microsoft(マイクロソフト)は、PowerPoint(パワーポイント)で、AIを活用したプレゼンテーションコーチがもうすぐ使えるようになると発表した。フィードバックをその場で返すことで、重要なプレゼンテーションの準備を手助けする機能を備えたものだ。米国時間の9月25日、同社はまずウェブ版のPowerPointから、この新ツールの導入を始めた

公衆の面前で話すのは本当はかなりの練習を要するスキルだが、プレゼンをリハーサルする人はほとんどいない。自分のプレゼンの出来栄えがすでに素晴らしいから(本当はそうでもないのに)練習の必要はないと考える人もいれば、リハーサルするだけで緊張してしまうからしないという人もいるだろう。それでも、プレゼンの練習が有効であることは間違いない。

PowerPointの新しいプレゼンテーションコーチの目的は、練習のわずらわしさを取り除くこと。このツールの現在のバージョンは、3つの点に着目する。ペース、スライドの読み方、単語の選択だ。ペースについては自明だろう。プレゼンの話の早さ、あるいは遅さをチェックする。「スライドの読み方」のチェックは、スライドにある文章を単語ごとに区切って読んだりしていないかどうか確認する。そのような退屈なプレゼンを、ずっと見ていたいと思う人はいない。「単語の選択」ツールは、(英語版の場合)「um(えーと)」「ah(おっ)」「actually(実は)」あるいは「basically(基本的に)」といった言葉の使用頻度を検出するだけでなく、「you guys(男性諸君)」や「best man for the job(この仕事に最適な男)」のような文化的に無神経な言葉の使い方を指摘してくれる。

このプレゼンコーチ機能以外にも、Office 365には、今回いくつかの新機能が加わっている。例えば、PowerPointでのインク機能のサポートの向上がある。スライドにインクで書き込む様子をプレゼン時に再生できるもので、一種のアニメーション効果を埋め込むことができる。この機能は、今のところWindows版とMac版で利用可能となっている。ウェブ版Officeでのインクのサポート強化も、もうすぐ提供される予定だ。また、Microsoft Whiteboard(ホワイトボード)もアップデートされ、新たなテンプレートが追加された。また、Office 365のサブスクリプションを利用している教師は、新しく10種類のレッスンプランを利用できるようになった。その中にはレッスンで活用できる23種のカスタムな3Dモデルも含まれている。

原文へ

(翻訳:Fumihiko Shibata)

アリババが機械学習タスクの速度を大幅に向上させるAI推論チップを発表

米国時間9月24日、アリババグループ(Alibaba Group、阿里巴巴集団)は初のAI推論チップを発表した。Hanguang 800(含光800)という名のそのニューラル処理ユニットは、機械学習タスクを劇的に速くしエネルギー効率の高いものにするという。このチップは、アリババクラウドが毎年開催しているApsara Computing Conferenceで発表されたが、すでにアリババの商品検索やパーソナルレコメンデーションを始めとするeコマースサイトの機能を強化するために使用されている。今後アリババクラウドの顧客からも利用可能になる予定だ。

チップの能力を示す例としてアリババは、オンラインモールのタオバオ(淘宝)に業者から毎日アップロードされる10億枚超の製品イメージを分類して、検索とパーソナルレコメンデーションが可能になる処理を挙げた。これまは1時間程度かかっているが、Hanguang 800を利用すればわずか5分で完了できるようになるという。

アリババは、マシン処理を必要とする多くの事業ですでにHanguang 800を使用している。その中には製品の検索とレコメンデーションに加えて、eコマースサイトでの自動翻訳、広告、カスタマーサービスなども含まれている。

そのチップが、アリババクラウドの顧客から利用できるのがいつになるのかは明らかにされていないものの、貿易戦争が中国と米国テック企業同士のビジネスパートナーシップを難しくしている現在、このチップ自身は中国の企業から米国の技術への依存を緩和することになるだろう。またそれは、アリババクラウドが中国の外で成長するためにも役立つはずだ。中国内では、アリババクラウドは市場のリーダーだが、アジアパシフィック地域ではアリババクラウドは現在も、Amazon、Microsoft、そしてGoogleの後塵を拝している(Synergy Research Groupのデータによる)。

Hanguang 800は、アリババが150億ドル(約1兆6000億円)以上を投資しているグローバルな研究開発組織Alibaba DAMO Academy(阿里巴巴達摩院)内の、クラウドおよびエッジコンピューティング用チップの開発を推進するユニットT-Headによって開発された。T-Headは、アリババの小売アプリや物流アプリを始めとする、ビジネスアプリ向けに設計されたチップのハードウェアとアルゴリズムを開発した。

アリババグループのCTOであり、アリババクラウドインテリジェンスの社長であるJeff Zhang(ジェフ・チャン、張建鋒)氏は声明の中で「Hanguang 800の立ち上げは、既存のそして将来の私たちのビジネスを推進するコンピューティング能力を、エネルギー効率を改善しながら拡張していく次世代技術追求の中でも、とても重要な一歩です」と述べている。

また彼は「近い将来、このチップによって可能になる高度なコンピューティングへのアクセスを、いつでもどこでもクラウドビジネスを通じて提供することでお客様の力になれる予定です」と付け加えた。

T-Headが他にローンチしたものには、今年初めに行われたXuanTie 910(玄鉄910)も挙げられる。これは米国のUCバークレイ校で始まったオープンソースのハードウェア命令セットプロジェクトであるRISC-Vに基くIoTプロセッサーだ。XuanTie 910は、エッジサーバー、ネットワーク、ゲートウェイ、そして自律運転車などの、ヘビーデューティーなIoTアプリケーション向けに開発された。

Alibaba DAMO Academyは、UCバークレー校やイスラエルのテルアビブ大学をはじめとする世界中の大学と協力している。このプログラムの研究者たちは、2035年までに20億人の顧客にサービスを提供し、1億人の雇用を創出することを目標に、機械学習、ネットワークセキュリティ、ビジュアルコンピューティング、そして自然言語処理に焦点を当てている。

[原文へ]

(翻訳:sako)

英文のメールやメッセージの語調をチェックしてくれるGrammarlyのトーンデテクター

数カ月前から、文法チェッカーのGrammarly(グラマリー)は、そのコアである文法やスペルのチェックツールを超えて、そのほかの機能、例えば文章の明瞭度チェックなどを加えてきた。米国時間9月24日、その傾向をさらに拡大して、文章の語調(怒り、友好、冷淡、親切などのトーン)をチェックするトーンデテクター(Tone Detector)をローンチした。自分はこんな気持ちを込めたつもりだけど、本当に込もっているだろうか。フレンドリーで気さくな人と思われたいんだけど、非礼になったら困るなとか。

同社によると、そのトーンデテクターは、既存のルールと、テキストのトーン(語調)に貢献しているシグナルを探す機械学習のアルゴリズムを使っている。

全体としてこれはかなり便利な機能のようだ。これから書いて送るメールのトーンがとても重要というときには特に役に立つだろう。私が知ってるある立派な人物は、いつもメールのトーンだけがおかしくて、毎回私が彼の犬をいじめて叱られているようなメールを送ってくるのだ。そこで彼が40種類のトーンをサポートしているこのツールを使ってくれれば、きっと役に立つだろう。主なトーンは、「感謝している」「確信している」「儀礼的である」「くだけている」「思慮深い」「愛がある」「悲しい」などだ。書いてるメールが120文字を超えたら、この機能が自動的に働く。

Grammarly Tone Detector Example 2

トーンデテクターのベータバージョンはGrammarlyのChromeエクステンションで利用できるが、SafariとFirefoxも近くサポートされる。対応しているメーラーはGmailやYahooなどメジャーなメールサービスのみだが、もうすぐ、どんなテキスト欄(テキストフィールド)でも使えるようになる。

2019 09 24 0909

関連記事:文法チェックのGrammarlyが文法以外の提案もするアシスタントに

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AI活用し従業員体験の向上を目指す「LEAD」がAlchemistを卒業、日本展開を本格化

LEADのCo-founder木村祐美氏

AI技術を活用したエンプロイーエンゲージメントプラットフォームを提供するスタートアップの「LEAD」は米時間9月20日にB2B領域に特化したアクセラレーターAlchemist Acceleratorを卒業。LEADのCo-founder、木村祐美氏はソフトウェアテストの自動化AIサービスAutifyの近澤良氏に続き、日本人起業家としては2人目のAlchemist卒業生となった。

LEADのミッションは「社員に心理的な安心感を与える企業文化作りの手助け」。同プラットフォームは従業員を興味や職歴などの情報をベースにマッチングし、コーヒーやランチ、ないしはオンラインなどで定期的に「会って話すきっかけ」を作るプラットフォーム。また「内定者を社員に」「新人を先輩やメンターに」紹介する際にも活用できる。Slack、Google Suiteなどと連携させ、使用する。

LEADが目指すのは、従業員同士の交流を活性化することで、孤独感をなくし、従業員体験を向上させること。木村氏によると、職場での孤独は離職に繋がりやすい。そして、ミレ二アル世代の多くはメンターや相談相手を必要としているという。

LEADではマッチング以外にも従業員満足度などを分析する機能も兼ね備えている。木村氏いわく、エンプロイーエンゲージメントの計測で実施される従来の従業員アンケートは手入力であるなどゆえにバイアスが掛かりやすかった。LEADでは行動傾向をデータ化し、手動入力データと合わせて従業員満足度などを分析する。パーソナライズされたパルスサーベイでは、人事担当者による「従業員の幸福度と全体的な従業員体験を向上」に向けたプランニングをサポートする。また、マッチングのアルゴリズムも従業員満足度の分析内容も、従業員のニーズや行動パターンに応じて変化する。

木村氏は「Beauty Plus」を開発したMeituの日本法人代表を務めていた人物だ。Meitu日本代表を務めていた際には、従業員体験向上の重要性を痛感した。「社員同士の信頼関係や友情、メンターシップ」が固かったからこそ、個々のモチベーションが上がりハードなKPIを達成することができたと木村氏は言う。また、日米で働く数千人をインタビューした結果、まだ市場に、特に日本においてはLEADのようなプロダクトが無く、強いニーズを感じ、既存課題の解決のため、プラットフォームを開発するに至った。

競合には、エンゲージメント分析のCulture AmpLattice、社員のオンボーディング支援のdonut、社内のメンターとマッチングするプラットフォームのMentorCloudMentorloop、社外メンターとのマッチングを実現するPLATOEverwiseが存在する。だが、木村氏いわく、マッチングからAIによる分析まで広く対応できるプラットフォームだという点がLEADの強みだ。

LEADはiSGSインベストメントワークス、BRDのCEOのAdam Traidman氏、Oculus共同創業者のMichael Antonov氏、Alchemist Acceleratorなどからの出資を受けている。現在は日本語版のボットが提供されているが、同社は日本を今後注力していくべき市場だと捉えている。

Amazonの画面付きスマートスピーカーはキッチンにある物体をカメラで識別

Amazonは、画面付きスマートスピーカーのEcho Showに、視覚障害者向けの新機能を追加した。ユーザーが台所にある物体をAlexaのカメラに向けると、それがなにかを教えてくれる。画像認識と機械学習の技術を組み合わせてEcho Showの見たものを識別するのだ。

Echo ShowはAlexa搭載スマートスピーカーのひとつで、キッチンに置いて使うことを想定している。タイマーを設定したりやレシピビデオを見たりできるほか、料理をしながら音楽やテレビも楽しめる。

しかし、目の不自由なユーザーのために、Echo Showは新しい役割を果たすことになる。台所に置かれた品物の中でも、缶や箱に入った食品、スパイスなどのように触れただけでは区別が容易でないものの識別を手伝うことだ。

この機能を利用するには、「Alexa, what am I holding?」「Alexa, what’s in my hand?」(Alexa、私が持っているものはなに?)などと言うだけでいい。するとAlexaは、カメラの前に物体を置くように言葉と効果音で指示を与える。

Amazonによると、この機能は視覚障害をもつAmazon社員と共同開発した。その一人である主任アクセシビリティ・エンジニアのJosh Miele(ジョッシュ・ミーレ)氏は、開発過程で全盲および弱視の利用者からフィードバックを集めた。

「視覚障害者にとって、商品の識別には苦労することが多く、Alexaの助けが欲しいことの一つだと知った」とAmazonのAlexa for Everyoneチームの責任者であるSarah Caplener(サラ・カプレナー)氏は説明した。「食料品を買い物袋から取り出すときやキッチンカウンターの上に置かれたものが何かを知りたいとき、それを手伝ってユーザーにとって必要な情報を必要なときに提供できるようにしたい」とカプレナー氏は言う。

スマートホーム機器やAlexaのようなAIアシスタントは、サーモスタットや照明の調節、ドアのロック、ブランドの上げ下げなどさまざまな場面で障害をもつ人たちの生活の改善に役立ってきた。この「Show and Tell」機能によって、Amazonは全盲や弱視の人たちの市場への本格的参入を期待している。世界保健機関によると、現在世界で視覚に何らかの障害を持つ人の数は13億人に上ると推計されている。

ただし、Echoスピーカーは全世界で入手できるわけではない。 また、販売されている国であっても、地元の言語に対応しているとは限らない。さらに、今回発表された機能は開始時点では米国のみで利用できる。

アクセシビリティをスマートスピーカーのセールスポイントにしているのはAmazonだけではない。Googleは今年のGoogle I/Oカンファレンスで、一連のアクセシビリティ製品を発表した。リアルタイムで文字起こしを行うLive Caption、聴覚障害者の通話を手助けするLive Relay、しゃべらないひとがスマートアシスタントを使うのを助けるProject Diva、発話障害者の話し言葉の認識を手伝うProject Euphoniaなどだ。

Show and Tellは、米国内の第1、第2世代Echo Showデバイスで利用できる。

[原文へ]

(翻訳:Nob Takahashi / facebook