ダ大の研究者たちがアルミフォイルがWi-Fiルーターの出力を強化/制御できることを発見

ダートマス大学の研究者たちが、3Dプリントで作った形状をアルミフォイルで包んだものが、ワイヤレスの圏域を拡大しWi-Fiのセキュリティを増強することを見つけた。Eurekalertに載ったこのプロジェクトは、Wi-Fiのルーターのアンテナの上やまわりに反射板を置き、ビームを作ってレンジを増し、またその電波が通ってもよい空間を指定できる。

ダートマスの助教授Xia Zhouはこう述べている: “わずか35ドルの投資と、カバー範囲(カバレッジ)の指定により、手作りのワイヤレス反射板が何千ドルもするアンテナよりも、すごいはたらきをする”。

彼らのペーパーの中でZhouと彼の仲間たちはさまざまな形の指向性アンテナをテストし、またソーダ飲料の空き缶をルーターの背後に置いて電波の方向をターゲットに向ける、といった思いつき的なことも試みている。何度かの試行ののち彼らは、いくつかの部屋でWi-Fiの感度を高める形状にたどり着いた。そして次に彼らはその、Wi-Fiのカバー範囲とセキュリティを良くする形状を正確に3DプリントするWiPrintというプログラムを作った。次にすることは、その形状をアルミフォイルで包むだけだ。

チームは、その反射板(リフレクター)が正確な形のビームを作り、Wi-Fiがよく届く空間と、そうでない空間を作り出すことを見つけた。それによって、セキュリティとカバレッジを増すことができる。たとえば、ビームが窓から外へは出て行かないが、近くの部屋では強い、というふうにもできる。

そのソフトウェアはまだリリースされていないが、やっぱりきみのおじいちゃんは正しかったね。アルミフォイルとアンテナは相性が良いのだよ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Apple、ARヘッドセットを2020年出荷を目標に研究中

Appleは拡張現実(AR)ヘッドセットを2019年までに開発するための技術を研究中で、2020年の商品化を目指しているとBloombergの最新記事が伝えている。記事によるとそのデバイスはAppleのiPhoneや他のモバイルデバイスとは別物で、内蔵ディスプレーを備え、専用OS(’rOS’と内部で呼ばれている)と新しいカスタムプロセッサーを採用するという。

Apple CEO Tim Cookは過去のインタビューでARの将来について強気な発言をしており、iOS 11にはAR体験の開発を支援するARKitと呼ばれる機能が組み込まれている。Bloombergの以前の記事によると、Appleは複数のARエキスパートを雇い、開発チームはDolby Labsの技術担当幹部だったMike Rockwellが率いている。

最近Cookは、満足できる体験を得られるARヘッドセットを消費者に届けるためのテクノロジーはまだ揃っていない」と報道に語り、この分野の製品が「市場に出るまでにはしばらく時間がかかるだろう」と警告した。これは少なくともWindows HoloLensのことを遠回しに言っているものと思われ、Magic Leapをはじめとする他社製品も指しているかもしれない。

Appleはこの未来機器の計画を今も固めているところだとBloombergは言っているが、対話方式についてはタッチ式入力、Siri音声入力、さらにはヘッドジェスチャーなども研究しているようだ。チームはアプリケーションもメッセージング、バーチャル会議、360度ビデオ、ナビゲーションなどを開発中で、このデバイスのためのApp Storeを作る可能性もある。

テストは社内でHTC Vive、およびiPhone画面を使うSamsung Gear VRに似たデバイスで行われているとBloombergは伝えている。Appleは最新のMacでVRコンテンツ開発のために外部GPUとHTC Viveに対応しており、これも動機の一因かもしれない。記事によるとAppleはARKitの新バージョンを2018年に公開する予定で、このデバイスをターゲットにした体験を開発する道を拓くものだ。

Appleは様々な実験プロジェクトを立ち上げているが、全部が製品化されるわけではない。しかしCookがARとその将来の可能性について語る様子からは、Appleが単なるテクノロジーへの興味以上の力を入れていることが見て取れる。

[原文へ]

(翻訳:Nob Takahashi / facebook

IntelのQ3決算はアナリストの予想をあっさりと上回り、とくにチップの多様化専用化で稼ぐ

本年第三四半期のIntel Corp.は、アナリストたちの予想をゆうゆう上回る数字によって、この世界的かつ支配的なチップメーカーがこのところ他社に後れを取っているという界隈の懸念を払拭した。

IntelのCEO Brian Krzanichが声明文で述べている: “第三四半期の業績は好調で、全分野で強力な結果が得られた。本年は弊社にとって記録的な年になると思われる。そう言えるほどの大きな前進と未来展望に、私は心躍らせている。人工知能や自動運転などの分野で従来よりも多くのイノベーションが進展しているためIntelは、これまでで最強の製品ラインナップを揃えることができている”。

同社が発表した調整済みの決算報告では、EPSはThomson Reutersのアナリストたちが予想した80セントに対し1ドル1セントになった。売上は予想157億3000万ドルに対し、実績161億ドル5000万ドルである。収益は前年同期比34%増の45億2000万ドルだった。

Intelの株式は今週、マーケットに火を着け、その週だけでも14%上がった。さらに終了後にも1%の上昇を見た。

これらの数字は、これまでの中核的ビジネスだったパーソナルコンピューティングの次を目指す、というIntelの戦略転換が功を奏し始めていることの兆しだ。

同社のデータセンター事業や、中核的なメモリ事業、それに物のインターネット(IoT)事業はいずれも今四半期の売上の急伸に貢献した。

とくに重要なのが“Programmable Solutions Group”と題された項目で、これはIntelの未来に最大の貢献をすると思われる分野だ。…これには、自動運転車や人工知能向けチップなどが含まれる。

このグループは売上が10%伸びて4億6900万ドルを記録した。IoT部門は23%増の8億4900万ドル、不揮発性メモリソリューショングループは37%増の4億6900万ドルを記録した。

—この稿続く—

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

トヨタ、従来型ガソリン車を2040年代までに廃止へ

トヨタはガソリンまたはディーゼルエンジンのみで走る車を2040年代までにゼロにしようとしている。これは2050年までにCO2排出を90%(2010年比較)削減する同社の目標に沿ったものだ。今日2017年東京モーターショウで行われた同社主催の記者会見で、トヨタの安全技術責任者である伊勢清貴専務役員は、これが同社の見込んでいるガソリンおよびディーゼル車の生産終了時期だと語った。

このスケジュールは一部他社が言及した目標時期に近く、フランス、英国などの国で設定された禁止目標とも一致する。中国も内燃機関のみで走る車両の終了時期を決める計画を発表してる。

これは、トヨタが2040年以降電気自動車だけを販売するという意味ではない ―― 同社は純粋な電気自動車の開発にかけては最も動きの遅い自動車メーカーの1つであり、燃料電池車やハイブリッド車など駆動装置の選択肢を広げることで世界各国の市場ニーズに答えるのが最善の戦略だとくりかえし発言してきた。

内燃機関は2040年以降もハイブリッドエンジンで使用されることになるが、同社の積極的な排出目標とハイブリッド駆動技術の進歩を踏まえると、それ以降に純粋な内燃機関駆動方式を使用するのは筋が通らない、と伊勢氏は言った。

[原文へ]

(翻訳:Nob Takahashi / facebook

Apple、需要を満たすためにFace IDの精度を下げたとの報道を完全否定

本日(米国時間10/25)Bloombergは、Appleが需要を満たすために供給元に要求するFace IDの精度を下げたと報じた。Appleはこの記事が「全くの誤り」であるとする声明を発行し、Face IDは顔認識の新たな規範になるだろうと語った。

Appleの声明は以下の通り。

iPhone XとFace IDへのお客様の期待は驚くばかりで、11月3日金曜日に手に取ってもらうことを待ち遠しく思っています。Face IDは簡単で直観的に使える強力かつ信頼性の高い認証システムです。Face IDの品質と精度は変わっていません。今後もiPhoneを他人が偶然Face IDでロック解除する確率は100万分の一です。

AppleがFace IDの精度仕様を下げたというBloombergの主張は全くの誤りで、当社はFace IDが顔認証の新たな規範になると考えています。

Bloombergの記事には、Face IDを実現するTrue Depthカメラアレイに使われている具体的な部品や素材に関する報告が多数書かれている。部品とサプライチェーンのドラマが好きな人にとっては間違いなく興味をそそる話だが、これはある部品サプライヤーが別のサプライヤーについて不満を言っているだけだと感じている人もいる(あるいは別のサプライヤーより歩留まりが高いことを自慢している)。

Appleが声明で特に指摘しているのは記事のこの部分だろう。

使用可能なドットプロジェクターの数を引き上げ生産を加速するために、AppleがFace IDの仕様を一部緩和したことが、経緯を知る別の関係者の話でわかった。その結果主要なボトルネックである完成モジュールのテストに要する時間が短縮された。

新たな仕様がこの技術の能力をどれだけ下げるのかは明らかになっていない。9月の製品発表で幹部らは、侵入者がFace IDを破ってiPhoeをロック解除する確率は百万分の一だと豪語した。たとえ精度を下げたとしてもおそらくTouch IDよりはずっと正確だろう。オーナー以外の人間がTouch IDでロック解除できる確率は5万分の一だ。

おそらく「精度を下げた」という一言がAppleに反論すべきだと感じさせたポイントだろう。Bloombergの記事は、AppleのiPhone Xの生産スケジュールを「非常に強気」と書いていて、私はそのとおりだと理解している。Face IDの精度が「下がる」という具体的指摘については、Appleが明確に否定している。

実際、精度に関して主張しておきながら、製品の発売前に訂正をしなければ、その差異について消費者代弁グループに説明しなければならなくなる。これも反論を促す理由だったに違いない。

Face IDは、Appleが2013年頃以降に買収した様々な技術を元に作られ、iPhone Xで使うために小型化された3Dカメラアレイを使用している。iPhone Xは今週予約受付が始まるが、品薄との報道が数多い中でAppleは、55か国で店頭に在庫する予定であるとあえて発表した。通常Appleは、在庫が手薄になることが予想される場合、10程度の国や地域で発売する。それでもiPhone Xは売り切れるだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

GoogleのAVAデータセットはビデオの中の人間のアクションを見つける精度を上げる

今日(米国時間10/19)Googleが、ビデオの中で行われている人間のアクションを集めてそれぞれにラベルをつけたデータセットを発表した。何のことだかよく分からないかもしれないが、実はこれは、コンピュータービジョンの問題解決に今後大きく貢献するデータ集合なのだ。

最近では、人間の第二の目になってくれる製品やサービスが大きく成長している。ビデオの中の特定の映像を見つけるMatroidや、Lighthouseのようなセキュリティシステム、それに自動運転車でさえ、ビデオの中で起きていることが理解できると大いに助かる。そしてその理解は、良質なラベル付きデータによる訓練やテストに負っている。

GoogleのAVAはatomic visual actions(最小単位…不可分…の視覚的アクション集)の頭字語だ。そのほかのデータセットと違ってそれは、アクションデータとして使えるシーンの中に複数の区切りを設けて、それぞれにラベルを付ける。つまりひとつのシーンがマルチラベルだ。これにより複雑なシーンの細部を捕捉でき、機械学習のモデルの精度を上げる。

Googleのブログ記事は、人間のアクションの分類(〜把握理解)が困難である理由を詳細に述べている。アクションは静的オブジェクトではないので、時間の上に繰り広げられる。したがって、不確実性が多くなる。誰かが走っている映像は、さらにその後のフレームを見るとランニングではなくて実はジャンプだったりする。一つのシーンの中に二人の人間のからみがあると、その理解はさらに複雑だ。

AVAには、ビデオの断片が57000あり、人間に付けられたラベルが96000、ラベルの総数は21万になる。ビデオの断片はYouTube上の公開ビデオから取られ、一片の長さが3秒だ。歩く、蹴る、ハグするなどアクションのタイプを80種用意し、手作業でラベルをつけていく。

試してみたい人は、完全なデータセットがここにある。AVAに関するペーパーは最初、5月にarXivに発表され、7月にアップデートされた。そこに紹介されている実験では、Googleのデータセットが既存の分類テクニックにとって極めて難しいことが示されている。下表は、前からあるJHMDBデータセットと、新しいAVAデータセットのパフォーマンスを比較している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Nvidiaに負けたくないIntelがニューラルネットワーク専用プロセッサーNervanaを年内発売

今朝(米国時間10/17)WSJのD.LiveイベントでIntelが公式に、同社のニューラルネットワークプロセッサーNervanaを披露した。この機械学習のユースケースを想定したチップ系列は、開発時のコードネームがLake Crestだった。

このチップの基本技術は、Intelが昨年8月に3億5000万ドルで買収したNervana Systemsに負っている。このニューラルネットワークプロセッサー(Neural Network Processor, NNP)チップは標準的なキャッシュ階層を廃し、チップ上のメモリをソフトウェアが管理することによって、ディープラーニングのモデルの訓練を高速化する。

Intelはここ数か月、Nvidiaに完敗することを避けようと躍起になっていた。今成長著しいAI市場に向けて舵を切ることにより、このレガシーのチップメーカーは、これまでに築いた業界とのコネを利用して生き残ろうとしている。その点に関してIntelの目標は、2020年のAI部門の売上を現在の100倍にすることだ。

NervanaはNNPとしてスケーラビリティと数値計算の並列化を売りにしている。また、強力な双方向データ転送能力も、重要なセールスポイントだ。Intel独自の数値フォーマットFlexpointを使うことによって、スループットを上げているという。また回路のサイズを縮小したことによって並列処理を高速化し、同時に電力消費量を減らしている。

もちろんニューラルネットワークのパラメーターを大量のチップに分散して効率を上げることは、他者も当然ねらっている。Nervanaと並んで今後市場にどんなものが出てくるか、今から楽しみだ。

今日の発表には、ベンチマークがなかった。間に合わなかった。発売は年内だそうだが、大丈夫か。Facebookは技術情報をIntelと共有して、このチップの開発に協力してきた。

Intelは、Nervanaを軸とする総合的な製品ラインを目指しているようだ。次に出るAI向けXeonプロセッサーは、噂ではコードネームが“Knights Crest”だそうだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Amazon、EVを充電するドローンの特許を取得

Amazonの最近の特許は、航行距離心配問題の答えになるかもしれないが、現時点では実用というよりもSFチックに聞こえる。新しい特許(via Roadshow)に書かれているドローンは、電気自動車のバッテリーを搭載し、路上でバッテリーが切れた車に、充電ステーションへ行くのに必要な充電をする。

ただしこの特許にはクレイジーな部分が多々ある。たとえばドローン自身が、軽い積荷で短時間の飛行でさえ電源管理には様々な工夫が必要だからだ。実際、自身の充電状態を保ちつつ補給を必要とする車の近くにいることがこのアイデア全体で最大の難関だと思われる。

これが現実になるまでの障壁はそれだけではない。特許資料によると、車の屋根にあるドッキングステーションにドローンが着地して接続したまま走行中に電力を供給すると書かれている。これは、自動車メーカーに採用されるか、車の改造が必要であることを意味している。

現時点では、非常に現実的なコンセプトであるとは言えない。しかしポテンシャルはある。どこでもEVが走りドローン配達サービス(Amazonが本気で取り組んでいる)が当たり前な未来では特ににそうだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

Samsungの小さなタグConnect Tag一回の充電で1週間子どもやペットの所在がわかる

子どもやペットや、そのほかの愛用品の所在が、知りたいときにすぐ分かるといいな、と常日頃思っている人にSamsungから朗報だ。この韓国の巨大エレクトロニクス企業が今日(米国時間10/16)発表したConnect Tagは、スマートフォンなどよりもずっと小さなデバイスで、インターネットに接続され、1回の充電で1週間、信号を送り続ける。

つまりこれは、Tileが提供している電子タグとよく似たものだ。アメリカのスタートアップTileは5月に2500万ドルを調達し、これまでの資金調達総額は6000万ドル近い。

Tileは大きさや形に自由度があるが、SamsungのConnect Tagは4.21cm x 1.19cmの真っ白な製品だ。それは一週間の電池寿命で、電力とデータの使い方がより控えめなナローバンドのネットワーク技術を利用する。それは、タグ製品としては世界で初めてだそうだ。

同機は、GPSとWi-Fi位置推定法(WPS)、および基地局ID(Cell ID)を利用する三角法によりデバイスの位置を正確に把握する。またそれは、SamsungのSmartThingsエコシステムにも対応していて、家のまわりにジオフェンスをセットアップできる。つまりタグの装着者が家に帰ってきたら、何かの機器がonになる、という使い方ができる。

また同機に付随しているAndroidアプリ、ロケーションファインダーでは、タグの現在位置を知ったり、一定の時間間隔で現在位置を通知させたりできる。職場で仕事に没頭しているときでも、ペットがちゃんと家にいることを確認できる。

価格の発表はまだないが、Samsung Connect Tagは最初韓国で発売され、その数か月後にそのほかの国でも発売される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Rasa Coreはチャットボットのコンテキスト判断用機械学習モデルを人間参加の半自動で作る

会話を扱うコンピューターシステムにとっては、コンテキストがすべてだ。人間はそのことを意識しないけど、日常のとてもシンプルな会話でさえ、複雑なコンテキストの産物だ。会話システムが人間の能力になかなか追いつかないのも、コンテキストという難問があるためだ。しかしベルリンのRasaは、対話的な学習とオープンソースのコードを利用して、この会話するAIの問題を解決しようとしている。

そのRasa Coreというシステムのやり方は、多くのAIスタートアップと似ていて、Amazonの
Mechanical Turkのような人力サービスを利用して機械学習のモデルが持つ不正確さを修正する。ただしRasaが使うのはMechanical Turkではなく、誰でも参加できる方式で、開発中のボットと人が短い会話をし、それによりモデルを訓練しアップデートしていく。

人とボットが会話をする様子を、上の図で見ることができる。上図では「利息を比較する」にチェックが入っているが、それは、ユーザーが求めている確率がもっとも高いと思われるアクションだ。それを見た人間トレーナーは、正しい/正しくないで答える。その結果をモデルは学習し、次に同じ状況に直面したら、もうその質問をしない。

Rasaのチームによると、ボットが使い物になるまでに行う人間とのサンプル会話は、数十回で十分だ。しかし、もっとたくさんやれば精度は上がるし、ユーザーフレンドリーにもなるだろう。

“IBMがWatsonで作った会話モデルを見たけど、ちょっとがっかりした”、とRasaの顧客の大手保険会社Helveticaに勤務し、会話型AIのプロマネでもあるFlorian Nägeleは述べる。“決定木が一つだけで、コンテキストをほかの木に持っていけない”、と彼はWatsonについて言う。

Rasaのよいところは、訓練データなしで顧客が自力でモデルを作れることだ。理想的には誰もがサンプル会話の自分用の大きなコーパスを持っていて、それを使って会話システムを訓練することだが、技術スタッフのいない企業では、それも難しい。

Rasa Coreは、オープンソースとしてGitHub上にある。またRasa Coreと本誌が昨年12月に取り上げたRasa NLUには、企業向け有料バージョンもある。有料版には、アドミン用管理インタフェイスや、カスタマーサポート、テストの自動化、コラボレーションによるモデルの訓練、といったサービスが付随する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

アメリカの超有名なモニュメント(記念的建造物)やダムもドローン飛行禁止区域に

連邦航空局(Federal Aviation Administration, FAA)が、記念的建造物やダムなど、アメリカの重要なランドマーク周辺におけるドローンの利用を規制するルールを発表した。この新たな制限では、ドローンはそのランドマークから400フィート(122メートル)以内を飛行してはならない。FAAによるとこれらのルールは、連邦政府の安全保障ならびに法執行関連の省庁(FBIなど)からの要望に基づいて制定された。

これらの場所は、これまでも増え続けていた飛行禁止区域の、さらなる追加にすぎない。これまでは、空港、(空港以外の)滑走路、軍の基地、競技場、国立公園などが禁止区域だった。おもしろいのは、今回加わった場所の半分がダムであることだ。すなわちFAAは、エネルギーや水などを供給する公共事業のための施設も、ドローンから守りたいのだ。規制が発効するのは、2017年10月5日からだ。

  • Statue of Liberty National Monument, New York, NY(自由の女神像)
  • Boston National Historical Park (U.S.S. Constitution), Boston, MA(コンスティチューション号博物館)
  • Independence National Historical Park, Philadelphia, PA(インディペンデンス国立歴史公園)
  • Folsom Dam; Folsom, CA(フォルサムダム)
  • Glen Canyon Dam; Lake Powell, AZ(グレンキャニオンダム)
  • Grand Coulee Dam; Grand Coulee, WA(グランドクーリーダム)
  • Hoover Dam; Boulder City, NV(フーバーダム)
  • Jefferson National Expansion Memorial; St. Louis, MO(ジェファーソン国立記念公園)
  • Mount Rushmore National Memorial; Keystone, SD(ラシュモア山)
  • Shasta Dam; Shasta Lake, CA(シャスタ湖貯水池)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google CloudのNatural Language APIにタグ付けによるコンテンツ分類と物や場所(語)レベルの感情分析機能が登場

Google Cloudが今朝(米国時間9/19)、そのNatural Language APIのアップデートを二つ発表した。具体的には、ユーザーがコンテンツの分類機能と対象物の感情分析機能にアクセスできるようになったことだ。この二つの機能は、ブランドやメディア企業でとくに重宝するだろう。

まず、GCPのユーザーはコンテンツにタグ付けできるようになる。タグは、健康、エンターテインメント、法律など、一般的な話題だ(cc: Henry)。今日のアップデートで、ドキュメントを700のカテゴリーに分類できるようになる。

Googleによると、この機能は主に、メディア企業や出版企業がターゲットだ。これらの企業は大量のコンテンツを作り出していて、その整理整頓はきわめて難しい。そこでコンテンツ分類機能が、これまでの分類カテゴリーと突き合わせながら、そのドキュメントのコンテンツに自動的にタグ付けする。検索はタグでできるから、読者の最近のトレンドをより深く分析でき、便利だ。

一方、感情分析の方は、場所や物に付随している感情を解析する。これまでの感情分析は、テキストのブロックを構成しているセンテンスが対象だった。しかし今回の粒度の小さい分析によって、ユーザーは特定の語の感情を同定できる。そこでたとえばブランドは、製品や物理的な場所に結びついている一般大衆の気持ちや意見などを知ることができる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのBrain TeamのAI研究者たちは毎日何をしているのか

GoogleのBrain Teamの連中は、毎日何をしてるだろうか。あなたと同じように、メールチェックに大量の時間を取られているかな。最近のRedditのAMA(Ask Me Anything, 何でも訊(き)いて)で、GoogleのAI研究者11名が、毎日彼らがやってることを述べている。メールはここでも多いが、学術論文を斜め読みするとか、同僚とブレーンストーミングをする、といった高尚な話題もある。

GoogleのBrain Teamは、同社で人工知能を研究している研究グループのひとつだ。グループのリーダーはGoogleのシニアフェローJeff Dean、彼はMapReduceの中心人物の一人だが、ほかにもいろんな実績がある。

Deanの一日の時間は、メールを送る、技術文書に注記する、研究者たちとのミーティング、コードをレビュー、コードを書く、講演やその準備などに費消される。チームのリーダーだから、Brain Teamを売り込む仕事も重要だ。

チームのだれもが例外なく大量の時間を費やすのが、自分の研究やチームの共同研究に関連するペーパーをarXiv読むことだ。チームの研修生Sara Hookerは、朝食、ときには昼食や夕食で、同僚とおしゃべりし、同じ問題でも研究者によって視点や取り組み方が違うことを知るのが、とても好きだそうだ。そして今の最先端の話題に後れないためにも。

これまで自分たちが考えてもみなかったようなAIのアプリケーション体験することも、彼らは好きなようだ。Hookerはその例として、宇宙探検を挙げる。

自分の出身大学の仕事を兼務している者も、何人かいる。NIPS(Neural Information Processing Systems)など、業界の重要なカンファレンスの企画運営に関わっている人もいる。

そして彼らは、自分で手を汚すことが好きだ。それは主に、hugeでmassiveでgiganticでcosmicでcolossalなGPUクラスター上で、徹夜も厭わず大きな実験をすることだ。Jasmine Hsuのように、コンピューターではなくロボットを使えるラッキーな研究者もいる。彼女はソフトウェアのボットではなくリアルなボットの上で、シミュレーションやモデルのテストなどをやって、研究中のアイデアのプロトタイピングをしている。一日中デスクに張り付いていることが好きな人は、あまりいない。

そこの研究者たちが考えることだけに費やしている時間で、ぼくたちならいくつかのことを学ぶことができるだろう。Daniel TarlowとNicolas Le Rouxは二人とも研究者で科学者だが、主な仕事は今やってるプロジェクトの舵取りや、今後のプライオリティの計画だ。彼らは毎日、それに集中している。

〔参考記事: 同グループ前年のAMA

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Appleよ、ロレックスに勝つのは難しくない

昨日(米国時間9/12)、Apple Watchがほとんどの主要時計メーカーを売り上げで上回ったとき、インターネットがざわついた。Apple WatchがRolexやOmegaなどの高級時計メーカーより多く売れたからといって驚くにあたらない。驚くべきは、RolexとOmegaがこの負け戦をいまだに戦い続けていることだ。

たとえば、Rolexの市場を考えてみて欲しい。私は、Rolexオーナーのほぼ全員がApple Watchを持っていることに賭けてもいいが、Apple WatchオーナーでRolexを持っている割合はごくわずかだ。多くの人にとってApple Watchは所有する唯一の腕時計であり、もしスマートウォッチというものがなければ、そもそも時計を身につけなかった人たちだ。先週長々と書いたとおり、Apple Watchを身につけるのは、これが最高のスマートウォッチだからであり、おそらく所有する最後の腕時計になるだろう。

Appleは間違いなく、売上の数字を誇りを持っている。具体的な数字を語ることは少ないが、われわれの推計によると、Apple Watchは昨年60億ドルの売り上げを立てたのに対して、Rolexは2015年に45億ドルを売り上げている。これは、Appleが1つの製品だけで、Rolexの全製品ラインの売上を越えたことを意味している。

これは、高級腕時計の世界の現状を表している。ごくわずかな非常に特別で非常に高価な製品を除いて、2000ドル以上の高級腕時計はほとんどが今や汎用製品だ。Rolexは1台か2台の時計を売って45億ドルの収益を上げたわけではない。かりに平均的Rolexの値段が8000ドルだとしても、Rolexは約50万台を売ったことになる。これはRolexが、ほかの人気スマートウォッチほど多くは売れていないが、まったく手に入らないと言われないほどには売れているという意味だ。高級腕時計メーカーは、われわれに彼らの製品は引っ張りだこで入手困難だと思って欲しいようだが ―― 稀少性を偽装することさえある ―― どの会社も一台でも多く時計を売るビジネスを続けていることは明らかだ

たしかに製造にかかる手間が増え、分解掃除なしで何年も ―― あるいは何十年も ―― 使えるほど頑強な精密機械を作るのに必要なスキルを持つ人は消えつつある。しかし時計業界は、まず1970年代にクォーツ時計を無視して大きな痛手を受け、今またスマートウォッチでも、雨が上がる前に傘を売り切ろうとパニックになっている売店の店主のような失敗を繰り返している。

つまるところ、ロレックスやオメガやカルティエを抜くのは難しくない。数百万の人たちが使いたくなる安くて良い製品を作ればいいだけだ。むしろ本当に驚きなのは、RolexやOmegaやCartierが未だに競争相手だとみなされていることだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

PyTorchとCaffe2両モデル間の変換ツールをFacebookとMicrosoftが共作、機械学習商用化のスピードアップ

FacebookとMicrosoftが今朝(米国時間9/7)、互いブログ記事で、ONNX、すなわちOpen Neural Network Exchangeというものを発表した。機械学習のデベロッパーはこのツールを使って、PyTorchとCaffe2のあいだでモデルを互いに変換し、研究開発や実装に要する時間を節約できる。

Facebookは前から、機械学習に関してFAIRとAMLという二つのグループを区別している。Facebook AI ResearchすなわちFAIRは最先端の研究開発を担当し、Applied Machine Learning, AMLはさまざまなプロダクトにインテリジェンスを実装する。

この両者は、使用するディープラーニングフレームワークも異なる。FAIRはPyTorchを使い慣れているが、こちらはリソースの制約がないコンピューティング環境でもっとも高度な研究開発の成果を追究する。

しかしユーザーのスマートフォンやコンピューターには能力の制約が当然あるから、実装役のAMLは、リソースを有効利用できるよう最適化されているCaffe2を使う。とくにその実装系のCaffe2Goは、非力なモバイルデバイスの上で機械学習のモデルを使えるよう、最適化されているCaffe2だ。

FacebookとMicrosoftが今日発表したツールを使うと、PyTorchのモデルとCaffe2のモデルを互いに容易に変換できる。二つのフレームワークを容易に行き来できることにより、 研究の伝播を広く早くし、また商用化の過程もスピードアップできる。

しかしながら、すべての企業がPyTorch/Caffe2のペアを使っているわけではない。TensorFLowベースの研究はきわめて多いし、そのほかの重要なフレームワークも使われている。また機械学習の商用化のレベルでは、モデルを特定のデバイスに最適化されたフォーマットに容易に変換するための研究開発も行われている。

たとえばAppleのCoreMLは、ごく限られた数のモデルを変換できる。しかし現時点でCoreMLはTensorFlowすらサポートしていないし、コンバーターの自作はかなり難しそうだ。GoogleやAppleが、特定のハードウェア向けの、機械学習フレームワークの最適化をもっとサポートするようになると、今度はそれらの相互運用性が課題になってくる。

Open Neural Network Exchangeは、Githubのここでリリースされている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Apple、次期iPhoneの最上位機種でホームボタンを廃止へ(Bloomberg報道)

ホームボタンがゴミ箱に向かっている ―― Bloombergの記事を信じるなら。同誌によると、Appleは次期iPhoneのうちの1機種で、ホームボタンをやめ大画面のための場所を空けるという。ホームボタンの代わりに、ユーザーは画面上のジェスチャーで操作する。アイコンのドックのようなものも登場する。

これが本当なら、2007年にiPhoneが発売されて以来最大のデザイン変更になる。

ホームボタンは発売以来ずっとiPhoneデザインの中心だった。スリープの解除、ホーム画面への復帰、最近ではTouch IDの指紋認証にも使われている。もしなくなれば、こうした操作の方法が変わることになる。しかし、Bloombergの記事は極めて慎重に、次期iPhoneのハイエンド機種だけでホームボタンがなくなると書いている。これは過去数か月以来の噂と一致している。

ホームボタンを押す代わりに、ユーザーは移動可能な細いソフトウェアバーを使って様々なアクションを指示する。画面中央にドラッグすると端末が起動し、アプリの中ではタスク選択メニューになり、アプリを切り替えたりホーム画面に戻ったりできる、とBloombergは言っている。そこで終わりではないはずだ。もしこの記事が本当なら、Appeはこのソフトウェアバーのために、あらゆる種類の論理的操作を用意しているに違いない。

Appleには以前からホームボタン廃止の前兆があった。iPhone 7では、触覚反応を使ってクリックを模倣した非可動ボタンを採用した。iPadにも最近、OS Xのドックを思わせるアプリメニューが入った。Bloombergは、これを次期iPhoneが変わる前兆と捉えている。

これは次期iPhoneで予想されている大きなデザイン変更の一部にすぎない。ほかの噂によると、 端末を見ている時に通知をミュートするしくみや、テーブルの上に置いてあっても使える顔認識機能や、iPhoneの前面をほぼ覆いつくす大画面などが採用されると言われている。

Appleは次期iPhoneとして3種類のモデルを用意していると噂されている。全部にホームボタンがなくなる可能性は低い。理由はいくつかある。iPhoneはAppleで最も多く売れているデバイスであり、ホームボタンの廃止は議論を呼ぶ可能性が高い。全ユーザーに波風を立てる理由はない。さらに、このハイエンド版新iPhoneは、iPhone 7のアップグレード版よりも利益率がずっと小さいに違いない。これまでAppleは、段階的アップグレードと隔年のデザイン変更を組み合わせて健全な利益率を確保してきた。それが変わることは考えにくい。しかし、この公式にあてはめれば、ホームボタンは2018年または2019年には全廃されることになる。

何が出てくるにせよ、本誌は9月12日、Appleが次期iPhoneを発表する現場に乗り込み、詳しく報告する予定だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Microsoftがディープラーニングを超高速化するFPGAシステムBrainwaveをベンチマーク結果と共に発表

今日(米国時間8/22)の午後Microsoftは、クラウド上で遅延のほとんどないディープラーニングを動かせるFPGAベースのシステム、Brainwaveを発表した。初期のベンチマークによると、IntelのStratix 10 FPGAsを使った場合Brainwaveは、大きなGated Recurrent Unit(GRU)の上でバッチなしで39.5 Teraflopsを維持できる。

MicrosoftはこれまでFPGAに注力し、FPGAの大きなクラスターを同社のデータセンターでデプロイしている。アルゴリズムはFPGAに書き込まれ、高い効率を得るとともに、プログラムの書き換えを容易にしている。FPGAのこのような専用化により、機械学習、とくにそのための並列処理が効率化される、と期待されている。

これらの成果を踏まえてMicrosoftは、FPGA中へ専用プロセッサーDPU(Dataflow Computing Unit)ないしDNN(Deep Neural Network)プロセシングユニットを合成した。このようにディープニューラルネットワークにフォーカスすることによってMicrosoftは、そのインフラストラクチャを研究のニーズに応じて高速化し、リアルタイムに近い処理を提供できる、と期待している。

FPGA自体はレトロな技術だが、最近ではその開発対応の素早さが見直されている。FPGAに取り憑かれているかのようなスタートアップMipsologyは、Amazonと密接に協働して、Amazon Web Servicesやそのほかのプラットホームでその技術を使えるよう、努めている。

これまでの数十年間が汎用CPUとその進化の過程だったとすると、最近の数か月は汎用の逆の、特定のタスクに秀でたカスタムチップに開発の主力が移行している。そして中でもとくにその注力が厚いのが、機械学習のための専用チップだ。

いちばん知名度が高いのが、GoogleのTensor Processing Unit、TPUだ。このチップはTensorFlow向けに最適化され、初期のベンチマークは将来有望と見なせる結果だった。しかしそのほかの主要テクノロジー企業も、その多くがサイドプロジェクトとして未来のコンピューティング、量子チップやFPGAなどに取り組んでいる。そして大企業がそうなら、スタートアップもそのゲームに参加しようとする。RigettiMythicWaveなどが、そんなスタートアップの例だ。

BrainwaveがMicrosoft Azureの顧客にいつから提供されるのか、それはまだ不明だ。現時点でこのシステムは、人気の高いGoogleのTensorFlowと、MicrosoftのCNTKに対応している。同社はこの技術を利用して、ディープラーニングのパフォーマンスを画期的に向上させるつもりだから、今後もさまざまなベンチマークが相次いで発表されることだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

炭素繊維とガラス繊維を使って鋼鉄よりも強度のある機械部品を3DプリントするMarkforgeのX3とX5

ボストンで3Dプリンターを作っているMarkforgedが、二つの新機種、X3とX5を発表した。どちらも、ふつうのフィラメント方式のプリンティングで、炭素繊維を満たしたオブジェクトを作れる。それらのオブジェクトには、スチール製のオブジェクトを置換できるほどの強度がある。

どちらの機種もレベリングとスキャンニングを自動的に行い、完全に同じオブジェクトをプリントできる。またどちらも、Markforged特製の特殊な熱可塑性ファイバーフィラメントを用い、X5の方は“ガラス繊維フィラメントの連続的供給”を行うので、通常のプラスチックよりも“19倍も強く10倍の硬度のあるオブジェクト”を作れる。つまり同じマシンで実用に耐える部品と実用に耐える工具の両方を作れるし、ガラス繊維のフィラメントのおかげで、それらは使用中に折れたりしない。あるユーザーは、わずか10分で、自転車の車輪の(チューブの)バルブを締めるバルブレンチ(下図)を作った:

次は悪いニュース。X3はたったの36990ドル、X5は49900ドルだ。Markforgedは、“国内の製造業企業”がターゲット、と言っている。良いニュースは、ユーザーのニーズの変化によっては、X3の機能をX5にアップグレードできること。またどちらも、製造業企業がプロトタイプではなく最終製品の生産に使えることだ。しかも、エンドユーザーの現場でも。

“顧客は、特定の部品が必要になったその日のうちに、強度とコスト要件を満たす部品を作れる”、とCEOのGreg Markは語る。

これらのプリンターは、Markforgedが最終的に目指している“物質転送システム”への途上にある。その複雑なスキャンニングと測定システムにより、ユーザーは遠方から3Dプリントのモデルだけを受信し、完全に同じものを自分の目の前に実現する。そのシステムにはフェイルセーフモードがあり、プリントが異常停止した場合にはレーザースキャナーがその原因を調べる。そしてプリンターはその箇所からリスタートする。同社は金属の3Dプリントについても独自の研究開発を行っていて、それにより複雑な機械の複雑な部品でも、実用に耐える強度のものをプリントできる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

500ドルのパスワード盗み機がiPhoneをこじ開けられるバグはiOS 11でパッチされました

昨日(米国時間8/17)YouTubeにユーザーEverythingAppleProが投稿したビデオは、短いパスコードでロックされているiPhone 7をアンロックする500ドルの小さなボックスを紹介している。それができるのはiPhone 7とiPhone 7+、そしてiPhone 6と6Sの一部だが、それができてしまう特定の状況になるまで、あなたは無限に待たなければならないかもしれない。

ぼくもちょっと調べてみたが、Appleによると、そのボックスに仕事をさせてしまうバグ的状況は、iOS 11の最終バージョンではパッチされており、秋にはリリースされるそうだ。なお、iOS 11のbeta 4でもすでにパッチされてるそうだ。

つまりこのボックスは、iOS 11に対しては何もできない。まず下のビデオを見て、それからこの記事の説明をお読みいただきたい。

このようなボックスは、何年も前から警察や、一部のサプライヤー(部品製造企業)が使っている。こいつはまず、正しいパスコードを見つけるまでさまざまなコードを次から次とトライする。iPhoneは、何度か続けざまに試されると自動的に自分をロックしてしまうが、iOS 10では、“バグ”以外に適切な呼び名のない、ある性質のために、1分以内なら高速の連続的パスコード試行が可能だ。このボックスも、仕事ができるのは1分以内だ。また、パスコードを変えてから10分後以降など、特定の状況では、この高速試行が拒否される。また、ある1分と次の(次に試行が可能な)1分とのあいだの待ち時間がとても長いので、人間が実際にやるには無理な方法だ。

以上をまとめると、このボックスが犯行に成功する条件はこうだ:

  • iPhone 7またはiPhone 7 Plus(そしてiPhone 6/6sの一部)
  • 今から10分以内の近過去にパスコードを変えた
  • パスコードを変えてから本機をまだ10分以上は使っていない
  • パスコードは4桁である

つまり、あなたのiPhone(上記機種)に侵入したい誰かが、このボックスを持っていて、しかもあなたのデバイスになんぼでも長時間アクセスできる、と仮定しよう。後者の条件はすでに非現実的だが、政府職員なら可能かもしれない。

あなたのパスワードが6桁で(それが今のデフォルト)、パスワードを変えてからまだ1分以内ならば、最大173日でそれを見破れる。

それが6桁で最近変えてないなら、9年6か月を要す。

iOS 11では、これらの日数や年数がもっと長くなる。自分の指紋を他人に使われたくないならTouchIDを無効にできる、という話が最近あったが、本誌のライターTaylor Hatmakerがそれについて、“企業がOSの上でやることの中では、今までで最高に知能犯的”、と言った。

警察とAppleのセキュリティの追いかけっこは、テレビ番組にしたらおもしろいだろうね。

iPhone 6/6sの件はあとから追記した。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

コネクテッドカーにおけるビッグデータ技術開発のためToyota、Intel、EricssonなどがR&Dコンソーシアムを立ち上げ

テクノロジー業界の著名な企業数社がToyotaとチームを組んで、自動運転車と未来の高度な自動車技術をサポートするビッグデータシステムを開発することになった。

このたび日本の自動車大手と手を握るのは、Denso, Ericsson, Intel, そしてNTT Docomoだ。グループは今日(米国時間8/11)、Automotive Edge Computing Consortium(自動車用エッジコンピューティングのコンソーシアム)という共同事業体の立ち上げを発表した。発表によると、年内にそのほかの“適切なグローバルのテクノロジーリーダー”〔複数形〕を仲間に加えていく予定だ。

各社の共通の問題意識は、未来のコネクテッドカー(インターネットに接続された自動車)におけるデータの使い方だ。地図のリアルタイム構築や、運転の補助機能などのサービスを理論から実装へと孵(かえ)すためには、それが欠かせない課題だ。そしてさらにそのためには、大量のデータを安全確実に処理できなければならない。

グループの声明文はこう述べている: “2025年には各月の車両とクラウド間データ量が10エクサバイトに達すると予想される。それは現在の量のほぼ10000倍である。このような予想増加量はネットワークとコンピューティングインフラストラクチャの新しいアーキテクチャを要請し、それらが分散リソースとトポロジーを認識できるストレージ容量をサポートできなければならない”。

10エクサバイトは、100億ギガバイトである。なにしろ、膨大な量のデータだ。

控えめに言ってもToyotaはこのところ、コネクテッドカーの分野で相当多忙だった。先週はマツダとの株式持ち合いにより、AIと自動運転技術を前進させていくことになり、今年の顕著な進展としてはほかに、コネクテッドカーに関するNTTとの提携、ブロックチェーンの研究開発着手、AIスタートアップ育成のための1億ドルのファンド創設、などがある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))