IBMがディープラーニングのモデルの訓練を分散並列処理で短時間化するライブラリを発表

二か月前にFacebookのAI研究所FAIRが、大規模な分散ビジュアル認識モデルの、かなり感動的な(==短い、はやい)訓練時間を発表した。今日(米国時間8/7)はIBMが反撃に出て、独自の数字を発表した。IBMの研究グループによると、1000のクラスに対応する画像分類モデルResNet-50を、256のGPUを使用するシステムで50分で訓練できた。つまり、Facebookのモデルよりもはやい、と言いたいのだ。FacebookがCaffe2を使った結果では、同じResNet-50を、8kのミニバッチ方式で、256のGPU上で1時間で訓練できた。

しかしそもそも、それのどこが重要なのか? 分散処理はAIの研究でも重要な関連分野だが、でもそれは、科学的というより、あまりにも技術的なテーマだ。しかもディープラーニングのような大きなジョブは、ジョブを分割し、複数のCPU(ここではGPU)に分担させて同時並行的にやるのが、大規模高速コンピューティングの昔からの定石だ。

しかしディープラーニングのモデルの訓練では、GPUの台数と処理速度が単純に比例しない。1台のGPUで2分かかる訓練が、2台のGPUだと1分で済むか、というとそうは行かない。タスクの分割と結果の再結合という面倒な処理が、かなりの時間を食う。

IBMが約束しているのは、大きなディープラーニングの問題を数百の小さな問題に分割して効率的に行う、分散ディープラーニングライブラリだ。それらは単一のコンピューティングジョブが目的ではなくて、IBMやFacebookが毎日のようにやっているのは、何百万もの顧客のためのモデルの訓練だ。大手のテクノロジー企業はどこもそんな課題を抱えているが、企業により問題により変数の数や性質が異なるため、それらを単純に横並びで比較することはできない。

しかし、分散処理の漸進的な改良にもそろそろ限界があるのではないか。IBM Researchでシステムのスピードとメモリを担当しているディレクターHillery Hunteによると、今やどこも最適解に近づいている、という。

“今やシステムの能力の限界まで来ているから、最適解に近いと言える。今後の改良の大きさがどの程度になるのか、そもそも学習時間にこれ以上の改良は可能なのか、そろそろ問うてみる必要がある”。

IBMは今後ResNet-50だけでなくResNet-101も分散訓練を試してみる予定だ。101は50よりもずっと大きくて複雑なビジュアル認識のモデルだ。チームによると、GPU 256基の分散システムの上で、データセットとしてImageNet-22kを使って行ったResNet-101の訓練では7時間を要した。それは、かなり良好な結果だそうだ。

“この分散訓練は小さなシステムにもメリットはある”、とHunterは言う。“しかもGPUが256とか、システムが64までは(小さなシステムでは)要らないからね”。

このディープラーニングライブラリは、TensorFlowやCaffe、Torchなど、主なオープンソースのディープラーニングフレームワークで利用できる。自分で試してみたい方は、PowerAIから入手できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IBM Watsonはウォール街の今の基準から見ると不評、Jefferiesが酷評レポートを発表

IBMのWatsonが今日、グローバルな証券大手JefferiesのJames Kisnerから、手厳しい批判を頂戴した。同グループは、WatsonへのIBMの投資が株主たちへのリターンを阻害している、と信じている。近年IBMは、重要な成長部門のひとつとしてWatsonをますます重視していた。それがまるで、IBMの未来を投射する影絵人形であるかのように。

かつて、IBMの競争上の優位性は、Fortune 500社との長年にわたる関係にあった。そんな中でWatsonは、一種のコンサルタントとして利用され、同社が企業との高額な契約を結ぶときには、それらの具体的なビジネスケースのためにWatsonのテクノロジーを実装してきた。しかし残念ながらIBMは、クライアントのニーズと、同社自身の技術力とのあいだのギャップを填めることに、今でも苦労している。

Jefferiesは、WatsonをスケールするというIBMのより広範な問題のケーススタディとして、IBM Watsonと大規模がんセンターMD Andersonとのパートナーシップの監査を取り上げている。MD AndersonはWatsonのプロジェクトに6000万ドルを浪費した挙句にIBMとの縁を切り、“人への治験や臨床的利用にはまだ適していない”、と断じた。

MD Andersonの悪夢は特例ではない。AI系のスタートアップのファウンダーの多くが、顧客である金融サービスやバイオテック企業がIBMと同様の経験をしている、と語っている。

しかしそれは特定の不具合に関する話ではなくむしろ、誇大なマーケティングや、ディープラーニングとGPUの稼働の欠陥、そしてデータ準備の要求が厳しすぎることを指している。

JefferiesがMonster.comのデータを使って集めた求人案件

求人の状況を見てみると(上図)、人工知能/機械学習/ディープラーニング関連でIBMは他のテクノロジー企業と肩を並べていない。ディープラーニングにいたっては、IBMの求人はAppleやAmazonに比べて死んだも同然だ。この図にGoogleやMicrosoft、Facebookなどを加えたら、IBMはもっと悲惨に見えるだろう。

Jefferiesのレポートが提供している情報は、新しくもなく、驚天動地でもないが、IBM Watsonが今抱えている問題をウォール街が気にし始めたことの、明らかな兆候だ。IBMの決算報告はいつも熱心に見ている方だが、しかし市場は短期的な成長を重視しすぎて、長期的な技術および戦略の持続可能性に目が行ってない。

お金を出し渋ることが仕事の一部であるCTOや、最新流行の役職であるCDO(chief data officer)たちに売る、という不毛なAI市場でIBMが槍玉に上がるのは十分に理解できるが、しかしAIは、大量の非定型データを吸い込んでインサイトを吐き出す、摩訶不思議なブラックホールではない。堅実なデータパイプラインと、AIに対する自己の業務レベルでの正しい理解が、利用者の最低限の必要条件だ。

今日のAIファーストの世界では、初期の成功がもたらした惰性は何の役にも立たない。今や機械学習のプラットホームなんか一山(ひとやま)なんぼで買えるし、GoogleやAmazonのような巨大テクノロジー企業が、そのためのクラウドのエコシステムに数十億ドルを投じている時代なのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IBMが爪の上に300億個のトランジスターが乗る5nmプロセスルールの微小トランジスタを開発

IBM Researchがチップ製造用の新しいタイプのトランジスターを作った。それは、5nmというこれまでで最小のプロセスを使用し、研究パートナーのGLOBALFOUNDRIESやSamsungと共同で開発された。チップの組み立て方式を変えるなど、いくつかの基本的な事項の変更によって生まれたその微小トランジスタは、これまでムーアの法則は終わったと言われていた、プロセスの限界を突破できた。

この新しいプロセスによって、チップのサイズと密度は、人間の指の爪の上に300億個のトランジスターを乗せられるレベルになる。その場合、集積のために全周ゲートFET(gate-all-around(GAA) transistors)と呼ばれる立体的なゲート集積プロセスを用いる。〔参考記事。〕

性能的には、同じ消費電力で、現在の10nmチップの40%アップとなる。現在の10nmチップと同性能として省エネをねらった場合は、75%の電力節約が可能になる。

しかし、喜ぶのはまだ早い。IBM自身も認めるように、この超過密チップの実用化商品化まではあと10〜15年はかかる。でも、これにより、われわれのローカルなコンピューティングやモバイルデバイスは、とても強力になるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

マイクロサービスの集まり(単一/複数アプリケーション)を安全に管理するプラットホームIstioをGoogleとIBMとLyftが共同で立ち上げ

マイクロサービス(microservices)は、大きなアプリケーションを小さな部品に分割して、それらがAPI経由で互いに通信し合う、という開発方式だが、今ではとくに、コンテナをベースとするマイクロサービスが、多くのデベロッパーのあいだで最大人気のアプリケーション・アーキテクチャになっている。しかし、小さなサービスの大軍を管理することには、それなりの課題が伴う。デベロッパーとDevOpsたちが彼らのマイクロサービスベースのアプリケーションを管理しその安全を確保できるために、Google, IBM, およびLyftが今日、デプロイしたサービスのネットワークを作れるオープンなプラットホームIstioを発表した。そしてそれには、ロードバランシングやサービス間認証、モニタリングなどのツールが含まれている。

このプラットホームの利用にあたって、既存のアプリケーションの変更は必要ない。その理由として、Istioはネットワークのレベルにいて、ユーザーのマイクロサービス間のネットワーク通信をプロキシを使って捕捉するからだ。使用するプロキシはLyftが開発したEnvoyで、そのほかにサービス発見やロードバランシングのためのツールも含む。

Istioのチームはこう説明する: “一枚岩的なアプリケーションがマイクロサービスの集合に分解されると、分散システムの上で複数のサービスを統合していくことが、新たな課題になる。そしてそのためには、サービス発見、ロードバランシング、フォールトトレランス、エンドツーエンドのモニタリング、機能の実験のための動的ルーティング、そしてとりわけ重要なコンプライアンスとセキュリティを備えなければならない。これらを揃えるにあたって不整合が生じたり、つぎはぎだらけのライブラリやStackOverflowで拾ったコード片を使ったりしていると、複数の言語やランタイムにわたって互換性を欠く、ばらばらなソリューションができあがり、観察性/観測性が劣化し、その結果セキュリティが壊れることも少なくない”。

単一のライブラリに標準化してサービス間の通信を管理することは、理論的には可能だが、実際にはなかなかありえないことだ、とチームは主張する。そこで既存のサービスがそのまま残り、柔軟性を欠くことになる。

Istioはデベロッパーに単一のサービスメッシュを提供し、その中に、ロードバランシングやフローコントロールやセキュリティポリシーの実装に必要なモニタリングサービスがあって、ネットワークの信頼性が落ちてもアプリケーションが動き続けられるようにする。また、複数のアプリケーション間の通信に必要な認証とセキュリティを、TLS接続により提供する。そうするとデベロッパー自身は、証明の管理などの雑務を免除される。

IstioにはGoogleも参加しているから、今のところはコンテナオーケストレーションサービスとしてKubernetesしかサポートしていないが、いずれは他の環境もサポートしていく計画だ。むしろIstioの基本的な考え方は、特定の環境に縛られないことだから、今後はMesosなどもサポート対象になるだろう。またGoogle自身も、同社のユーザーAPI提供/管理プラットホームCloud EndpointsやApigeeをIstio対応にする措置を講じている。Googleは昨年Apigeeを、6億2500万ドルで買収した

ただし、今やKubernetesプロジェクトの‘公共的住処(すみか)’となったCloud Native Computing Foundationにも、Istioに類似したプラットホームlinkerdがある。linkerdはすでに、DockerとMesosphereのDC/OS(データセンターオペレーティングシステム)のサポートを提供している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IBMの株価が急落 ― 20四半期連続の減収をうけて

IBMが抱える問題をどう解決すべきだろうか?

米国時間18日、IBMが決算を発表し、同社が20四半期連続の減収だったことが明らかになった。四半期ベースの純利益はアナリスト予測を上回ってはいるものの、それは同社の株価を支える要因とはならなかったようだ。

IBMの株価は決算発表後の時間外取引で急落。その後も株価回復の兆しは見えず、結果として前日比5%(8ドル)安で大引けを迎えた。

Motley Foolが述べているように、今回の決算発表が引き金となりIBMの時価評価額から約90億ドルが失われた。ダウ平均株価も64ポイント下落することとなった。

減収の原因となったのは同社のコンサルティング・ビジネスだ。IBMは1990〜2000年初頭にかけてこのビジネスから巨額の利益を得ていたが、現在、この事業から得る収益は減少し続けている。

ひとまず、決算の概要を伝えておこう。Thomson Reutersによれば、1株あたりの純利益はアナリスト予想の2.35ドルに対して2.38ドルだった。その一方、売上高は181.6億ドルに下落。「the Street」の予想は183.9億ドルだった。

決算概要

昨年と比べると、1株あたりの純利益は1%増加し、収益は3%下落したことになる。

明るいニュースもある。同社のクラウド事業は快調で、収益は昨年から33%増加した35億ドルだ。

しかし、アナリストが懸念しているのは、収益だけを見ればIBMとAmazonは拮抗しているものの、IBMがAWSやAzureの成長スピードに追いつけていないという点だ(最新の決算発表によれば、AWSは昨年比47%のスピードで成長している)。

僕の友人がFacebookに投稿していたように、「クラウド事業に何億ドルも費やしても本屋に勝てないなら、それを努力と呼ぶことはできない。悪いサインなのだ」。

しかし、この決算を見て、IBMが「戦略的インペラティブ」と位置づけるビジネスに成長の兆しが見えてきたと解釈するBig Blueファンもいるだろう(IBMは2015年に同事業のリストラクチャリングに着手した)。

IBMの発表によれば、クラウド事業が属するセグメントの収益は78億ドルで、昨年と比べて12%増加している(為替調整なし)。また、同社のコグニティブ・ソリューション・ビジネスは昨年比2%増の41億ドルとなっている。

IBM CEOのGinni Rometty氏は今年はじめ、これらの戦略的インペラティブから得た収益が2016年度の収益全体の40%以上を占めると話していた。

痛みの原因

IBMが減収となったのは、コンサルティング・ビジネスや、ハードウェアやインフラの売上が不調だったことが原因だ(予測されていた通り、クラウド事業とハードウェア事業のカニバライゼーションが起きている)。

また、IBMはR&Dに例年より多くの資金を投下している。前年比は14.6億ドルだった研究開発費が15.3億ドルに増加しているのだ。ただ、それでも巨大テック企業としては心もとない数字ではある。

長年、IBMのR&D部門は素晴らしいテクノロジーを生み出してきた。しかし、Microsoft、Google、Amazonといった強敵と競うためには、(誰もこんな風に呼んでいないけど)「Beast from Armonk」と呼ばれるこのR&D部門がかつての権威を取り戻す必要があるだろう。HuaweiやAlibabaが台頭する今ではなおさらだ。

しかし、IBMが大きな変身をするのはこれが初めてではない。100年以上前に創業されたIBMは、これまでに何度も大改革を成し遂げてきた。2005年にはコンピューター事業を中国のLenovoに17.5億ドルで売却 ― そして、その約10年後にはサーバービジネスも同じくLenovoに21億ドルで売却している。

これらはすべて、IBMにとって初の外部招請CEOであるLouis Gerstner氏がその約10年前に構想したリストラクチャリング計画の一部だった(思い返してみれば、IBMの経営者をRJR Nabiscoから引き抜いてしまったことはベストアイデアとは呼べなかったかもしれない)。

「the Street」が求めるもの

アナリストたちは、Rometty氏が2年前に開始したリストラクチャリングの行方に注目している。Barronsが発表したレポートによれば、アナリストが最も注目するのはIBMの売上総利益率だという。BarronsはMorgan StanleyのアナリストであるKaty Huberty氏の言葉を引用している。

売上総利益は、IBMが2015〜2016年にかけて行った大規模投資の結果を見極めるための最良の指標だと考えています。もし、今年後半の決算発表においてセグメントの売上総利益に改善が見られなければ、他のソフトウェア関連株と比べても低い株価収益率がつくことになるでしょう。私たちが想定した目標株価142ドルのケースです。

つまり、IBMにまだ競争力があるということを示すためには、改善された売上高総利益率をもってビジネスが本当の意味での収益を生み出していることを証明する必要があるのだ。

もはや、投資家を納得させるために自社株買いなどの小手先の策に頼ることはできない。

希望の光はある。セキュリティ、コグニティブコンピューティング、クラウドコンピューティング、AIなど、IBMの「セクシーな」ビジネスは着実に顧客を獲得しつつある。しかし、この好調さがどこまで続かどうかは、IBMが小成に安んずることなく、前進を続けられるかどうかにかかっている。

長年の間、アメリカのテクノロジー業界を牽引してきたBig Blueが躓いているところを見ると心が痛む。しかし、Romettyが沈みかけた船を修復してくれると主張する前向きな意見もたくさんある。彼女に十分な時間が残されていれば、という話だが。

[原文]

(翻訳: 木村 拓哉 /Website /Facebook /Twitter

IBMがクラウド上のブロックチェーンサービス、SaaSとしてのブロックチェーンプラットホームを立ち上げ

IBMが今日(米国時間3/20)、クラウド上の汎用ブロックチェーンプラットホーム、いわば“Blockchain as a Service”を、The Linux FoundationのオープンソースプロジェクトHyperledger Fabricバージョン1.0をベースに構築し、公開した。

IBMのBlockchainは一般公開されるクラウドサービスで、ユーザーはこれを利用して安全なブロックチェーンネットワークを構築できる。同社がその計画を発表したのは昨年だったが、このほど最初の実用実装の供用にこぎつけた。

ブロックチェーンは2008年ごろに、デジタル通貨Bitcoinの取引記録方法としてその名が知られ始めた。ブロックチェーンは本質的に、透明で改ざん不能なデジタル台帳だ。Bitcoinの取引を安全かつ透明に記録できることが示しているように、そのほかのタイプのデータもプライベートなブロックチェーンに安全に保存したり取り出したりできる。

民間企業や政府機関は、ブロックチェーンを使って信頼性の高いネットワークを構成できる。それによりメンバーは自由に情報を共有でき、それはメンバーだけが見ることができ、いったん入力された情報は書き換えられない。

IBMでブロックチェーンを担当しているVP Jerry Cuomoによると、顧客は同社のこのクラウドサービスを利用して、ブロックチェーンのネットワークを作成、展開、そして管理できる。これは、いろんな種類のクラウドサービスを顧客に提供していきたいとするIBMの基本戦略の、一環だ。

ブロックチェーンそのものはオープンソースのHyperledger Fabricプロジェクトがベースで、IBMもこのプロジェクトに参加しているが、これに独自のセキュリティサービスを加えることによって、エンタープライズの顧客でも安心して利用できるようにしている。また複雑な技術をシンプルなクラウドサービスでくるんでいるので、企業が自前でブロックチェーンを実装するよりもずっと楽である。

Cuomoはこう語る: “かなり前から、わが社を中心とするテクノロジー企業のグループが、企業のためにブロックチェーンとその関連技術(管理など)の一式を、サービスとして提供することを検討していた”。

そして2015年の終わりにHyperledger Fabricプロジェクトが登場して、それが可能になった。このプロジェクトには、State Street Bank, Accenture, Fujitsu, Intel などもメンバーとして参加している。

Hyperledger Fabricを利用すると、顧客側には安全なネットワークを構築するという外見があるだけで、ネットワークのセットアップやメンバーの招待、認証情報の暗号化などはすべて楽屋裏で行われる。またIBMのクラウドでは、IBM独自のセキュリティも盛り込まれるから、なお一層安全になる、と同社は考えている。

IBMのブロックチェーンサービスが絶対不可侵とまではCuomoも言わないが、独自の安全対策は施している、という。たとえば、その台帳はそのほかの一般的なクラウドコンピューティング環境からは隔離され、特製のセキュリティコンテナに台帳を収めることによって、無資格アクセスを防止している。また、セキュリティ耐性の強い、専用のハードウェアを使用している。たとえばそのハードウェアは、ハックを検出すると直ちに自分で自分をシャットダウンする。

同じくIBM独自のセキュリティ対策として、ネットワーク内で起きるあらゆるアクティビティを仔細に監査できるようにしている。アドミニストレーターは、異変時に監査記録をすぐに見ることができる。

IBMはこのブロックチェーンサービス本体に加えて、顧客のアイデンティティと属性を安全にシェアするブロックチェーンの実装SecureKey Technologiesを発表した。同社はこれまで、ブロックチェーンの応用技術として消費者のアイデンティティネットワークを、カナダの銀行でテストしてきたが、これはその派生システムでもある。

それがIBMの主張どおりなら、デジタル世界におけるアイデンティティのメンテナンスと共有が、大幅に単純化されると同時に、安全にもなるだろう。そして、毎回不必要な情報を入力することはなくなり、また共有化を途中で拒否することも、容易にできるようになるはずだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IBMとSalesforceがパートナーシップを締結 ― WatsonとEinsteinによる統合サービスを提供

人工知能の分野で先行する2社が手を組んだ。IBMとSalesforceがパートナーシップ締結を発表したのだ。

このパートナーシップにより、IBMはEinsteinとWatsonの両方を通じて同社のコンサルティングサービスを売り込むことができる。

今後、Watsonのビジネスから得たノウハウが直接SalesforceのIntelligent Customer Successプラットフォームにもたらされることになる。Einsteinがもつカスタマーリレーションシップのデータと、Watsonがもつ天気、ヘルスケア、金融、リテール分野の構造化/非構造化データが組み合わさるかたちだ。

「今後数年のうちに、私たちはAIや認識技術の手を借りて主要な意思決定 ― 個人、ビジネスを問わず ― を行うことになるでしょう」とIBM最高経営責任者のジニ・ロメティー氏は語る。

ロメティー氏によれば、Watsonに「触れた」ユーザーは10億人にものぼる ― 腫瘍学などの医療分野、リテール分野、税務分野、クルマ分野など、その入り口はさまざまだ(この数字に広告分野が含まれているかどうかは定かではない。たぶんそうだろうが、、、IBMはWatosonを頻繁に宣伝している)。

「EinsteinとWatsonのコンビネーションによって、ビジネスがよりスマートになり、私たちの顧客も恩恵を受けることができます」とSalesforce最高経営責任者のMarc Benioff氏は話す。「IBMと手を組むことができ、とても興奮しています ― これほどまでにSalesforceのコアバリューと共通した理念をもつ企業は、IBMの他にありません。両社にとってベストなパートナーシップだと言えます」。

Benioff氏の話は多少誇張されている部分もあるが、この2つの企業が手を組んだことによって奇妙なパートナーシップが出来上がったことは紛れもない事実だ。両社が展開する知能プロダクトがどのレベルまで統合されていくのか、そして彼らがどの程度手を取り合うのかは、まだ明らかにされていない。

両社の発表によれば、今後彼らはAPIを利用してWatsonとEinsteinの統合を進めていくという。彼らが例としてあげた用途として、Einsteinがもつ顧客データとWatsonがもつ天気データやリテール業界のデータを組み合わせることで、顧客にEメールキャンペーンをうつというものがある。

まさしく、天気データの統合はこのパートナーシップのなかで最も重要な要素だといえる。IBM傘下のWeather CompanyのサービスがSalesforceのアプリマーケットプレイス「AppExchange」に加えられるのだ。これにより、顧客に天気情報をもとにしたアップデートを提供することができるようになる。

最も重要なのは、WatsonとEinsteinを統合した機能の導入を支援するサポートチームをIBM傘下のコンサルティング企業「Bluewolf」が組織するという点だろう。両社の統合サービスは3月末から利用可能になる予定だが、すべての機能が利用できるようになるのは今年後半になる見込みだ。

この件についてSalesforceとIBMからコメントを入手することはできなかった。

IBMの機械学習フレームワークPower AIがGoogleのTensorflowをサポート、Intelより一歩遅れて

shutterstock_157995017

IBMには、同社のPowerプロセッサーとNVIDIAのNVLinkをベースとするサーバーを使っている企業のための機械学習フレームワークPowerAIがある。NVLinkはGPUとCPUを結ぶ高速リンクで、ディープラーニングの計算はその多くをGPUが担当する。今日(米国時間1/26)同社は、そのPower AIが、機械学習ライブラリの中ではとくに人気のあるGoogleのTensorflowをサポートする、と発表した。

TensorFlowは公開されてまだ1年とちょっとだが、短期間でGitHub上の一番人気のオープンソース機械学習ライブラリになった。IBMのPowerAIはすでに、CAFFETheano, Torch, cuDNN, NVIDIA DIGITSなどのフレームワークをサポートしていたが、Tensorflowのサポートがないことが、まるで欠陥のように感じられていた。

IBMはPowerAIのNvidia NVLinkインタフェイスとPascal P100 GPUアクセラレータの組み合わせを、強力な差別化要因とみなしていた。その際、競合他社としていちばん意識しているのがIntelだが、そのIntelが最近Googleと組み、同社のCPUでTensorFlowのパフォーマンスを上げようとしている。

IBMはもちろん安物のサーバーを売っている企業ではないので、Power AIをサポートするマシン、Power System S822LC for high-performance computingは、プライスリストにすら載っていない。その一般商用バージョンの価格は、1万ドル弱から上だ。

IBMの今日の発表の中には、TensorFlowのサポートに加えて、ニューラルネットワークを作るためのフレームワークChainerのサポートがあった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Facebook、Amazon、Google、IBM、MicrosoftがAIで歴史的な提携を発表

2016-09-29-ai-competitors

世界最大のテクノロジー企業のグループが今や地球上でもっとも価値のあるデータベースのカギを握っている。歴史的には財貨と貨幣が価値を体現する存在だった。現代ではデータがもっとも重要な通貨だ。データの価値を最大限にするのはそれをベースとする人工知能だ。誰であれきわめて大規模なデータの持ち主でなければ有効な人工知能テクノロジーを持つことはできない。現在のところそのような規模でデータを所有する企業はFacebook、Amazon、Alphabet(Google)、IBM、Microsoftなどだろう。

今日(米国時間9/28)、上述の5社は共同で発表を行い、AIにおける新たな提携を発表した。このPartnership on AIは人工知能に関する研究及びベストプラクティスの普及を目指すという。現実の活動して考えると、この5社の代表は頻繁にミーティングを行い人工知能の進歩を促進するための議論を交わすことになる。またこのグループは企業の垣根を超えてコミュニケーションを図る正式な組織も結成する。もちろんメンバー各社は日々のビジネスでは人工知能をベースにしたサービスやガジェットの開発をめぐって激しく競争しているライバル同士だ。

現在のメンバー各社は当初の財政的基盤も整備するとしている。しかしこのパートナーシップは開かれた組織であり、将来は参加メンバーを拡大する計画だ。科学者、エンジニアに限らず、ユーザー活動家、NPO、倫理問題の研究者その他人工知能に関連する人々が数週間後に開催予定の会議で意見を交わす予定だ。

DeepMind(現在はAlphabet傘下)の 共同ファウンダーで応用AIの責任者Mustafa Suleymanは「われわれはAIを作る側だけでなく、AIによって影響を受ける側の人々の参加を求めている」と語った。

このパートナーシップでは、企業外のグループや個人も大企業の代表と肩を並べて参加し、リーダーとなれる仕組みだ。

今日のスタート時点ではApple、Twitter、Intel、Baiduなどはメンバーに含まれていない。AppleはAIプロジェクトに熱心だとされるが、このパートナーシップに参加したライバルに比べてAI分野で立ち遅れて気味な同社が未参加なのが目立つ結果となっている。

新組織は単なる議論ではなく、実例をもってAIの普及を図ろうとしているようだ。パートナーシップはオープンライセンスの標準をもちいてAIプロダクトに関する研究成果を公表していく。これにはテクノロジー面だけでなく、倫理、プライバシー、少数者の保護など広い分野が含まれる。

IBM ResearchにおけるAI倫理の研究者Francesca Rossiは「現在エンタープライズ部門がAIをコントロールしている。社会全般がAIの利便性を利用できるようになるためには、まずAIが信頼性を確立することが必要だ」と語った。

メディアで目立つAIの危険性に関するポップカルチャー的な主張と比べたときに新組織の着実な立場は安心感を与えるものだ。将来AIによるシンギュラリティーが人類の存続を脅かすかどうかなどという議論に熱心な向きもいるようだが、われわれはすでにAIが関連する現実の問題の長いリストを抱えている。コンピューターは、われわれの職をすべて奪ったりしていないものの、以前から人間が持っている否定的特質も拡大する力がある。偏見が優勢な世界は偏見を含んだデータセットを生み、偏見を含んだデータ・セットは偏見のあるAIフレームワークを生成する。

この問題を是正するためにMicrosoftはすでにAI倫理委員会を設けている。新パートナーシップは従来の組織と重複するものではなく、むしろこれまで各社が個々に行ってきた努力を拡充するものだという。新パートナーシップの会議記録は一般公開される予定だ。

この記事の執筆にはJosh Constineが協力した。

画像: Bryce Durbin/Bryce Durbin

〔日本版〕この報道はTechCrunch以外にも欧米の主要ニュースメディアが報じているが、他の記事にもニュースリリースないしイベンへのリンクがない。今後なんらかのフォローアップがあるものと思われる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

IBMのDataWorksはApache Sparkによるビッグデータ分析に人工知能Watsonが企業向け利用インタフェイスをまとわせる

screen-shot-2016-09-27-at-10-53-02-am

マシンインテリジェンスの分野は、研究開発が盛んであるだけでなく、より影響力の強い応用現場でも新しいトレンドが生まれつつある。それを好機としてApache Sparkのようなオープンソースのフレームワークは、データサイエンティストのニーズに応えるだけでなく、企業の事業開発にもデータ分析を持ち込もうとしている。

IBMがこのほど立ち上げたProject DataWorksは、SparkとIBM Watsonを組み合わせて、分析の堅実性を維持しつつそのスピードと使い勝手を向上しようとする。わかりやすく言えばDataWorksは、データ分析のためのGoogle Docsだ。今多くの企業は大量のデータを、いろんなところにばらばらに保存している。IBMのこの新製品は企業のすべてのデータを食べて、それを一箇所のアクセスしやすい場所に置く。

management-console

データに、それを必要とする者が迅速簡単にアクセスできるために、IBMはダッシュボードを提供し、そこにデータのアクセス状態や、利用しているユーザー、カテゴリー関連の各種測度などを収めて表示する。IBMはその技術を、データをカタログに仕分け分類すること、と呼ぶ。検索は自然言語で行い、ユーザーはカタログに整理された情報を、これまでよりもずっと素早く取り出すことができる。また、データの取り入れ速度は、IBMによると、50〜100Gbpsである。

データの視覚化は、PixiedustやBrunelなどのコードを使って、わずか1行のコードで作り出される。視覚化によりもちろん、データ間の関連性や分類がよりわかりやすくなり、ふつうの社員でも、ひと目でインサイトを得ることができる。

大企業も中小企業も、IBMのクラウドプラットホームBluemixからDataWorksツールにアクセスできる。近く料金体系が確立すれば、ユーザー企業はこのシステムを数時間〜数日〜数か月と、長期間(または常時的に)稼働させられる。またIBMの構想では、データ分析を携帯キャリアのデータプランからも提供し、それを定額の月額制にすることもできる。

IBMのデータ分析担当VP Rob Thomasによると、企業はこのツールを活用することによって、人件費を大幅に節約できる。またデータ分析に関して、企業の特定部門の人間を教育訓練する苦労もなくなる。さしあたり、リテールや金融、通信などの分野が主な顧客層になるが、しかしThomasによると、中小企業のうち‘中’の方の企業も今すでにこのシステムに関心を示している。

DataWorksの動力となっているIBM Watsonは、これまでも同社の成長と売上を支えてきた。このたび新しいユースケースが増えることによって、Watsonはますます自分を改良していくだろう。そしてDataWorksの主要部分は、IBMが今年初めに買収したThe Weather Companyの技術を利用している。その買収の目的は不定形データの分析にあったが、今ではお天気情報ばかりでなく、Watsonの助力も得て、企業のデータ分析方面に新たな市場を開拓しつつある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IBMとMIT、視覚と聴覚を人間のように理解するAIを共同研究

shutterstock_228897490

人間は何かが起きたのを見たり聞いたりした時、すぐにそれを言葉で表現できる。「青いシャツの女の子が、野球選手の投げたボールをキャッチした」とか「犬が海辺を走っている」とか。私たちにとっては簡単なしごとだが、コンピューターにとっては恐ろしく大変だ ― 幸い、IBMとMITが協力して、それを少しやさしくする方法を検討している。

新設の “IBM-MIT Laboratory for Brain-inspired Multimedia Machine Comprehension” (略してBM3Cと呼ぶことにする)は両組織による複数年にわたる共同プロジェクトで、コンピュータを使った視覚と聴覚の問題を集中して研究する。

チームを率いるのは、MITの脳認知科学科長、Jim DiCarloで、同学科とCSAIL(コンピュータ科学・人工知能研究所)およびIBMのWatsonチームのメンバーが新研究所に参加する。両組織間に金銭の授受はなく、特定の製品開発も行わない。活発で願わくば成果を伴う相互援助が生まれることを目標としている。

視覚情報処理の問題は様々な専門分野にわたるため、様々な方向から取り組む必要がある。例えば、カメラで物体を綿密に追跡できたとしても ― 物体を背景から切り分ける方法を知らなければ役にたたない。それができたとして ― 物体を認識できなかったら? さらには物体同志の関係も確定させなくてはならない…いずれも人間の脳が最も得意とするところだ。

image_descriptions

この分野にはGoogleも非常に関心を持っている。これは写真の要素を識別することに関する最近の研究論文だ。

これは研究所の名前に “brain-inspired”[脳からアイデアを得る]が入っている理由でもある。 人間の神経回路網の働くしくみをモデルにしたバーチャル神経回路網を使うことによって、研究所ではコンピュータが周囲の世界を解釈する方法について、あらゆる種類の興味深い成果を生み出してきた。

MITとのこの共同研究は、IBMが最近いくつか実施してきたものの一つだ。同社の認知コンピューティング担当VP、Guru Banavarが、ブログに詳細を書いている。他の共同研究には、意志決定のためのAIの研究、サイバーセキュリティー、言語のディープラーニング等がある。IBMは間違いなくAIの基礎研究に多大な投資をしてきており、万全の準備を整えようとするのは当然だ。これらの共同研究全体で、”Cognitive Horizons Network” と呼ばれるグループを構成している。

「現在われわれは、AIシステムの安全で倫理的な運用を支援するための、ベストプラクティス・システムを準備している。そこでは社会の規範や価値との一致も考慮される」とBanavarは書いている。

それがどんなものであるにせよ、社会の規範や価値が変化する速さを踏まえると、10年後の社会がどうなっているかも、どんなAIができているかも予測することは容易ではない。

[原文へ]

(翻訳:Nob Takahashi / facebook

IBMがNvidiaの最先端GPUとインターコネクト規格を使った高速高性能サーバー機を披露

under-the-hood-of-the-new-ibm-power-systems-s822lc-for-high-performance-computing

IBMが今日、IBM Power Systems S822LC for High Performance Computingという、たいへん分かりやすい名前のハードウェアシステムを発表した。ごてごてした名前だけど、実際には、とてもおもしろい製品なのだ。Nvidiaと共作したこの新しいシステムは、人工知能や機械学習、高度なデータ分析などのユースケースが主なターゲットだ。

この新しいサーバーマシンは、IBMのPOWER8 CPUを2つ、NvidiaのTesla P100 GPUアクセラレータを4つ使っている。でも、そういう種類のソフトウェアを高速に動かす力の源泉は、CPUやGPUだけではない。IBMはNvidiaのハイスピードインターコネクト(プロセッサー間通信技術)NVLinkを使って、CPUとGPUが従来の(デスクトップコンピューターが使っている)PCIeバスより大幅に高速に通信できるようにしている。IBMのPower8 CPU は、NVLinkのインタフェイスを内蔵している。

IBMの発表声明はこう言っている: “データベースアプリケーションや高性能な分析アプリケーション、コンピューティングアプリケーションなどを、PCI-Eインタフェイス上でGPUを使うx86システムで可能なものよりもずっと大きな、データ集合に対して運用できる”。

rack-close-up-of-ibm-power-systems-s822lc-for-high-performance-computing

このシステムに、どれだけの性能を期待できるのか? IBMによると、21テラフロップの半精度浮動小数点演算性能がGPUから得られる。これは現代のPCI-Eスロットに挿入したカードから得られる性能よりも約14%高い。機械学習では訓練にかなりの時間を要するから、実際のアプリケーションでは14%の累積効果はきわめて大きい。IBMによると、古いTesla K80 GPUとPCI-Eインターコネクトを使った場合に比べると、2倍以上のスピードが得られたそうだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ERP/HCMの大手Workdayが一部のワークロードを7年契約でAWSからIBM Softlayerへ移す

139521507_4037d1c26d_b

人事管理サービスの大手Workdayが、今後7年間という長期契約で、IBMのクラウドインフラプラットホームIBM Softlayerの上で同社の開発および試験サービスを提供していく、と発表した。IBMにとって、それは大きな勝利だ。

Wall Street Journalが最初にこのことを報道した

それはいろんな点で大きな契約だ。まず何よりも、7年は長い。第二に、SaaSの大手ベンダがそのワークロードの大きな部分をIBMのクラウドに移し、GoogleやMicrosoftを無視しただけでなく、AWS一辺倒をやめたことだ。

Workdayは事業のさまざまな部分をAWSで動かしているが、この部分に関してはIBMを選んだ。Constellation ResearchのアナリストR Ray Wangは、そのほかの事業も移すのではないか、と推理している。

“今回のはプロダクションワークロード(メインのワークロード)ではないが、今後もAmazonからIBMへのシフトが起きるのか、それを注目する必要がある。試験と開発を移して結果が良ければ、プロダクションも移すかもしれない”、と彼は語る。

主に人事管理中心のERPをクラウドから提供しているWorkdayは、最初HPを検討したが、しかしHPがクラウド事業から下りたため、別を探した、とWangは語る。彼によると、GoogleとMicrosoftは、最初から対象外だった。なぜならMicrosoftにはすでにクラウドとオンプレミスの両方でERPサービスDynamics ERPがあり、GoogleもいずれERPの提供を始めるかもしれない。Workdayは、将来の競合相手になりそうなところを、最初から避けたのだ、とWangは言う。

彼によると、“Workdayは競合他社の傘の下に入ることを、望まなかったのだ。しかしIBMなら、将来的にもその不安がない”。

IBMにとっては、大手のクラウドクライアントを顧客として捕まえたことは、AWSやGoogle、Microsoftなどとの競合に勝ったことを意味する。Synergy Researchの調査によると、クラウドインフラストラクチャ市場においてIBMは、Googleをわずかに凌ぎ、業界第三位である(下図…第五位は“これらに次ぐ20社計”)。

しかしGartnerの最近の調査報告によると、IBMはこんな良い位置にはつけていない。が、いずれにしても、今回の契約がIBMにとって良いニュースであることは、確かだ。

Workdayはプレスリリースで今回の契約を発表しただけで、それ以上のコメントはない。IBMも、本誌からのコメントのリクエストに応えていない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IBM PCが35歳の誕生日を迎えた…大統領選に出馬できる年齢だ

ibm_pc_5150

ハッピーバースデー!、そこのおかしなおじさん、あなたのことですよ。あなたは35年前に、コンパクトなデザインと1565ドルという値札を身につけて、この世界にやってきた。当時は、IBMのいちばん安い“マイクロコンピューター”が9万ドルもした。それはコンピューターというより、乾燥機付き洗濯機に似ていた。

あなたが現れたとき、無関心な人もいた。IBMの社歴サイトには、同社の上級役員の一人が“誰が何のために家にコンピューターなんか置くんだよ?”と言った、とある。もう一人の役員は、“IBMにとって災いの元だ”、と言ったそうだ。

IBM 5150が初めてのホームコンピューターだったわけではない。Apple, Commodore, Atariなどの企業がすでに、初期の製品を出していた。それらを見た同社のシステムマネージャーWilliam C. Loweがプロトタイプを作り、そこからIBM PCが生まれた、と社歴は記している。

そのコンピューターは、“Chess”というコードネームで開発が進められた。そして、当時のIBMとしては異例にも、システムの主要部位を外部に求めた。中でも重要なのは、プロセッサーがIntelの4.77MHzの8088、そしてオペレーティングシステムはMicrosoftのQDOSだった。

1981年8月12日にニューヨークで行われた記者会見で、5150が披露された。記者たちはそれをすぐに、IBM PCと呼ぶようになった。その後の2年間で同機は、テクノロジーをホビイストからメインストリームへ移行させる動きの、主役を演じた。

それでは、ハッピーバースデー!、IBM PCさん。35歳になったら、アメリカの大統領に立候補できる。あなたなら、とっても役に立つリーダーになるだろうね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ホワイトハウスが人工知能に関する情報を一般募集、そしてIBMの提出物は優秀なAI入門書だ

shutterstock_161925818

人工知能の分野は今やとても大きいし、ありうるアプリケーションの種類もきわめて多様だ。その全体を簡単に説明することはほぼ不可能だが、IBMは挑戦し、そして成功したようだ。。

6月にホワイトハウスは、AIの可能性とリスクに関する情報を得るために、公式の情報リクエスト(request for information, RFI)を公布した

その要約には、こう書かれている: “AIの広義の受益者であるアメリカ人、すなわち一般消費者や学術研究部門、各産業の研究者たち、民間企業、慈善団体などから寄せられる見解は、多様な分野における現在と未来のAIのニーズへの理解を知らしめるために重要である”。

この要約に続いて、議論の対象とすべき個別の話題(トピック)のリストがある。それらは、未来のAIの公益や乱用に結びつきうるテーマの数々だ。

IBMはこの情報リクエストに応じて、同社としての見解を述べた。各トピック(WHからの質問項目)に対して、しっかりとした説明が書かれているから、これを読み終えたあなたは、仲間内でいちばんのAI通になるだろう。まあ、仲間の数にもよるけどね。

それをここで要約することは不可能だ。量が多すぎるが、各節はきわめて適切で、論争的ではなく、あくまでも教示的な内容だ。ちょっとだけ、引用しよう:

この惑星上の生命を支えている重要なシステムの、曖昧性や非効率の多くを排除できるものと信ずる。そしてAIシステムが、これらの意欲的な目標の達成を助けるツールであると信ずる。

それは基本的に楽観的な展望であり、当然ながらかなりIBM寄りだ。しかしそれでもなお、AIの現状と未来とリスクを理解するための読み物として、優れている。そして、“see more here”のリンクを飛ばしてはいけない。そこから先が、いちばん重要だから。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IBM、Q2決算で予測越え。売上202億ドル、EPS 2.95ドル、クラウド売上30%アップ

shutterstock_157995017

ITの巨人IBMは先ほど第2四半期決算を発表し、売上は202.4億ドル、1株当たり非GAAP利益は2.95ドルだった。アナリスト予測の売上200.3億ドル、非GAAP EPS 2.89ドルをいずれも上回った。

しかし、非GAAP利益28億ドルは、1年前から25%減少した(GAAP純利益は25億ドル、29%減)。なお、決算は利益を示しアナリスト予測を上回ったが、数値は減少を続けている。1年前、IBMの売上は208.1億ドル、EPSは3.84ドルだった。

投資家は今日の決算報告を喜んでいるようだ。時間外取引で、IBM株は約3.3%、3.65ドル上げて163.51ドルをつけた。

IBMはコグニティブ・ソリューションとクラウドプラットフォームのリーダーとしてその地位を確立し続けている。そのために当社は、従来のIT市場の枠を越えた新しいビジネスチャンスに挑戦している」とIBMのChairman兼President兼CEO、Ginni Romettyが声明文で語った。「第2四半期、当社の戦略的課題分野は2桁成長を見せ、アナリティクス、セキュリティー、クラウドビデオサービス、およびWatson Healthという、いずれもIBMクラウドを活用し、業界で注目されている革新的サービスがこれを支えている。また当社は最近飛躍的進歩を見せている量子コンピューティング、モノのインターネット、およびIBMクラウドのブロックチェーンにも引き続き投資していく」

IBMはIT業界で最大かつ最も象徴的な会社だが、同社のレガシービジネス ― 例えばサーバーハードウェア、Zシステムビジネス等 ― は縮小を続けており、今四半期、システム部門は23%以上減少した。これが同社をはじめ、他の巨大IT企業や小さなスタートアップが、ビジネスの新しい波にこれほど力を入れ、投資している一つの理由だ。

IBMの場合、その対象はあらゆるIT分野にわたり、ブロックチェーン、Watson部門による人工知能と機械学習、社内(例えばビデオセキュリティー関連)) あるいは、IBMとの関係を拡大すると最近報じられたCiscoのような、外部との提携による様々なクラウドサービス等がある。

下の2つの表は最初が投資家向けプレゼンテーション、次が財務報告に使われたもので、こうした新しい分野は成長を続けているものの、他部門の減少を補うにはまだ足りていない。

Screen Shot 2016-07-18 at 21.36.16

Screen Shot 2016-07-18 at 21.24.31

Q2の明るい話題としては、クラウドサービスの成長が続いており、今期は30%上昇し最近12ヵ月の売上116億ドルはIBMの同四半期売上の17%を占めた。Watsonとアナリティクス、セキュリティー、およびソーシャル・モバイル技術の売上は合わせて12%伸び、同四半期に83億ドルの売上を生みだした。

IBMは他にもいくつかの部門で売上が減少している。

  • コグニティブ・ソリューションの売上は47億ドル、3.5%アップ。同セグメントのクラウド売上は54%増。
  • グローバスビジネスサービスの売上は43億ドル、2%減。
  • ITサービス&クラウドプラットフォーム(インフラサービス、技術サポートサービス、統合ソフトウェアを含む)の売上は89億ドル、0.5%減。
  • システム(システムハードウェア、オペレーティングシステム・ソフトウェアを含む)の売上は20億ドルで、23.2%の急落だった。
  • グローバルファイナンシング(金融および中古機器販売を含む)の売上は4.24億ドル、11.3%減。

2016年に入ってからIBMはM&Aに非常に積極的だ。同社は過去12ヵ月間に会社の歴史上最高金額を買収に費した、とIBM CFOのMartin Schroeterは言った。同四半期の投資の大部分が、IBMの成長するコグニティブ・ソリーションビジネスを支えている。Truven HealthのデータはWatson Healthを助け、 Bluewolf EZ Sourceは、API管理ツールとコンサルティングサービスでコグニティブ・ソリューションとクラウドサービスを支援するだろう。

決算会見中IBMは、近々Watsonをセキュリティーアプリケーションでもっと活用するつもりだと語った。これは同社が実施した他の戦略的買収とも一致している。IBMが今年2月に買収したResilient Systemsは、拡大するサイバーセキュリティーサービスの一環として、セキュリティー・インシデントレスポンス・サービスを提供する。

今後の四半期を占う上で興味深いのが、ヨーロッパ、中でも英国が会社に与える影響だ。今日(米国時間7/18)の決算では、通貨の影響は小さかったが、同社は英国を重要な海外市場の一つと捉えており、英ポンドの下落が今後の四半期に影響を及ぼすと予測している。HP、Dell等のIT企業は、通貨下落を補うために価格を改訂しており、果たしてIBMが後を追うかどうかが注目される。

Screen Shot 2016-07-18 at 21.35.42

[原文へ]

(翻訳:Nob Takahashi / facebook

スマホがジカ熱の特効薬に?

SAO PAULO, BRAZIL - MARCH 04:  Aedes aegypti mosquito, the species which transmits the dengue virus, chikungunya fever and zika is photographed on March 04, 2016 in Sao Paulo, Brazil. (Photo by William Volcov/Brazil Photo Press/LatinContent/Getty Images)

【編集部注:本稿の執筆者、Shawn DuBravacはConsumer Technology Associationのチーフ・エコノミストでDigital Destiny: How the New Age of Data Will Transform the Way We Live, Work, and Communicateの著者】

スマホは現代の生活においてさながらデジタル版スイス・アーミーナイフのような存在となった。単に電話としての役割を超えて、写真やビデオを撮影したり、物を購入したり、ソーシャルネットワークに接続したり、街で道案内をしてくれたり、考え得るあらゆる目的のために、時には考えもつかないものも含めて使用されている。アプリを使うのもスマホ上だ。

今日のスマホは極めて強力なマイクロコンピュータだ。驚くべきことには、現在、このデバイスの計算力が集団でひとつにまとめあげられ、さらにすごい目的に使われつつある。その目的とは、ジカウィルスに対する治療法を見つけ出すことだ。

我々のほとんどは、この小さな奇跡とでもいうようなデバイスをポケットやパースに入れて普段持ち運んでおり、もはやスマホなしの生活など想像すらできない。その依存度たるや、オバマ大統領によるとそれはもはや「崇拝」といったレベルのもののようだ。しかし大統領も#OpenZikaプロジェクトのニュースを聞けば見方を変えるかもしれない。

IBMのWorld Community Gridの研究プロジェクトは、ボランティアのコンピュータ、アンドロイドのスマホ及びタブレットのネットワークを仮想的なスーパーコンピュータに変えてしまおうというものだ。

ボランティアがWorld Community Gridのアプリをダウンロードすると、研究者はそのデバイスにアクセスして演算を実行することができるようになる。蚊に媒介されるジカウィルスを撃退するには抗ウィルス剤が必要だが、その演算はジカに対する抗ウィルス剤を製造するために必要な化合物に関する仮想実験を行うためのものだ

Consumer Technology Associationの研究によると、世界中では大体26億のスマホが使われており、さらに14億のスマホが毎年売れている。先進国の多くでは、スマホの総数は人口より多く、世界の最僻地でも所有率は増加の一途を辿っている。

スマホ人気の陰で固定電話の契約数は下降の一途を辿り、アメリカでは遂に世帯数の50%を割り込むまでになった。また、スマホは何百万ものデジタルカメラのシェアを切り崩している。つい最近の2011年の時点では80%のアメリカ人はデジカメを所持していたが、今日その比率はたったの61%だ。つまり我々は迅速かつ熱狂的にオンライン、オフラインの両方においてスマホに移行しているのだ。

仮想的ドラッグスクリーニングは今日のスマホが実現できる最新ワザのひとつだ。そんなことまでできるとは。

我々が暮らしている空間では、互いに繋がった何百億ものデバイスがあらゆる場所に現れ、公共および私的な空間で日常的に存在している対象を次々に置き換えている。例えば、パーキングメーターや消火栓、自転車ラックや道路、自動車や家のドアの鍵がどんどんインターネットに繋がっている。カメラやマイクロフォンや各種センサーが実際の居住空間と一体化している。

大概のカメラやマイクロフォンはオンデマンドで動作するものだ。すなわちユーザーがデバイスに次どうするかを指示する必要がある。これらのデバイスがデジタル化し、さらにインターネットに接続され「センサー化」すれば、これまでそこにあったが特に利用されず放置され、デジタル情報として利用し得なかったデータを、今度は体系的に取得し始めることが可能になる。

そこにこそ強力なパワーが隠れている。そしてこれこそがWorld Community Gridの着眼するところであり、そのパワーを利用することでこれまでマラリア、エボラ、結核や様々な病気の研究が行われてきた。

#OpenZikaプロジェクトにより研究者はボランティアの提供するデバイスを使って演算を実行させてもらうが、持ち主がデバイスを利用する際に悪影響が出ることはなく、そのせいで持ち主のデータの安全性が損なわれた例はこれまで報告されていない。同時に、このプロジェクトで研究者が手にする演算力はスーパーコンピュータの演算力をも霞ませるほどのものだ。これは、スーパーコンピュータが誰にでも利用できるものではないという点と関係がある。

ラトガース大学の新興・再興病原体センターのAlexander PerrymanがCNBCに語ったところでは、研究者がいわゆる一般的なスーパーコンピュータを使うことができるのはたった数万時間、それは中央処理装置の実行時間で数十万時間に相当する、という。一方でWorld Community Gridであれば3万年相当の中央処理装置の実行時間が手に入る。

ジカ熱の治癒に役立つ化合物を探索するには、何千万種類にも及ぶ化合物を計算評価する必要があるが、World Community Gridプロジェクトはその過程を効率化し、計算にかかる時間の短縮に貢献するだろう。ジカ熱は致死率そのものは低いものの、妊婦が感染した蚊にかまれると赤ちゃんに先天性異常が引き起こされる可能性がある。

仮想的ドラッグスクリーニングは今日のスマホが実現できる最新ワザのひとつだ。そんなことまでできるとは。そして次に何が来るだろうか。大いに注目したい。

[原文へ]

(翻訳:Tsubouchi)

大統領候補は誰がいい? IBMのWatson Electionsがあなたの気分に基づいて決めてくれる

ここまでの大統領選レースに悲しみ、怒り、喜び、混乱しているあなた。もし、誰に投票すべきか本当に迷っているなら、IBMが教えてくれるかもしれない。あなたの気分に応じて。

Watson Electionsは、IBMのスーパーコンピューターにとって驚くほど稀政治関連アプリケーションの一つで、あたなの気に一番合った候補者を選んでくれる。今日(米国時間5/8) ニューヨークのブルックリンで行われたTechCrunch Disruptハッカソンのステージでデビューを飾った。

もしあなたが今、怒ってむかついているなら、ドナルド・トランプがいいだろう。怒りがやや少なく、ただ悲しいだけなら、バーナー・サンダースがぴったりだ。

もちろん、今が本当に幸せな人にも、トランプは期待に答えてくれる。

Watson Electionsは、自然言語処理を利用して、各候補者が報道で語った言葉に基づいて彼らの全体的ムードを判断する。例えば、ヒラリー・クリントンはあらゆる感情表現が低く、これは彼女の中立的な言葉のためだ。

IBMの研究者、Nikos AnerousisとJinho Hwangのふたりは、ハッカソンで徹夜した後にこのアプリケーションを完成させた。

彼らは、あといくつかアプリに機能を追加したいと私に言った。その一つは、候補者が嘘をついているかどうか。あるいは、有権者の感情に基づいて、最終的に誰が当選するかを予測すること。

アプリが有効かどうかを確認するためには、まだ多くの仕事が残っている。なにしろ、一晩でひねりだされたプログラムだ。

「こうしたモデルに必要なのは、正確なトレーニングセットだ。結果を検証し、何が正しいかを確認する必要がある」とAnerousisは言った。

[原文へ]

(翻訳:Nob Takahashi / facebook

IBMが量子コンピューティングを誰もが実験できるクラウドサービスとして提供

screen-shot-2016-05-03-at-1-40-55-pm

量子コンピューティングはまだきわめて初期の研究段階だが、IBMは量子コンピューターをクラウドサービスとして研究者たちに利用させることにより、関連分野の進歩を加速したいと望んでいる。大胆で意欲的な考えだがしかしそれは、量子コンピューティングによる計算処理を理解しようとする試行の、まだごく小さな一歩にすぎない。

関心のある人びとは、IBMがIBM Quantum Experienceと呼ぶ5キュービット(qubit)の量子コンピューターにアクセスできる。実際のハードウェアは、ニューヨーク州のIBM Research Lab(IBM研究所)にある。IBMは関心者たちに、プログラミングインタフェイスと、実験的なプログラムを実際に量子コンピューターの上で動かす機会を提供する。

重要な課題のひとつは、量子コンピューターが莫大な冷却システムを必要とすることだ。ハードウェアの外部の空間よりも低温でなければならない場合もある(冷房ではなく冷却が必要)。さらにまた、それらは多くの情報を維持するが、それらのどれもが、必ずしも静的ではない。それらの情報をすべて、意味ある分析ができるまでの間、可利用に維持することは、たいへんな仕事だ。こういった課題は、鉛筆の先端に卵を均衡状態で乗せることに似ており、それが落ちたら落ちた理由を究明しなければならない。IBM ResearchのExperimental Quantum Computing Group(実験的量子コンピューティンググループ)のマネージャーJerry Chowは、そう説明する。

IBMがこのプロジェクトのために作ったプログラミング言語は、まるで音楽の作曲用の言語のようだ(下図)。プログラマーは量子オブジェクトを“何かに”ドラッグすることによって、プログラムを書く。

IBM Quantum Computing programming dashboard

写真提供: IBM

 

Pund-IT, Inc.の主席アナリストCharles Kingによると、量子コンピューターと従来のコンピューターでは、本質的な違いが二つある。

Kingはこう説明する: “ひとつには、従来のコンピューターが二進数の原理に基づいて設計されている(そこでは半導体のゲートの開閉がon/offないし0/1を表す)のに対し、量子システムは“キュービット”を利用する。その状態は、onまたはoffまたはon-off両様であり、そのようなシステムは量子力学の現象を利用してデータに対するファンクションを実行する。その現象とは、重ね合わせや絡み合い(エンタングルメント)などだ。

IBMが作った量子チップは、5キュービットで動作する。Chowの予測では、今日の最速のスーパーコンピューターの能力を超えるためには、50から100キュービットぐらいで動くマシンが必要だ。それは遠い先の話だが、スタート地点としてはしかし現状で十分だ。

シリコンチップ上のデジタルコンピューターにはMoore’s Law(ムーアの法則)というものがあったが、量子コンピュータの進歩に関してはそんな単純な法則がない。IBMはまだシリコンを使っているが、もっと確実性のある利用のためには、超えなければならない大きなハードルが二つある。まず第一に、コンピューターを作ること。第二に、それをどうやってプログラミングするかだ。IDCで高性能コンピューティングを担当しているEarl Josephが、そう説明してくれた。

“今回の実験は多くの人びとに、量子コンピューターのプログラミングのやり方を学び始める機会を与える。それによって、この新しいタイプの技術を利用する道が、開けていくだろう”、とJosephは述べる。

彼によると、ほかでもこのような実験が行われている。“NASA Ames(NASAのエイムズ研究センター)とGoogleは今、とてもおもしろいことに取り組んでいる。大きなホームランは、もっと汎用的で大規模な量子コンピュータから生まれるだろう。それは進化に似た過程であり、ほぼ数年間隔で、徐々により多くのアプリケーションが稼働し始めるだろう”。

IBMが今回のツールを提供することによって、量子コンピューティングに関する関心と理解が広まり、個人の関心者たちや諸機関、研究者たちなどのコミュニティが作られ、彼らの協働の中で未来のコンピューターに関する知識が進んでいくことを、期待したい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IBM、ヘルス・アナリティクスのTruvenを26億ドルで買収へ―Watson Healthを大幅強化

2016-02-19-watsonhealth

今日(米国時間2/18)、IBMは、Truven Health Analyticsを買収する意向を発表した。価格は26億ドルという驚くべき額だ。これはWatson Health事業部が2014年に創立されて以來、4回目の大型買収となる。

Watson Healthは2014年4月にIBMがPhytelとExplorysを買収したのを機に創立された。両社ともデータ処理をメインとするヘルス関連企業だった。

Watson Healthはその後、2015年8月に10億ドルでMerge Healthcareを買収した。これによりWatson Healthは膨大な医療画像データを所有することとなった。

今日の買収で、IBMはTruvenの大規模なクラウド・ベースのデータ・リポジトリにアクセスが可能となる。Truvenは社員2500人で8500のクライアントを持ち、その中にはアメリカの連邦政府や州の機関、またその従業員組合、健康保険会社、生命保険会社が含まれる。

Truvenの買収により、IBMは保険請求、治療内容、治療結果、医療費詳細、その他何百種類もの情報という宝の山を入手する。Watson Healthのバイス・プレジデント、Anil Jain(元Explorys)は「これは単にデータのための買収ではない」と強調した。

JainはTechCrunchのインタビューに対して「われわれは〔この買収で〕膨大なデータとそれを収集したリソースのすべてを入手する。〔しかし本当に価値があるのは〕豊富なデータに基づく洞察、深い知識に基づく洞察だ」と述べた。

Jainはまた大量のデータを意味あるものにするのは人間のエキスパートだとつけくわえた。そしてTruvenの買収によってWatson Healthに加わることになった2500人の社員には多数のデータ・サイエンティストや研究者などの専門家が含まれると述べた。

有力企業を次々に買収することと、それら企業の持つデータやノウハウを有機的に組み合わせて新たな事業部にすることはまったく別の作業だ。 Jainはこれが困難な課題であることを認めたが、同時にIBMは買収企業の統合には豊富な経験を持っていることを強調した。

「Watson Healthプラットフォームにはクラウドがあり、コアとなるテクノロジーがある。それらはクライアントの課題の解決のために役立てられる。ソリューションはわれわれが開発するものもあるが、われわれのパートナーが作るものある」とJainは述べた。

IBMのパートナーにはApple、Medtronic、Johnson & Johnson、Teva Pharmaceuticals、Novo Nordisk、CVS Healthなどが含まれる。

ヘルスケア・テクノロジーでいつもプライバシーが問題になる。たしかにIBMは膨大なヘルス関連情報にアクセスが可能だ。Jainは「この点についてしばしば質問される」と認めた。しかし「IBMは患者情報の秘密保護に関してHIPAAは(医療保険の相互運用性と責任に関する法律)の規定を順守している。またIBMのシステムは重大な疾病の診断に関して患者を特定できるような具体的な知識を持たない仕組みとなっている。われわれの目的はあくまでクライアンの業務を適切な情報提供によって効率化することだ。その情報が具体的にどのような個人に結びつけられるかについてはIBMは一切情報を持たない」と述べた。

これはつまり、ある患者に特定の症状が合った場合、Watson Healthは他の患者のデータを分析し、似たような症状を選び出し、症状のパターンを教える。ただしデータの背後にある個人については身元特定可能な情報を持たない仕組みになっているということだ。医師の指示に応えてWatsonはそうした症状に対するさまざまな治療法とそれぞれの成果を専門誌の論文から収集する。 こうした情報は医師の診断や治療法の選択に大きな助けとなる。

現在、Watson Healthを構成する各社はIBMによる買収以前と同じく、各地に散らばるそれぞれの本社で運営されている。これは当分そのままとなるはずだが、IBMはWatson Healthの新しい本社を,マサチューセッツ州ケンブリッジに 建設中で、運用開始は今年後半になる予定だ。

Featured Image: Matej Kastelic/Shutterstock

[原文へ]

(翻訳:滑川海彦@Facebook Google+