人間の爪のミクロン単位のゆがみから症状の治癒や悪化を判定する超小型センサーをIBM Researchが開発

IBMが今日(米国時間12/20)、人間の手の指の爪につけて、パーキンソン病なやそのほかの疾病の治療薬の効果をモニターする、小さなセンサーを開発した、と発表した。そのデータを分析する専用のソフトウェアと共にセンサーは、ユーザーが物を握ったときの爪の歪(ゆが)みを測定する。ほとんどどんな活動にも、物を握る行為があるので、そのソフトウェアが分析すべき大量のデータが生成される。

センサーを爪ではなく肌につけて運動をモニターし、筋肉や神経の健康を調べる方法もあるが、IBMのチームによると、皮膚を使う方法には感染など多くの問題があるので、爪の曲がりから得られるデータを使う方法を選んだ。

ただし、多くの場合に、爪はわずかしか曲がらないので、感度の高いセンサーが必要になる。研究者たちはこう説明している: “分かってきたのは、人間の指が、それらで物を握ったり掴んだり、曲げたり伸ばしたりするとき、一定のパターンで変形することだ。この変形の大きさは通常、ひと桁の数ミクロンのオーダーで、肉眼では見えない。しかし、ひずみゲージを使えば容易に検出できる。ご参考までに、人間の毛髪の太さは50から100ミクロン、赤血球の径は10ミクロン未満だ”。

現在のプロトタイプバージョンでは、センサーを爪に接着している。爪はけっこう丈夫なので、そのやり方でもリスクはほとんどない。肌につけるセンサーよりは、ずっと安全だ。センサーのデータはスマートウォッチへ行き、そこで機械学習のモデルを動かして、震(ふる)えなどのパーキンソン病の症状を検出する。モデルは、装着者が今何をしているかも検出できる(ドアノブを回している、ドライバーを使っている、など)。装着者が自分の指で数字を書くと、それも正確に判読できる。

今後は、このセンサーのプロトタイプとモデルの改良により、そのほかの疾病も認識し分析できるようにしたい、とチームは望んでいる。このセンサーが市販される時期については、まだ発表の段階ではないようだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IBMはLotus Notes/DominoをインドのHCLに$1.8Bで売る…まだまだユーザー企業は多い

IBMが昨夜(米国時間12/6)、同社が1995年に行ったLotusの買収の残存部位をインドのHCLに18億ドルで売却する、と発表した。

IBMは当時Lotusに35億ドルを投じた。その中の大物は、NotesとDominoとPortalだった。これらは長年、IBMのエンタープライズビジネスの大きな部分を占めていたが、しかし昨年Big Blueは撤退を始め、開発の部分をHCLに売り、営業とマーケティングは手元に置いた。

今回の発表で、このラインへのIBMの関与は解消する。このプラットホームの開発部分が手を離れ、そしてRedHatに340億ドルを投じたIBMは今キャッシュが欲しい。だから、Lotusの他の部分を持ち続けることには意味がない、と決断したのだ。

インドのエンタープライズIT大手HCLにとっては、Notes/Dominoビジネスの構築を継続できる機会を、この買収でより確実なものにできる。HCL Technologiesの社長でCEOのC Vijayakumarは、次のように声明している: “これらのプロダクトの大規模なデプロイは、世界中の何千もの多様な業種と市場の企業に接近できる絶好の機会をわが社に与える”。

Constellation Researchでエンタープライズのコラボレーション分野の注視を続けているAlan Lepofskyは、この売却が、IBMがこのところ疎遠にしてきたソフトウェアにとって再出発の機会になる、と見ている。“IBMの最近の10年間に比べると、HCLはNotes/Domino にもっと本格的な関心を持っている。今後積極的に投資して、ブランドの若返りに努めるだろう”、と彼は語った。

Lepofskyによると、NotesとDominoを古いと感じる人も多いと思われるが、実際にはさまざまな企業で現役で使われている、とくに多いのがEMEA(Europe, Middle East and Africa)ヨーロッパ中東アフリカとAP(Asia Pacific)アジア太平洋地域だ、という。

彼によると、今回の売却によってIBMはコラボレーションの分野から完全に手を引くことになった、という。“IBMのコラボレーションは終わりだ。いち抜けだ”、と彼は言う。

IBMは今、独自のクラウドビジネスを開発中だから、それとNotes/Dominoは方向性が違いすぎる。10月のRedHat買収が示すように、同社はプライベートとハイブリッドのクラウドをサービスとプロダクトのメインに据える気だから、Lotus NotesやDominoのような古顔の出番はなくなってきた。

この売買を規制当局が承認し、完了するのは、来年半ばと予想されている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AIではなく、量子コンピュータが我々の将来を決める

「量子(quantum)」という言葉は、20世紀後半になって、他の一般的な形容詞では表せない、何かとても重要なものを識別するための表現手段となった。例えば、「Quantum Leap(量子の跳躍)」は劇的な進歩のことを意味する(Scott Bakula主演の’90年代初頭のテレビシリーズのタイトルでもあるが)。

もっとも、それは面白いとしても、不正確な定義だ。しかし、「量子」を「コンピューティング」について使うとき、我々がまさに劇的な進歩の時代に入ったことを表す。

量子コンピューティングは、原子と亜原子レベルで、エネルギーと物質の性質を説明する量子論の原理に基づいた技術だ。重ね合わせや量子もつれといった理解するのが難しい量子力学的な現象の存在によって成立する。

アーウィン・シュレディンガーの有名な1930年代の思考実験は、同時に死んでいて、かつ生きているという一匹の猫を題材にしたもので、それによって「重ね合わせ」というものの明らかな不条理を浮き彫りにすることを意図していた。重ね合わせとは、量子系は、観察、あるいは計測されるまで、同時に複数の異なる状態で存在できる、という原理だ。今日の量子コンピュータは、数十キュービット(量子ビット)を備えていて、まさにその原理を利用している。各キュービットは、計測されるまでは0と1の間の重ね合わせの中に存在している(つまり、0または1になる可能性がいずれもゼロではない)。キュービットの開発は、膨大な量のデータを処理し、以前には不可能だったレベルの計算効率を達成することを意味している。それこそが、量子コンピューティングに渇望されている潜在能力なのだ。

シュレディンガーはゾンビの猫について考えていたが、アルバート・アインシュタインは、彼が「離れた場所の奇妙な相互作用」と表現した、光速よりも速く通信しているように見える粒子を観察していた。彼が見ていたのは、もつれ合った電子の作用だった。量子もつれとは、同じ量子系に属する複数の粒子の状態は、互いに独立して描写することができない、という観測結果のことだ。かなり遠く離れていても、それらはやはり同じ系に属している。もし1つのパーティクルを計測すると、他のパーティクルの状態も直ちに判明するように見える。もつれ合った粒子の観測距離の現時点での最長記録は、1200キロメートル(745.6マイル)となっている。量子もつれは、量子システム全体が、その部分の合計よりも大きいことを意味する。

ここまでの話で、そうした現象がなんとなくしっくりこないというのであれば、シュレディンガーの言葉が、その居心地の悪さを和らげてくれるかもしれない。彼は量子理論を創出した後で「私はそれが好きではありませんが、申し訳ないことに私にはどうすることもできないのです」と言ったと伝えられている。

様々なグループが、それぞれ異なる方法で量子コンピューティングに取り組んでいる。従って、その仕組みについて1種類の説明で済ますのは現実的でないだろう。しかし、読者が従来のコンピューティングと量子コンピューティングの違いを把握するのに役立つかもしれない1つの原理がある。それは、従来のコンピュータは2進数を扱う、ということ。つまり、各ビットは0または1の2つのうちのどちらかの状態しか取れない、という事実の上に成り立っている。シュレディンガーの猫は、亜原子の粒子が同時に無数の状態を示すことができることを説明した。1つの球体を想像してみよう。その2進数的な状態は、北極では0、南極では1になると仮定する。キュービットの世界では、その球全体で無数の他の状態を保持することができる。そして、複数のキュービット間の状態を関連付けることで、ある種の相互関係が生まれる。それによって、量子コンピューティングは、従来のコンピューティングでは達成できない、さまざまな分野のタスクに適応することができるのだ。こうしたキュービットを生成し、量子コンピューティングのタスクを遂行するために十分な時間だけ存在させておくことが、現在の課題となっている。

Jon Simon/Feature Photo Service for IBM

IBM研究者で、同社のTJワトソン研究所の量子コンピューティング研究室に所属するJerry Chow

量子コンピューティングを文明化する

こうしたことは、量子力学の奇妙な世界の入り口に過ぎない。個人的には、私は量子コンピューティングに心を奪われている。技術的な奥義から人類に利益をもたらす潜在的なアプリケーションに至るまで、さまざまなレベルで私を魅了しているのだ。しかし、今のところ、量子コンピューティングの仕組みに関しては、うまく説明しようとすればするほど混乱を招くのが実情だ。そこで、より良い世界を作るために、それがどのように役立つのかを考えてみることにしよう。

量子コンピューティングの目的は、従来のコンピューティングの能力を補助し、拡張することにある。量子コンピュータは、ある種のタスクを、従来のコンピュータよりもはるかに効率的に実行する。それによって、特定の分野で我々に新しいツールを提供してくれる。量子コンピュータは、従来のコンピューターを置き換えるものではないのだ。実際、量子コンピュータが得意分野で能力を発揮するためには、たとえばシステムの最適化などについては、これまでのコンピュータの手助けを必要とする。

量子コンピュータは、エネルギー、金融、ヘルスケア、航空宇宙など、多くの異なった分野での課題の解決を促進するのに有効だ。その能力は、病気を治し、世界の金融市場を活性化し、交通をスムーズにし、気候変動に対処したりするための手助けとなる。たとえば、量子コンピューティングは、医薬品に関する発見と開発をスピードアップさせ、気候変動とその悪影響を追跡して説明するための大気モデルの精度を向上させるための潜在能力を備えている。

私をこれを、量子コンピューティングの「文明化」と呼ぶ。そのような強力な新技術は、人類に利益をもたらすために使うべきだからだ。そうでなければ、我々は船に乗り遅れてしまうだろう。

intel-quantum-17-qubit-2

Intelの量子コンピューティング用17キュービットの超伝導テストチップは、接続性を向上させ、電気的および熱力学的な特性を向上させるためのユニークな特徴を備えている。(クレジット:Intel Corporation)

投資、特許、スタートアップなどの上昇傾向

これは、私の内なるエヴァンジェリストの主張だ。しかし事実を見ても、投資と特許出願に関する最新の検証可能な世界規模の数字は、両分野における上昇傾向を反映している。そしてそのトレンドは今後も継続するものと思われる。エコノミスト誌によれば、2015年には、機密扱いされていない各国の量子コンピューティングへの投資の世界的な総計は、約17.5億ドルに達している。欧州連合が6億2300万ドルで全体をリードしている。国別では米国がトップで4億2100万ドル、中国がそれに続く2億5700万ドル、次がドイツの1億4000万ドル、英国の1億2300万ドル、カナダの1億1700万ドルの順だ。20の国が、少なくとも1000万ドルを量子コンピューティングの研究に投資している。

Thomson Innovation社が提供する特許検索機能によれば、同時期の量子コンピューティング関連の特許出願件数では、米国がトップで295件、次いでカナダが79件、日本が78件、英国が36件、中国が29件となっている。量子コンピューティングに関連する特許の件数は、2017年末までに430%増加すると予想された。

結局のところ、国、巨大テクノロジー企業、大学、スタートアップが、こぞって量子コンピューティングと、その潜在的な応用範囲を模索しているというわけだ。安全保障と競争上の理由で、量子コンピューティングを探求している国家、および共同体もある。量子コンピュータは現在使われている暗号化方式を破り、ブロックチェーンを殺し、他の暗黒面の目的にも有効だと言われてきた。

私はその独占的で凶暴なアプローチを否定する。オープンソースの協調的な研究開発のアプローチをとれば、量子コンピューティングには、より広範囲の善良な用途があることは明らかだ、と私には思える。この技術へのより広いアクセスが得られるようになれば、それも十分可能だろうと私は信じている。私は、クラウドソーシングによる量子コンピューティングの応用が、より大きな善のために勝利を得ることを確信している。

もし関わりを持ちたいのであれば、IBMやGoogleなどのように一般家庭にも浸透しているコンピューティングの巨人が用意している無料のツールを探してみるといい。また、大企業やスタートアップによるオープンソースの提供もある。量子コンピュータはすでに現在進行形のものであり、アクセスの機会は拡大の一途をたどっている。

独占的なソリューションは、オープンソース、協調的な研究開発、普遍的な量子コンピューティングの価値の提案に屈服するだろうという私の見立てに沿って、北米だけですでに数十社ものスタートアップが、政府や研究機関と並んで、量子コンピューティングのエコシステムに飛び込んだことを指摘させていただこう。たとえば、Rigetti Computing、D-Wave Systems、1Qbit Information Technologies、Quantum Circuits、QC Ware、Zapata Computingといった名前は、もう広く知られているかもしれないし、すでに大企業に買収されているかもしれない。このような発生期にはなんでもアリなのだ。

ibm_quantum

量子コンピューティング標準の策定

関わりを持つもう1つの方法は、量子コンピューティング関連の標準を策定する活動に参加することだ。技術的な標準は、結局は技術の開発を促進し、経済的なスケールメリットをもたらし、市場を成長させる。量子コンピュータのハードウェアとソフトウェアの開発は、共通の用語からも、結果を評価するための合意された測定基準からも、恩恵を受けるはずだ。

現在、IEEE Standards Association Quantum Computing Working Group(IEEE規格協会の量子コンピューティング作業部会)は2つの標準を策定中だ。1つは量子コンピューティングに関する定義と用語であり、それによってみんなが同じ言語で話すことができる。もう1つは、従来のコンピュータに対する量子コンピュータの性能を評価し、両者を比較するためのパフォーマンスの測定法とベンチマーキングに関するものとなっている。

さらに標準を追加する必要があれば、おいおい明らかになるはずだ。

画像のクレジット:VICTOR HABBICK VISIONS

[原文へ]

(翻訳:Fumihiko Shibata)

Ubuntuで自分のビジョンを追究したいCanonicalのMark Shuttleworthは買収よりIPOに関心あり

IBMがRed Hatを340億ドルで買収する計画を発表して以来、Red Hatと競合するSuseやCanonicalの今後の行方を云々する声が賑やかになってきた。しかしCanonicalのファウンダーMark Shuttleworthには、同社を売ることへの関心はまったくないようだ。少なくとも、今のところは。

今日ベルリンで行われたOpenStack Summitの会場近くで彼としばらく話をしたが、彼は、“重要なのは独立だ”、と言った。それはまず、彼は個人的にはお金を必要としていない、ということだが、CanonicalとUbuntuに懸けた彼のビジョンを最後までやり遂げたい、という意味でもある。

彼が1999年にThawte Consultingを5億7500万ドルでVerisignに売ったとき、人びとは彼に、死ぬまで休暇か?と尋ねた。そして彼はそのお金の一部を使って二人目の宇宙旅行者になり、慈善団体を立ち上げたが、そっち方面への関心がないことは、明らかだった。

しかし彼によると、売ってもよい状況が一つだけある。それは、彼のCanonicalのビジョンが加速されることだ。

しかし、何にでも価格はあり、そしてShuttleworthがお金を必要としていないとしても、売却は確実に、Canonicalの社員の多くにとって有意義な金銭的報奨になるだろう。

でも、よく知られているように、Shuttleworthの関心はCanonicalのIPOにある。今年の前半に彼は、それはまだ検討中、と述べたが、正しいタイミングというものも必要だ。最近同社は再びエンタープライズにフォーカスし、それとあまり関係のないUbuntu PhoneやUnityデスクトップなどを閉鎖した。結果は好調のようだから、IPOはまだ選択肢の一つとして生きている、と言える。

今週後半にShuttleworthへのもっと本格的なインタビューを予定しているので、お楽しみに。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IBM、Red Hatを340億ドルで買収へ――ビッグ・ブルー、ハイブリッドクラウドに向けて大きく前進

噂が乱れ飛んでいたこの件だが、今日(米国時間10/28)、 IBMはオープンソースのクラウドソフトウェア企業Red Hatを買収することを確認した。1株190ドルのキャッシュによる買収の総額は340億ドルになる。IBMは「買収はIBM、Red Hat双方の取締役会の承認を受けたが、今後Red Hatの株主と規制当局の承認を受ける必要がある」と述べている。計画どおりに実施されるなら、2019年の下半期には買収が完了するものとみられる。

この買収はこれまで長らくレガシーなサーバービジネスに依存してきたIBMがクラウドに大きく賭けたことを意味する。詳しくいえば、オンプレミスとクラウドをミックスしたハイブリッド・アーキテクチャによるクラウド事業だ。両者はすでに今年5月に協力関係に入ってこの方向を(今から考えれば)テストしていたようだ。 Red HatはIBMのHybrid Cloudチーム(IBMによれば190億ドルの大ビジネスとなっている)の中で重要な地位を占めることになる。また今後もオープンソース・ソフトウェアの開発に集中していくことになるだろう。

IBMの会長、社長、CEOを兼ねるジニ・ロメッティは声明で「Red Hatの買収はゲームチェンジャーだ。これでクラウド・ビジネスのすべてが変わる。IBMは世界でナンバーワンのハイブリッド・クラウドのプロバイダーとなるだろう。多くの企業にビジネスのすべての可能性を解き放つクラウド・ソリューションを提供できる唯一のプロパイダーとなる」と述べた。

IBMとRed Hatの統合により、総合的なクラウド・マネージメントだけでなく、Linux、コンテナ、Kubernetes、マルチ・クラウド・マネージメント、オートメーションなどあらゆる分野にソリューションを提供できるとIBMは述べている。また統合された両者は他の有力なクラウド提供ビジネス、AWS、Microsoft Azure、Google Cloud、 Alibabaなどとも提携関係を強化していくと付け加えた。

TechCrunchのJosh Constine記者がこの記事で指摘しているとおり、340億ドルというのはテクノロジー関連の買収として最大級のものだ。ソフトウェアに限っていえば、おそらナンバーワンの規模だろう(DellはEMCを670億ドルで買収したが、これにはソフトウェアだけでなくかなりのハードウェアとストレージ・ビジネスが含まれていた)。

Amazonはクラウドに100%集中しているものの、多くの大企業は、クラウドへの移行を段階的に進めている。IBMによれば、業務の80%は「依然としてクラウド化されていない。これは現在のクラウドがそれぞれ異なる独自のソリューションであることによる」としている。Red Hatの買収はIBMがこの80%の領域に進出することを助けるという。

ロメッティCEOは「大半の企業ではコンピューティング能力をレンタルしてコストを削減できるクラウド化はまだ20%しか進んでいない。そこで残る80%の業務をクラウド化し、ビジネスの価値と成長の可能性を最大限に活かすことが次の課題となる。これがクラウド化の来るべき章だ。これにはビジネス・アプリケーションをハイブリッド・クラウド化していくことが欠かせない。これによりサプライチェーンからセールスまでビジネスのあらゆる側面からさらに柔軟にデータを抽出、処理することが可能になる」という。

またこれに加えてIBMはRed Hatが築いてきた成果を手に入れたことにより、オープンソース・ソフトの分野でこれまでよりはるかに強力な足場を得た。【略】

IBMではRed Hatの売上、荒利益、フリーキャッシュフローなどの数値を買収手続き完了後12ヶ月以内にIBM本体の統計に加えると述べている。

画像:Craig Warga/Bloomberg / Getty Images

原文へ

滑川海彦@Facebook Google+

IBM Watson Healthと復員軍人省が退役軍人のがん治療でパートナーシップ

IBMのWatson Healthと復員軍人省が今日(米国時間7/19)、Watsonの人工知能を使って末期がんの退役軍人を支援する共同事業を今後も継続する、と発表した

Watsonは一般的には、ゲームのJeopardy!人間に勝ったことぐらいしか知られていないが、2016年にはオバマ政権の全米がん撲滅運動に従って、復員軍人省の精密腫瘍学プログラムに参加した。Watsonと省の腫瘍学者たちは、患者が提供した腫瘍の標本を分析し、がんのゲノムの突然変異を探究した。そのとき得た情報により、患者別の投薬や治療の方針をより精密にすることができた。

両者のパートナーシップが始まったときには2700名あまりの退役軍人を研究と治療の対象にできたが、今日の発表では省の腫瘍学者たちが少なくとも2019年までWatsonのゲノム研究技術を利用できることになった。

IBM Watson HealthのトップKyu Rhee博士はこう語る: “膨大な量の医学情報と具体的な個人のがんの突然変異を正しく関連付けることは、きわめて困難である。その意味でAIは、精密腫瘍学の対象規模を大きくすることに、重要な貢献をしてくれる。とくに復員軍人省とのパートナーシップは、アメリカで最大の総合的ヘルスシステムになる”。

2016年にこのパートナーシップが始まる前には、IBMはWatsonを、20以上のがん治療/研究機関で訓練した。そしてその初期の結果に基づき、科学者と医師によるチームが意思決定を行った。

2年間の訓練でAIに医学の学位を与えることはできないが、Watsonが人間のプロフェッショナルよりも得意なのは、データの消費だ。全米がん研究所のデータによると、アメリカのがん患者の3.5%が退役軍人と言われるだけに、大量のデータから情報を取り出す能力はきわめて重要だ。がん患者は年々増えており、2018年には新たにがんを診療した患者が170万名あまりに達した。

これだけの患者に適切な治療と処置を提供していくことは、多くの意味で数との勝負だ。そして数こそが、Watsonが得意技を生かせる領域だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IBMと米国エネルギー省が世界最速のスーパーコンピューターを構築

IBMと米国エネルギー省(DoE)のオークリッジ国立研究所(Oak Ridge National Laboratory、ORNL)は6月9日(米国時間)、同部門の最新のスーパーコンピューターであるSummitを発表した。IBMは、サミットを現在「世界で最も強力でスマートなサイエンススーパーコンピューター」であると主張しているが、そのピークパフォーマンスは毎秒20京回の計算(200ペタフロップス)という驚くべきレベルに達する。このパフォーマンスによって、今月末に発表されるスーパーコンピュータートップ500ランキングでは余裕のトップとなる筈だ。それはまた、2012年以来初めて、米国を拠点とするスーパーコンピューターが首位になるということを意味する。

Summitは数年前から稼働しているが、現在4608台の計算サーバーに、それぞれ22コアのIBMPower9チップを2個、そしてNvidia Tesla V100 GPUを6個搭載している。合計では、システムには10ペタバイトを超えるメモリが搭載されている。Nvidia GPUの存在を考えると、オークリッジ国立研究所で通常行われるエネルギーや先進素材の研究に対するハイパフォーマンス計算に加えて、このシステムが機械学習や深層学習アプリケーションに利用されることは意外なことではない。

IBMがSummitの元請け業者となり、Nvidia、RedHat、そしてInfiniBandのネットワーキングスペシャリストであるMellanoxと協力して新しいマシンを提供している。

画像クレジット:オークリッジ国立研究所

「SummitのAIに最適化されたハードウェアは、研究者たちに、膨大なデータセットの分析と、発見のペースを加速する知的なソフトウェア作成のための、素晴らしいプラットフォームを提供します」と発表の中で語ったのは、ORNLのコンピューティングならびにコンピューティングサイエンスのアソシエイトディレクターであるJeff Nicholsである。

Summitは、IBMがエネルギー省のために構築している次世代スーパーコンピューター2つのうちの1つである。 2つ目はSierraという名前で、ローレンス・リバモア国立研究所に設置される。今年運用が予定されているSierraは、予定されている計算能力は125ペタ(12.5京)フロップスとSummitほど強力ではないが、どちらのマシンも現在エネルギー省で使われているどのマシンよりも遥かに強力である。

[原文へ]
(翻訳:sako)

画像クレジット: オークリッジ国立研究所

メインフレームも今では痩身のマシン、IBMがエントリーレベルのZシリーズをアップデート

メインフレームといえば、何百万ドルもする巨大なハードウェアで、家具としても使えるようなコンピューターを連想するだろう。しかしそのイメージを変えたいIBMはこのほど、同社のZシリーズマシンに新しい機種、IBM z14 Model ZR1を加えた。この新型のメインフレームは、ふつうのクラウドデータセンターやプライベートなクラウド環境で使いやすいように作られている。またこれと並んでIBMは、同じぐらいのサイズのRockhopperサーバーのアップデートも発表した。

多くの点で、この新しいz14 ZR1は同社のエントリーレベルのz13sの後継機種だ。ただし、そもそも、エントリーレベルのメインフレームなんてありえない、という説も世の中にはあるだろう。IBMによると、z14は前世代機に比べて能力は10%増、メモリは2倍で8テラバイト、そして、一台で一日に8億5000万以上の完全に暗号化されたトランザクションを扱える。それがどういうトランザクションかを、IBMは述べていないけど。

IBM ZのゼネラルマネージャーRoss Mauriは、今日の発表声明でこう述べている: “これによりIBM Zの力を、全面的な暗号化による堅牢なセキュリティと機械学習、クラウドの運用力、そして強力なアナリティクスを求めるクライアントの、さらに高能力なデータセンターに持ち込める。これはクライアントのオンプレミスおよびハイブリッドクラウド環境のセキュリティと能力を増すだけでなく、われわれもまたこの新しいシステムを弊社IBMのパブリッククラウド用データセンターにデプロイし、ますます集約性を高めるデータ負荷のためのセキュリティとパフォーマンスを強化するだろう”。

なお、メインフレームは今日の世界ではコンピューティングのもっともセクシーな分野とは言えないにしても、しかしIBMにとっては今だに堅実なビジネスであり、今日のマイクロサービスの時代においても、金融をはじめとする多くの企業が依然としてその高能力なマシンを頼りにしている。IBMによると、上位50の銀行のうちの44行と大手航空会社の90%が今日、Zシリーズのメインフレームを使っている。その超巨大な先祖たちと違って今日のメインフレームは、特殊な冷却や電力供給を必要とせず、そして今日では、嬉々としてLinuxや、あなたがよく知っているスタンダードなソフトウェアのすべてを動かしているのだ。

今日のIBMはZR1に加えて、LinuxONE Rockhopper IIをローンチした。それは、より従来的なLinuxサーバーであり、同じくシングルフレームの19インチラックに収まる。この新しいRockhopperも最大8テラバイトのメモリをサポートし、最大で33万のDockerコンテナを動かせる。ZR1が現在のメインフレームをアップデートしたい企業向けであるのに対し、Rockhopper IIは明らかに、現代的なDevOpsの実践を目指して自分たちのソフトウェアアーキテクチャを再検討し始めた企業向けだ。〔日本語記事

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IBMが“サービスとしてのディープラーニング”をWatson Studioから提供、簡単・易しいを重視

機械学習のワークフローと訓練モデルを作るサービスWatson Studioに今日(米国時間3/19)、新しいサービスDeep Learning as a Service(DLaaS)が加わった。すでに類似サービスもあるこのサービスは、機械学習の最新の進歩を、その難解さの敷居を下げ、企業ユーザーにとって使いやすい形で提供する。

この新しいツールを使うデベロッパーは、彼らがすでに使っているオープンソースのフレームワーク(TensorFlow, Caffe, PyTorch, Kerasなど)を使って自分たちのモデルを開発できる。実際にはIBMのこの新しサービスはこれらのツールを、基本的にクラウドネイティブなサービスとして提供し、デベロッパーはふつうのREST APIを使って、彼らが望むリソースや予算内でモデルを訓練できる。このサービスはコマンドラインインタフェイスと、Pythonのライブラリ、あるいは対話的ユーザーインタフェイスを提供し、それによりたとえば、NvidiaのGPUのどれを使うか、といったオプションを指定できる。

このような、ディープラーニングのための管理を伴う環境(managed environment, マネージドエンバイロメント)は、必ずしも新しいものではない。MicrosoftはAzure ML Studioで、高度なグラフィカルな環境によるMLモデルの構築を提供している。しかしIBMは、いくつかの独自のアドバンテージを主張しており、その中にはドラッグ&ドロップによるニューラルネットワークビルダーなどがある。それは、ノンプログラマーでもニューラルネットワークの構成や設計ができる、というものだ。

さらにIBMのツールでは、ハイパーパラメータがユーザーのために自動的にチューニングされる。これは従来、手作業でやると多くの時間を消費するプロセスであり、科学だけでなく一種のアートの側面も持つ。〔参考: Google Cloud ML Engine, Wikipedia

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IBM、どんな物にも内蔵できる「世界最小のコンピューター」を開発中

IBMは、ユビキタスコンピューティングに力を注いでいる。そしてそのアプローチは、コンピューターを砂粒と間違えるくらい小さくすることだ。将来この小さなコンピューターが普及すれば、製品の真偽確認や薬剤の追跡などに役立つだろう。

上の画像をよく見ると、砂山の上と人の指先の両方にチップがあるのがわかるだろう。その大きい方じゃない。もっとよく見ること!

これはIBMの “crypto anchor” プログラムから生まれた。製品のハイテク・ウォーターマークと呼ばれるもので、さまざまな方法を使って製品がメーカーが言う通りの工場で作られたものであり、偽物が混じったりしていない本物であることを証明するために使われる。

IBMが世界最小のコンピューターと言い続けるこのチップは、ブロックチェーンを導入することも目的のひとつだ。ブロックチェーンを利用したロジスティクスや追跡システムの高度なセキュリティーが、ワインボトルやシリアルの箱のようなものにも適用できるようになる。

A schematic shows the parts (you’ll want to view full size).

IBMはコンピューターを超小型にしただけではなく、これを非常に安く、おそらく1つ10セント程度にするつもりだ。つまり、このテクノロジーを装備する製品のタイプに下限はない。

それだけではない。これにはユビキタスコンピューティングの一般的な特徴もあてはまる。この賢い小粒はどこにでもいられて、ちょっとした計算をしたり周囲の状況を感知したり、他のデバイスやインターネットとつながる。あとは想像力次第だ。

これは小さい(約1 mm x 1 mm)ながら、一人前のコンピューター(最新型ではないが)の能力を持っている。数十万個のトランジスターとわずかなRAMと太陽電池と通信モジュールを備えたチップの能力は、おおむね1990年のチップと同じだ。当時はあれを使ってずいぶんいろんなことができていた。

もちろん現段階ではまだまだIBMの実験室内の研究プロジェクトであり、現実ではない。このプロジェクトは、同社が今後5年間のイノベーションを予言する “five in five” の一環だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

IBMがセキュリティやDDoS防御でCloudflareとパートナー、サービスの内製を選ばず

最近の数年間でCloudflareは、データセンターの立地とパートナーシップでグローバルなネットワークを築き、同社のDDoS防御やセキュリティツール、Webサイトの加速、などのサービスを拡大してきた。これだけの専門的能力は簡単に得られるものではないので、IBMのような巨大グローバル企業でさえ今日(米国時間3/13)、内製よりもむしろCloudflareとのパートナーシップにより、これらのサービスを顧客に提供していく、と発表したのも、不思議ではないかもしれない。

IBMが新たに始めたCloud Internet Servicesは今日発表され、サイトの保護と高速化のためのCloudflareのサービスをすべて提供する。IBMはこの発表を、来週行われるTHINKカンファレンスの前、というタイミングで行っているのだ。

IBMのWatsonとクラウドを担当するCTO Bryson Koehlerによると、IBM Cloudのユーザーは、一回のクリックでこれらの機能をonにできる。“Cloudflareは、ワールドクラスのツールセットを作るすごい仕事をしている。それらは使いやすいだけでなく、うちのチームが使っているのと同じスタンダードに従っている”、と彼は語る。“今日のように、変化が早くてサービスがつねに進化しているときには、いつも内製かパートナーかという決定を迫られる。そしてキャッシングやロードバランシングでは、彼らがうちとのパートナーシップにふさわしい仕事を成し遂げている”。

このパートナーシップに加えてIBMは今日、二つの新しいセキュリティ機能を発表した: それはIBM Cloud Security Advisorと、IBM Cloud App IDの新しい機能だ。Cloud Security Advisorは、デベロッパーとオペレーションの両チームに、彼らのセキュリティ態勢への、これまでよりも多くて深いインサイトを提供する。その中には、Webサーバーのセキュリティ証明がそろそろ期限切れだというベーシックなアラートがあったり、あるいはアプリケーションとデータに影響を与えるIBMのグローバルネットワーク上に兆候のある脅威に関する警報だったりする。このツールは十分高度に作りこまれているので、たとえば特定の規制に従ってデータを管理しなければならないデベロッパーが、うかつにPCIやHIPAA準拠のサービスからデータをロードし、それを非準拠のサービスに書き出す、といった事故を未然に防ぐことができる。

Cloud Security Advisorはまだ実験段階のプロダクトだが、必要なすべてのデータを単一のダッシュボード上に表示する。

App IDの方は、正しい認証を経たユーザーだけが、アプリケーションやデータにアクセスできるようにする。とくに新しい機能ではないが、IBMはこのサービスを今後、コンテナやIBM Cloud Container Serviceにも適用する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IBMのPAIRS Geoscopeは地理空間的/時間的データの大規模データサービス、デベロッパーはクェリするだけ

IBMが今日、PAIRS Geoscopeを発表した。それは、さまざまなソースからの大量の地理空間的データをデベロッパーが容易に扱えるようにする、実験的なクラウドサービスだ。このサービス自身がデータの取り入れや統合化、そして管理を担当し、デベロッパーはもっぱらクェリに集中できる。

というより、このサービスのデータの取り入れとインデクシングの部分が、PAIRS Geoscopeをそのほかのビッグデータ分析サービスとはひと味違うものにしている。取り入れるデータとしては、センサーからの、地理情報タグのついた(geotagged)IoTデータもあれば、天気予報データや国勢調査データ、航空写真、それにTwitterのツイートやGoogleが支援するGDELT Projectからのデータもある。

この膨大なデータサービスの仕組みに関心のある方は、彼らが最近発表したペーパーを読んでみよう。そこには、統合化エンジンについても詳しく書かれている。しかしデベロッパーの視点から見てもっとも重要と思われる機能は、PAIRSがすべてのデータを共通の形式と単位に変換して、すべての空間的データを自動的に整列することだ。

IBMによると、同社はこのサービスを、“スケーラビリティの高い”クラウド上のリポジトリに構築した、それは複雑な地理空間的-時間的情報のために特製したリポジトリだ”、という。デベロッパーはこのサービスにREST APIでアクセスできるが、ほかにWebによるインタフェイスもあり、それを使えばさまざまな層の選択や操作、結合により新しいクェリを作ることも容易にできる。

PAIRS Geoscopeを自分で試してみたい人は、このプロジェクトのホームページへ行ってみよう。現在は、このサービスのリポジトリにある公開データセットのどれでも無料で利用でき、そのやり方もガイドしてくれるから、この種のデータで遊んでみるためには、いちばん容易なツールであるようだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IBM WatsoのCTO Rob Highが機械学習の“偏り”などAIの最新の課題を語る

IBM WatsonのCTO Rob Highにとって、機械学習における現時点の最大の技術的課題は、少ないデータでどうやってモデルを訓練するか、ということだ。バルセロナで今行われている例年のMobile World Congressでインタビューしたとき彼は、“それはチャレンジであると同時に目標でもあるが、それが可能だと信じられる理由もある”、と語った。

彼のこの意見は、業界全体の声を反映したものでもある。GoogleのAIのチーフJohn Giannandreaはたとえば最近、それを同社の機械学習グループが取り組んでいる主要な課題の一つとして挙げた。通常、機械学習のモデルは、正確であるために大量のデータで訓練する必要があるが、しかし、そんな大きなデータ集合がそもそも存在しない問題も多い。

しかしながらHighは、これが解決可能な問題だ、と信じている。なぜか? “人間はそれをしているからだ。われわれ人間にはデータポイントがある”、と彼は言う。ここで心に留めなければならないのは、人間がやってることの中にその証拠がある、と彼が言うのは、具体的なあの機会やこの瞬間に、人間の学習の仕方に関する情報がある、という意味ではない。“むしろ、テーブルの上にはありとあらゆるコンテキストがあるのだ”。つまりHighが言いたいのは、少ないデータでモデルの訓練が可能になるのは、コンテキストのおかげであり、また、転移学習(transfer learning)における最近の進歩だ。それは、すでに訓練されているモデルを、データの少ない別のモデルの訓練に利用する技法だ。

しかしAIの課題、とくに会話的AIの課題は、さらにもっと困難だ。“もう一方では、人間が自然だと感じるようなやり方で人間と対話し、人間の思考に影響を与えるにはどうするか、という課題がある”、とHighは語る。“人間は、彼らがやり取りする言葉だけから影響されるのではなく、それらの言葉を収めている発声や屈折、抑揚、韻律、気分、顔の表情、腕や手のジェスチャー、などなどの影響も受ける”、Highは、AIがこれらの要素を擬人的に模倣すべきだ、とは考えていない。むしろ、デバイス上の何らかの形のビジュアルキューを使うだろう、と。

それと同時に、多くのAIシステムがもっと上手になるべきなのが、質問の意図を正しく理解することだ。その質問は、何かに関するその人の前の質問とどう関連しているのか。その人の今の心の状態や人柄が、質問の意図にどう影響しているか、など。

しかしここから、もうひとつの疑問が生ずる。今実用化されている機械学習のモデルの多くは、それらが訓練されたときのデータによって偏りが生じている。分かりやすい単純な例としては、そのモデルは白人の男性に関しては精度が高く、黒人の女性に対しては成績が悪い、ということがありえるだろう。この問題にHighはこう答える: “方程式の両辺を見る必要がある。ひとつは、データの集積による偏りで、これに対してはよく注意して、人間ならばそのモデルが表している文化的および集団的側面を広げる努力をしなければならない。しかしもうひとつは、個人的偏りよりは、集積的偏りの方が望まれる場合もある、ということだ”。〔偏りが求める母集団の特性を表しているような場合。〕

Highは、IBMがSloan Kettering Cancer Center(がんセンター)で行った例を取り上げた。その病院は、がん治療の優れた外科医たちの仕事に基づいてモデルを訓練した。彼曰く: “しかしSloan Ketteringには、治療のやり方に関する独特の哲学があり、その哲学が偏りとして組み込まれた。それはその機関の偏りであり、彼らのブランドでもある。[…]Sloan Ketteringの外でそのシステムを利用するときも、その哲学による偏りを免れない”。

“偏りが正しい偏りであるためには、モデルの利用者や、彼らが代表している集団が、多様な文化集団がある中でもとくに、その偏りにとって適正な人びとでなければならない”。これは、IBMのクライアントに対してHighがよく言う言葉でもある。偏りを偏りとして直視し、ときにはその意義も認めることは、今だにこの種の話題を無視しがちな業界における、肯定的な兆候のひとつだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IBMがローコードプラットホームMendixをIBM Cloudに統合、新しいタイプのユーザー獲得をねらう

IBMが今日(米国時間1/25)、ローコード開発プラットホームMendixとのパートナーシップを発表した。これによりMendixは、IBMのWatsonなど多くのIoT/AIサービスとともに、IBM Cloudにネイティブで統合されることになる。IBM CloudはそれまでIBM Bluemixと呼ばれていたが、すでにそのころから同社とMendixとのパートナーシップは存在している。

この、新たに進化したパートナーシップによって、IBMはMendixをIBM Cloudに持ち込み、同社自身のツールとのより深い統合を行う。IBM Cloud PlatformのゼネラルマネージャーDon Bouliaによると、IBMのプラットホーム上の既存のデベロッパーたちは必ずしもMendixのようなローコード/ノーコード方式に積極的なタイプではないが、しかし今回のパートナーシップによってIBMは、これまで同社のクラウドサービスを活用できなかったデベロッパーや、なるべく早くプロトタイプを作りたいと願っている高度なデベロッパーなど、新しいデベロッパー集団に訴求できるようになる。

Mendixを同社のクラウドに加えることによってIBMは明らかに、その多様なサービスにさらに多くのユーザーを惹きつけたいと願っている。まず挙げられるのが、WatsonのAIサービスとのディープな統合であり、それはたとえば、Conversationサービスによるチャットボットの構築や、翻訳サービス、テキストの音声変換など、またWatson Tone Analyzerによるテキスト中の感情理解、そしてWatson Visual Recognitionサービスなどだ。Mendixのコネクターキットを使えば、IBMのIoTやブロックチェーンサービスにもアクセスできる。

IBMのIoTやブロックチェーンのAPIを扱うようになれば、Mendixのビジュアル開発ツールの枠を超えて、これらのツールをフル活用することになるだろう。

Mendixは、他のすべてのローコードプラットホームと同様に、アプリケーション開発を10倍スピードアップすると約束している。またIBMは、同社のサービスによってデベロッパーが自分たちのアプリケーションを、コンテナやCloud FoundryのようなプラットホームからIBM Cloudへ容易にデプロイできる、と訴えている。

〔参考記事: Mendix日本語解説

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IBMの2017年第四四半期の売上が前年同期比で久しぶりに増加

これは驚き!: 22四半期(5年あまり)連続で前年同期比が減少だったIBMが今日(米国時間1/18)、Q4 2016からQ4 2017にかけての売上が増加した、と報告した。報告によると同社の前四半期の売上は225億ドルで、1年前の217億7000万ドルから増加した。一株当たり利益(EPS)は5ドル18セントだった。アナリストたちの予想は売上が220億6000万ドル、EPSが5ドル17セントだった。

この予想外の急変の理由はなんだろう? IBMの役員たちによると、同社の経営改善計画は基本の重視からスタートした。IBMの会長で社長でCEOのGinni Romettyは今日の発表で次のように述べている: “弊社の基本部分(ないし必須部分)の売上は再び二桁の伸びを示し、全売上の46%を占めるに至った。また今四半期は全体としての売上も増加したことに、われわれは満足している。2017年には、エンタープライズクラウドプロバイダーのトップ企業としての弊社の位置づけを強化し、またIBMを企業用ブロックチェーンのリーダーとして確立した。今後に向けて弊社は、データとAIを利用して、よりスマートなビジネスを構築するクライアントをお手伝いしていく、他に類のないユニークな位置に立っている”。

これが、今後の長期的な成長のサインなのかはまだ分からないが、‘希望が見えてきた’とは言えそうだ。

今期は、IBMの事業部門のほとんどすべてが売上の増加を報告した。ハードウェアとオペレーティングシステムソフトウェアを含む“Systems”部門は32%の増加率であり、しかもまさにこの部門こそが、これまでIBMがもっとも苦戦した分野だった。しかし今では同社のz Systemsやストレージ関連プロダクトが、明確な成長を示している。

“Technology Services & Cloud Platforms”部門に入るハイブリッドクラウドサービスやセキュリティおよびモバイルサービスは15%増加したが、部門全体の売上は1%の減少となり、総売上は92億ドルだった。

同社は、アメリカにおけるTax Cuts and Jobs Act法の制定に伴い、55億ドルの課税があったことも報告している。IBMのGAAP税率は、この一回だけの課税も含めて2017Q4では124%、全年では49%だった。それは予想外ではないものの、同社の今後数四半期の売上の成長を阻害するかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IBMがGlobal Technology Servicesグループの大変革を計画中か?


IBMはここ数年間調子が悪く、収益の減少が22四半期の間連続している。このような背景の中、米国時間11日にThe Registerが、同社のGlobal Technology Servicesグループに大きな変化が起こるかもしれないことを示唆する記事を発表した

Global Technology Services(GTS)は、インフラストラクチャーサポートとハードウェアコンサルティングを扱う、IBMのビジネスコンサルティング部門である。同社がクラウドに重点を移しつつあるため、GTSのハードウェアへの注力は、同社の今後に対しての重要性が下がっている。

この変化は、ITの変化する背景に照らして見る必要がある。実際のところ、多くの企業が自社のデータセンターを運営することをやめて、パブリッククラウドサービスに移行しつつある。このコンテキストの中では、ハードウェア導入に集中する10万人の従業員を抱えていることはあまり意味がない。

The Registerの記事によれば、同部門は焦点を大きく変えようとしており、これに従い従業員たちの大規模な再構成が行われようとしている。さらに、変更が非常に大きいために、同社はBainと契約し、整理作業への支援を受けることになった。レポートによれば、世界中で約3万人の人びとが影響を受けるという。

そのうちの9300人は、IBMが近年集中しているクラウドコンピューティングのような領域に異動する。またおよそ1万のポジションは、この先従業員がいなくなってもその空席が埋められることはない。The Registerの記事からは、残った人たちに何が起きるのかはさらに明らかではない。しかし現在外部と共同で、もしくは外部からサービスを受けている6000のポジションは移管されるか廃止されるようだ。残りの5000人ほどについては、彼らに何が起こるか、レイオフがあるのかどうかも含めてなにも説明されていない。

IBMのある広報担当者は、記事の正確性に関する質問に反応して、TechCrunchに対しこのように答えた:「みなさんもよくご存知のように、私たちは推測についてはコメントしません。多くのコンサルタントたちがIBMに何かを推奨してきますが、その多くは単なる推奨に過ぎません」。それは正確さを期すために慎重に選ばれた言葉だった。

広報担当者はさらに続けて以下のように説明した「あらゆるビジネスと同様に、IBMは新たなクライアント要件を満たすために、従業員を再教育します。GTSは、私たちの戦略的イニシアチブに重点を置くために、専門的な開発と技術トレーニングへの投資を大幅に増やしています」。言い換えれば、IBMは過去数年間、クラウド、セキュリティ、人工知能、分析などの分野に移行しつつあるため、GTSの人員もこれらの分野に移行させる必要があるということだ(ということは既にそれを実際に行っているということだろう)。

Constellation Researchの創業者で主要アナリストであるRay Wangは、これは会社が成し遂げなければならない変化だという。「IBMは大規模な再訓練の最中です。この目標は、新しいビジネスモデルのためにそのスタッフを再配置し、再訓練することです」と彼は言う。「GTSは旧来のサポートモデルとアウトソーシングモデルのために設立された会社です。これが噂に真実味を加えていますが、私たちはBainはそこに関わっていることを知っています」と彼は付け加えた。

良いニュースは、レポートでは大規模なレイオフについては言及されていないということだ。とはいえこの規模の部門ならば、おそらくはある程度のレイオフは行われることだろう。それでも、最初のレポートが正しいとするなら、焦点が当てられているのは従業員の他のポジションへの異動であり、解雇ではないようだ。もちろん、これがどのようになるかはこの先はっきりする。

[原文へ]
(翻訳:sako)

FEATURED IMAGE: JOAN CROS GARCIA – CORBIS/GETTY IMAGES

2017年の特許取得数のトップはまたしてもIBMだった、Facebookがベスト50に初めて登場

特許は、一部の企業の利益のための濫用(と誤用)が元となって、謂(いわ)れのない非難を受けるときもあるが、それでもなお、あるテクノロジー企業がどれほどR&Dで先行し、イノベーションを推し進めているかを知るための指標となる。そうした先進性の指標の1つとして、特許分析会社のIFI Claimsが、2017年に最も多くの米国特許を取得した企業のリストを発表した。

リストの最上位に載ったのは、再びIBMである。これは25年連続のことである。同社は2017年に9043件の特許を取得したが、それは2016年に取得した数を1000件上回り、2位に付けているSamsung Electronicsよりもおよそ3300件多い数字である。

上位10社として3位以下に続くのは、Canon、Intel Corp、LG Electronics Inc、Qualcomm Inc、Google、Microsoft、Taiwan Semiconductor Manufacturing Co (TSMC)、そしてSamsung Displayである。

IFIによれば、生産台数という意味で世界最大手の携帯電話メーカーであり、巨大なテクノロジー会社であるSamsungは、関連会社の特許全てを合わせると、IBMにあと150というところまで肉薄している(トップ1000には3つ入っているが、それはここで見ることができる)。

もちろん、特許はその会社の命運と直接関係している訳ではない。なぜなら特許が取得された、イノベーションの最先端にある技術は、おそらくこれまでに商品の世界では目にしことがないようなものだからだ。

そして実際、世界で最もリッチで最も利益を挙げているテクノロジー企業の1つであるAppleは、トップ10には入っていない。昨年のAppleは11位にとどまり、2229件の特許を獲得した。もう1つのテクノロジーの巨人Amazon――eコマース、ロジスティクス、クラウドサービス、そして近年は音声AIイノベーションでのリーダーシップで主要なブランドとして認知されている――は順位を1つ上げて13位となり、1963件の特許を取得している。

以下にトップ20を示した。

IFI Claimsの報告書はまた、技術という面に関して、広く世界で最も大きな話題(あるいはVC資金調達または販売)を集めたテーマが、必ずしも特許を最も獲得している、あるいは最も成長しているトップ技術と同じであるとは限らないことを強調している。

アナリストによると、特許の伸び率という意味では、2017年のトップテクノロジーは、電子タバコ関連で、45パーセントの伸びを示した。それに続いているのは3Dプリントで(GEがそのほとんどの特許を押さえている)、その次が人工知能に関連した対になったテクノロジーの、機械学習と自動運転車だ。IBMはこれらのそれぞれに最大数の特許を出願した。他の急速に成長している分野としては、飛行ドローンとフードテックが挙げられる。

出願された特許のうち、最も人気のある分野は、「電子デジタルデータ処理」の一般的な領域が最も多く、合計で4万8935件が取得されている。このカテゴリは、ハードウェアとソフトウェアの両方を対象とし、データ転送の様々な方法に関連している。IBMはこのカテゴリーでもリードしている。

トップ5のカテゴリーリストを考えてみることで、世の中のテクノロジーの概観と、現在製品という意味でどんなものに興味が抱かれているかを見て取ることができる。

最も多くの特許が出願された、他の4つのカテゴリーは以下のようなものだ:「電気通信などのデジタル情報伝送」、半導体、無線コミュニケーション、そして映像コミュニケーション(テレビのようなものだが、ビデオや写真アプリなども含まれる)である。

[原文へ]
(翻訳:sako)

IBMの新しいPower9チップはAIと機械学習のために開発された

人工知能や機械学習などのリソースを大量に消費する作業を、滞りなく処理するためにコンピューティングパワーを増加させるための競争に、IBMは最新世代のPowerチップであるPower9で参戦した。

同社はこのチップを、サードパーティーのメーカーや、Googleなどのクラウドベンダーへ販売する予定だ。一方、Power9チップを搭載した新しいコンピューターAC922もリリースする。また、IBMクラウドに対してもこのチップを投入する予定だ。「私たちは通常、私たちのテクノロジーを完璧なソリューションとして市場に提供しています」と説明するのは、IBMのフェロー兼コグニティブシステム担当副社長であるBrad McCredieである。

同社は、Chainer、TensorFlow、Caffeなどの一般的なAIフレームワークのパフォーマンスを向上させるために、この新しいチップをデザインし、それらのフレームワークで動作するワークロードをほぼ4倍にすると主張している。

もし説明されたように動作するなら、データサイエンティストたちは、Power9を搭載したマシン上でのモデルの構築と実行の効率を上げることができる。そのことにより、仕事を効率的に進め、モデル作成をより素早く完成させることができるようになる筈だ。

Moor Insights&Strategyのプリンシパルアナリスト、Patrick Moorheadは、IBMがこのチップよって、競争から頭ひとつ抜け出すことになると考えている。「Power9は、機械学習で使用されるアクセラレーターに最適化された、新しいシステムアーキテクチャを備えたチップです。IntelはXeon CPUとNervanaアクセラレータを作り、NVIDIAはTeslaアクセラレータを作っています。IBMのPower9は文字通り、機械学習加速のためのスイスアーミーナイフで、膨大な量のIOと帯域幅をサポートしているので、現在市場にあるものの10倍の性能を叩き出すのです」とMoorheadは語る。

写真:IBM

もしNvidiaがAI/機械学習ワークロードの世界でかなりの部分を占めているように思っているならば、IBMの関心も免れることはできない。今や彼らもGPUチップメーカーと緊密に協力している。実際、McCredieによれば、IBMは競合システムよりもはるかに高速に、2つのチップ間でワークロードを移動するシステムバスを構築しているということだ

「最新のワークロードは一段と加速しており、その中でもNvidia GPUが一般的に使われているアクセラレータです。私たちはこの傾向が起こりつつあることを感知していました。私たちはPowerシステムとGPUの間に、チームとパートナーシップによる深い関係を構築しました。私たちはプロセッサーとGPUをつなぐユニークなバスを用意し、これによって競合システムに比べて10倍の帯域幅を実現することができました」とMcCredieは説明する。

新しいチップは、ローレンス・リバモアとオークリッジ国立研究所によって開発されたSummitと呼ばれるスーパーコンピューターに搭載される予定である。同氏によれば、このスーパーコンピュータは無数のPower9コンピューターを使って構築され、そのコストは3億2500万ドルに上るということだ。

GartnerのHPC、マシンラーニング、および新興コンピューティング技術のリサーチディレクターであるChirag Dekateは、このリリースは、人工知能のような高成長市場セグメントを獲得するための、IBMの積極的なアプローチの継続である、と述べている。「AI(具体的には機械学習やディープラーニング)のようなセグメント間で、戦略を調整することで、IBMはハイパースケールデータセンターや、より一般的なデータセンター市場での競争力を高めることができます。これにより、IBMの直接的な収益への影響がもたらされ、新しい大規模データセンターの展開も可能になります」とDekate氏は説明する。

Power9チップは、今日(米国時間12月5日)から入手可能だ。

[原文へ]
(翻訳:sako)

ソフトウェアのサプライチェーンを監視するためのAPI集合GrafeasをGoogleやIBMなど8社が共同開発

コンテナとマイクロサービスによって、ソフトウェアの作り方が急速に変わりつつある。しかし、どんな変化にも問題はつきものだ。コンテナが目の前にあるとき、それを誰が作ったのか、その中で何が動くのかを知りたいだろう。この基本的な問題を解決するために、Google, JFrog, Red Hat, IBM, Black Duck, Twistlock, Aqua Security, そしてCoreOSの計8社が今日(米国時間10/12)、共同のオープンソースプロジェクトGrafeas※を発表した(※: ギリシア語で“scribe, 書記官”の意味)。その目的は、ソフトウェアのサプライチェーンを検査し統轄するための標準的な方法を確立することだ。

併せてGoogleは、もうひとつの新しいプロジェクト、Kritis※を立ち上げた(※: ギリシア語で“judge, 鑑定人”の意味…Kubernetesの成功以来、Googleの新しいオープンソースプロジェクトにはほかの言葉を使えなくなったのだ!)。Kritisは、Kubernetesのクラスターをデプロイするとき、コンテナに一定のプロパティを強制する。

Grafeasは、コードのデプロイとビルドのパイプラインに関するすべてのメタデータを集めるための、APIの集合だ。そしてそのために、コードの原作者や出所、各コード片のデプロイ履歴〜デプロイ時の記録、どのようなセキュリティスキャンをパスしたか、どんなコンポーネントを使っているか(そして各コンポーネントの既知の脆弱性)、QAからの承認の有無、などの記録をキープする。そうすると、新しいコードをデプロイする前にGrafeasのAPIを使ってこれらの情報をすべてチェックでき、それが(得られた情報の範囲内で)脆弱性なしと認定されていたら、プロダクションに放り込める。

一見するとこれは、平凡すぎる感じがしないでもないが、でもこんなプロジェクトのニーズは確かにある。継続的インテグレーションや分散化、マイクロサービス、どんどん増えるツールセット、そして各種バズワードの奔流、といった動向の中でエンタープライズは、自分たちのデータセンターで実際に何が起きているのかを知ることに苦労している。今動かしているソフトウェアの本性を知らずに、セキュリティやガバナンスを云々しても空しい。そしてデベロッパーが使うツールは統一されていないから、そこから得られるデータもまちまちだ。そこでGrafeasは、どんなツールでも一定の標準化された、業界全員が合意しているデータ集合が得られるようにする。

Googleのオープンソースプロジェクトの多くがそうであるように、Grafeasも、この問題のGoogle自身の対処方法を模倣している。規模が大きくて、しかもコンテナやマイクロサービスを早くから採用しているGoogleは、業界全体の問題になる前にこれらの問題を数多く体験している。Googleによる本日の発表によると、Grafeasの基本的な内容は、Google自身がそのビルドシステムのために開発したベストプラクティスを反映している。

そのほかのパートナーたちも全員が、このプロジェクトにいろんなおみやげを持参している。しかしたとえばJFrogは、同社のXray APIにこのシステムを実装するつもりだ。Red Hatは、同社のコンテナプラットホームOpenShiftのセキュリティとオートメーションを強化するためにこれを導入し、CoreOSは同社のKubernetesプラットホームTectonicにこれを統合する。

Grafeasの初期のテスターの中には、Shopifyがいる。同社は現在、一日に約6000のコンテナをビルドし、それらが33万点の画像を同社のメインのコンテナレジストリに保存する。Grafeasがあると、たとえば、今どのコンテナがプロダクションで使われているか、それはいつレジストリからダウンロードされたか、その中ではどのパッケージが動いているのか、そして、コンテナの中のコンポーネントのどれかに既知の脆弱性はないか、などが分かる。

Shopifyは、今日の発表声明の中でこう言っている: “Grafeasによってコンテナの正確なメタデータが得られるので、セキュリティチームがこれらの質問に答えられるようになり、またShopifyでわれわれがユーザーに届けるソフトウェアの検査やライフサイクル管理に、適切な肉付けがなされるようになった〔形式だけではなくなった〕”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IBMが世界中のスーパーコンピュータのボランティアネットワークにより人体のマイクロバイオームと免疫疾患の関係を解明へ

体内の細菌が人間の健康に及ぼす影響は、まだその全貌と詳細が解明されていない。IBMは、World Community Gridと名付けたクラウドソースなスーパーコンピューター群の“コミュニティ”を利用して、人体のマイクロバイオームと、それが自己免疫疾患にもたらす役割に、光を当てようとしている。

このプロジェクトでIBMがパートナーしたのは、ハーバード大学のBroad Institute, MIT, Massachusetts General Hospital(マサチューセッツ総合病院), カリフォルニア大学サンディエゴ校, そしてSimons FoundationのFlatiron Instituteだ。プログラミング学校も開設しているFlatiron Instituteは、人間の腸内のバクテリアの300万種の遺伝子の、染色体上の位置を解明しようとしている。

この研究は、これらのバクテリアが1型糖尿病や橋本病、クローン病、潰瘍性大腸炎などの疾患にどのように寄与貢献しているのかを、科学者たちが知る手助けになることを目指している。

腸の健康問題に取り組もうとしているのは、もちろんIBMだけではない。むしろそれは今、テクノロジー企業のあいだで流行になってるようだ。4月には、Alphabetのライフサイエンス部門Verilyが、10000名の協力者から得た腸とDNAのサンプルにより、マイクロバイオームに関する情報を集めるプロジェクトをローンチした。テクノロジー世界の億万長者Naveen Jainは、2016年に創ったViomeで、同様の研究を開始した。過去2年間で、このテーマでVCの資金を獲得したスタートアップが数社ある

IBMの研究は、上述の大学等の科学者を起用するだけでなく、世界中のボランティアが提供する膨大なコンピューティングパワーによってデータを分析し、それらの分析結果と所見を一般に公開する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))