AI問診・病名予測アプリ開発のUbieが関西電力CVCから3億円を資金調達

AIによる問診ソリューションや病気予測アプリを開発するヘルステックのスタートアップ、Ubieは5月7日、J-KISS型新株予約権により関電ベンチャーマネジメントから資金調達を実施したことを発表した。金額は公開されていないが、登記情報などから3億円を調達したものと見られる。今回の調達は、2017年9月に行われたD4Vを引受先とした6000万円のシードラウンドに続くものとなる。

Ubieの設立は2017年5月。共同代表取締役で医師の阿部吉倫氏とエンジニアの久保恒太氏が立ち上げた。久保氏は東京大学在学中の2013年に病名予測アルゴリズムの研究を開始。現在Ubieでは、医療機関向け「AI問診Ubie」と一般ユーザー向け「Dr.Ubie」という、共通のアルゴリズムで動く2つのプロダクトを提供している。

AI問診Ubieは、現役医師が監修した問診ツールだ。自然言語処理技術と質問選定アルゴリズムを利用して、紙の問診票と医師の問診に代わり、AIで患者の回答に応じた最適な問診を自動で行い、カルテのテンプレートも自動で生成。医師の事務にかける時間と患者の待ち時間を削減する。2017年8月にベータ版、同年12月に製品版がリリースされ、50件近い医療機関に提供されている。今月からは日立総合病院での運用が始まり、今夏には宮崎大との多施設での共同研究開始が予定されている。

Dr.Ubieはセルフメディケーションを目的とした、一般ユーザー向けの病気予測アプリ。ユーザーの年齢や性別に合わせて質問を出し、症状から考えられる病名を予測する。現状ではAndroid版がリリースされている。

Ubieでは資金調達にともない、エンジニアを中心とした採用を強化。主力事業であるAI問診Ubieの機能拡充・事業拡大に加えて、Dr.Ubieのマルチチャネル化や海外展開も含めた開発・マーケティングにも力を入れていくという。

iPhone XのFace ID不具合はリアカメラの故障から?アップルが正規代理店に通達のうわさ

eng-logo-2015iPhone Xのリア(背面)カメラが故障すると、Face IDも利用できなくなる場合があるとの噂が報じられています。

その根拠となっているのは、先週末にアップルが小売店や正規サービスプロバイダーに配布したとされる最新のサポート文書。この文書では、Face IDが使えなくなったiPhone Xが持ち込まれた場合、まず診断テストを実施し、リアカメラ修理で解決できるかどうかを確認するよう指示しているとのこと。

それで解決できる場合は修理を、できない場合はカメラユニットごと交換するといった手順を説明しているとされています。

iPhone Xの顔認証「Face ID」は、前面のノッチ部分に搭載されたTrueDepthカメラを通じて実現していますが、それが背面にあるリアカメラ故障と因果関係があるとは直感に反すること。とはいえ同様の症状は、これまでもユーザーからいくつか報告が上げられていました。

たとえばiPhone Xの発売直後に、米ネット掲示板Redditにて「リアカメラとFace IDの両方が正常に動作しなくなった」との投稿もありました。

さらにアップルストアで対応されたRedditユーザーの一人がGenius Barスタッフに確認したところ、TrueDepthカメラとリアカメラの望遠レンズが繋がっていると説明したとされています。

Face IDが利用できなくなった場合は「Face IDは利用できません」とのメッセージが表示されます。再起動した場合でも症状が改善しないときは、カメラアプリを起動してリアカメラの異常もチェックした上で、アップルストアや正規サービスプロバイダーに持ち込んだほうがいいかもしれません。

Engadget 日本版からの転載。

人材分析サービス「HRアナリスト」開発のシングラーがパーソルグループに参画

人材分析サービス「HRアナリスト」は、採用候補者への事前アンケートと人事ノウハウの組み合わせによる、クラウド型のHR Techツールだ。10分程度で完了するアンケートへの回答をもとに、採用設計、面談・面接方針、コミュニケーション方針や志望度を上げるトピック、自社のアピールポイントなどを、候補者ごとに具体的に提案してくれる。

HRアナリストを提供するシングラーは5月7日、パーソルグループのパーソルキャリア(旧インテリジェンス)の連結子会社となり、パーソルグループに参画することを明らかにした。株式の取得比率や金額については非公開。今後両社は、人材サービスの共同企画、開発を通じて協業していくという。

上段左から:パーソルキャリア 経営戦略本部 エグゼクティブ マネジャー 柘植悠太氏、シングラー 執行役員 田口弦矢氏、シングラー 執行役員 三角勇紀氏、パーソルキャリア 執行役員 岩田亮氏
下段左から:シングラー 代表取締役CEO 熊谷豪氏、パーソルキャリア 代表取締役社長 峯尾太郎氏

今回のパーソルグループへの参画について、シングラー共同創業者で執行役員 COOの三角勇紀氏は「双方にメリットがあるもの」として次のように話している。

「セールス、資金面で力を持つパーソルグループとの今回の協業により、シングラーとしては、プロダクト開発に集中でき、よりよいもの、よりマーケットにフィットしたものを提供できると考えている。パーソルキャリアとしては、求職者と採用意欲の高い企業をより適切にマッチングすることが可能となる」(三角氏)

今後の協業内容について、具体的な取り決めはこれからだとのことだが「HR Techで人材採用を変える、というシングラーの王道の路線は外さず、進めていきたい」と三角氏は話していた。

シングラーは2016年11月の設立。2017年8月にはHRアナリストで、B Dash Venturesが開催したスタートアップイベント「B Dash Camp 2017 Summer in Sapporo」のピッチアリーナ準優勝を果たしている。

建設業マッチングアプリ「助太刀」で職人が代金を即日受け取れるサービス開始、セブン銀とも提携

建設業の仕事を受発注できるアプリ「助太刀」を運営する助太刀は、アプリを利用して仕事をした職人が代金を即日受け取れる「即日受取サービス」を5月7日からスタートした。同サービスはセブン銀行子会社のセブン・ペイメントサービスが運営する「現金受取サービス」との提携によるもの。決済にはGMOペイメントゲートウェイのサービスを利用する。

助太刀は建設現場と職人をつなぐマッチングアプリ。職人はアプリに職種と居住地を登録すれば、条件に合った仕事の案件をプッシュ通知で受け取ることができる。また仕事を発注する側の現場監督は、現場ごとの細かい条件を指定することで、適した職人に仕事を依頼できる。

建設業界では、現場で働く職人に仕事の代金が支払われるまでの期間が長い場合が多い。助太刀の即日受取サービスを使えば、その日の仕事が終わった時点で職人が工事代金を発注者に申請し、セブン銀行のATMから即時現金で受け取ることができるようになる。

助太刀は4月に、伊藤忠テクノロジーベンチャーズやジェネシアベンチャーズなどから5億3000万円を調達している。調達を機に同社では、職人と現場のマッチング機能に加えて、職人への支払いに関わるペイメント機能を提供する予定があると言及していた。

テネシー州の郡選挙サイト、DDos攻撃で投票日にダウン

先週、地方選挙の最中にDDoS(分散型サービス妨害)攻撃を受けてサーバーがダウンしたことを受け、テネシー州ノックス郡は外部セキュリティー調査会社と協力して原因を調査している。攻撃の結果郡長予備選挙結果を表示するノックス郡選挙委員会のウェブサイトは投票日の最中に停止した。郡はダウン中印刷された投票結果を配布した。

「本日夜、われわれのウェブサイトはDDos攻撃を許した」と5月1日夜ノックス郡がTwitterに書いた。「当郡の投票システムはインターネットと一切接続されていないため、選挙結果に影響はない」。

事件の翌日、ノックス郡長Tim Burchettは有権者に対して、今回の攻撃が投票に影響を与えていないことを改めて強調した。インターネット接続が可能な投票システムは、接続不能のシステムと比べてはるかにセキュリティーのリスクが高い。

「攻撃によって投票結果や選挙の完全性が影響を受けたことはないが、これは起きてはならないことだ」とBurchettが声明で述べた。「私は何が起きたのかを知りたい。将来同じような問題が起きないよう対策するために、第三者機関の協力を得るべきだと考えた」。

Burchettは、郡の選挙システムの危機管理が「未熟」であったことを指摘する外部の批判に対して、投票システムは「インターネットに接続されたことはなく、リスクはない」ことを再度強調した。

ノックス郡のIT部門長、Dick Moranは報告書の中で、「極めて大量で異常なネットワークトラフィック」はDDos攻撃と符合するものであり、関係しているIPアドレスは国内外両方のものであることを指摘した。Moranは、サーバーをオフラインに追い込むDDos攻撃と、システムやサーバーに侵入することを目的とするハッキングを明確に区別した。

ノックスビル拠点のセキュリティー会社、Sword & Shield Enterprise Securityは、今回の攻撃を分析し、サーバーがオフラインになった「正確な状況を突き止める」ために郡と契約を交わしている。

攻撃を受けた郡サイトは、選挙結果を一般向けに公開していただけで、投票を受けつけたり集計したりすることはない。しかしDDoS攻撃は混乱を引き起こすための陽動作戦として用いられることもある。TechCrunchは攻撃の詳細について、Sword & Shieldに問い合わせている。

国の選挙システムのセキュリティー強化を目的とする最近の取組みの一環として、国との連携が強化されていることから、TechCrunchは国土安全保障省にも連絡を取り、ノックス郡への支援について質問している。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google Assistantで映画チケットを買えるようになった

Google Assistantに新しい機能がやってきた。Fandango との提携によって、映画のチケットを簡単に買えるようになる。Google Assistantに映画のチケットが買いたいと言えば、近くで何を上映しているかを教えてくれるので、あとはどの映画館でどの映画をやっているかを見ればよい。

このサービスはStar Wars™ のマーケティング・ホリデーに因んで、May the Fourth™(5/4)にスタートする。そしてSolo: A Star Wars Storyの前売り券はその当日発売になる。

この機能はSiriには前からあったがGoogle AssistantではFandangoアプリをダウンロードしなくても購入できる。Siriで利便性が大きく損なわれていた点を改善した。

現在はAndroid端末のGoogle Assistant専用だが、もしあなたがiOSでGoogle Assistantアプリのヘビーユーザーなら、今年中には映画チケットを買えるようになるはずだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Lobeで機械学習利用アプリを誰でも簡単に開発できる――デモではジェスチャーを絵文字に変換

機械学習はトレンドだ。CERNの素粒子の探求からGoogleによる人間の声の合成まであらゆる場所に用いられている。ただしハードルが高い。 しかしビデオ編集、音声編集の実際の動作は複雑きわまるものだが、好奇心さえあれば子供でも手を出せるくらい優れたUIが数多く実用化されている。

それなら機械学習でも同じことができるはずだ、というのがLobeのファウンダーたちのコンセプトだ。LobeはLEGOブロックを組み合わせるのと同じくらい簡単に機械学習モデルを作れるようにするプラットフォームを提供するスタートアップだ。

共同ファウンダーの一人でこれまでの各種の優れたデジタル・インターフェイスをデザイナンしてきたMike Matasに話を聞くことができた。Matasはこのプラットフォームの目的や開発の動機について話をしてくた。

「これまでもAIを使ったらこんなことができるはずだというアイディアを思いつくものの、実行するのに十分な知識がないという状況が多々あった。いくらいいアイディアでもAI専門家のチームを雇うことできなければ意味がなかった」とMatasは言う。

実は彼自身、こういう状況を経験した。

そこで私は自分でAIモデルを作れるものか調べてみた。たしかに入り口にはたくさんの術語、フレームワーク、数学といった難題が立ちふさがっていた。しかしそこをなんとかくぐり抜けると、コンセプト自体は直感的に理解しやすいものだった。機械学習は人間にものを教えるのと基本的に同じやり方だから、普通のプログラミングよりやさしいぐらいだ

そうは言っても術語は難解だし、開発デバイスはまだまだ荒削りだった。機械学習は強力な手法だが、UIとしてはまだPhotoshopで画像編集をするようなレベルになっていなかった。

これまでの機械学習ではいろいろな要素を自分で組み合わせる必要があった。ダウンロードが必要なコードが多数あった。実は私もフレームワークを始めとしてダウンロードして組み合わせなければならないソフトウェアの数があまりに多く、ので嫌になった。私はUIデザイナーなので、それならこういう複雑な状況を整理して誰でも理解できるようなUIを構築するチャンスではないかと考えた

MatasとMarkus Beissinger、Adam Mengesが共同ファウンダーとなってスタートさせたLobeは機械学習を利用して大量のデータから意味のある特徴を抽出し、ラベル付けするための直感的に理解しやすいビジュアルなインターフェイスを作っている。下にエンベッドしたデモ・ビデオでは、手のジェスチャーをカメラで読み取って絵文字に変換するアプリを作るプロセスが詳しく紹介されている。アプリを開発するのにコンピューター言語の知識は必要ない。コードの処理は1行も出てこない。ましてコードを書く必要はない。もちろん必要なら(また能力があれば)詳細レベルに立ち入って調整することはできる。Lobeのプラットフォームは非常に使いやすく、処理も高速だ。十分なデータがあり機械学習による処理の可能性を感じているものの技術的ノウハウがないユーザーが簡単に新しいアプリを開発する可能性を開くものだろう。

Matasはこの状況をパソコンの初期に例える。

それまでコンピューターを扱えるのは専門のエンジニアと計算機科学者だけだった。「専門家しかコンピューターを扱えなければコンピューターの利用法を考えられるのも専門家だけになる。しかし80年代の後半になるとコンピューターにはクリエーティブな使い方が数多く登場した。それは大部分UIの改良によるものだった。

Matasは機械学習に関しても使いやすいUIの登場によって入門のハードルが下がれば新しいアプリが洪水のように登場するとみている。「データサイエンス以外のフィールドの人々も自分たちの課題に機械学習が適用できると考え始めている。しかも今後はアイディアからプロトタイプを作ることを機械学習専門家の手を借りず、自分たちでできるようになる」という。

機械学習の応用が期待される分野は無数にあるが、Lobeでは簡単なモジュールで計測認識、ジェスチャー認識、読唇術、花びらのような対象をリアルに再現するなど多数のアプリが可能となることを示している。学習のベースとなるデータはユーザーが用意しなければならない。しかし機械学習で処理するのは今後は困難な部分ではでなくなるという。

機械学習コミュニティーはオープンソースに徹することをモットーとしている。 Lobeも独自のAPIを通じてLobeのサーバーでしか作動しないようなモデルは採用していない。「LobeのアーキテクチャはTensorflowのようなオープン規格をベースとしている。Lobeで学習、テスト、調整などをした後は、どんなプラットフォーム向けにもコンパイルして作動させることができる」ということだ。

現在Lobeはまだクローズド・ベータの段階だ。 「問い合わせが殺到している。強い関心を呼んでいるのは確かだ。公開は徐々にしていくが、できるかぎり小さく始めるつもりだ。われわれは急がず身の丈にあったやり方をしていく」とMatasは語った。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

GoogleのVR180対応のカメラがLenovoから登場

Lenovoは、ヘッドセットのMirage Solo発売に合わせて、Googleの180度テクノロジーに対応した最初のカメラを発表した。Lenovo Mirage Cameraは、YouTubeクリエイター向きを強く意識した製品で、13メガピクセルの魚眼レンズ2基が両目の位置に配置され、VRビューイングに最適な高画質の3Dビジョンを提供する。299ドルというか価格は、試してみようというクリエイターにとって高すぎることはないが、そのニッチの大きさが果たしてどのくらいなのかは考えなくてはならない。今日から出荷される。

カメラはYouTubeのVR180プラットフォームをベースに作られていて、クリエイターが少しでも簡単にVRのライブ撮影できることを目的としている。実際360度カメラは多くの注目を集めてきたが、クリエイターはこれで何ができるのかわかっていなかった。Googleの割り切りは、撮影対象を360度の半分にしてメディアとカメラを簡易化することで、そこまでコストをかけずに鮮明な3D 4Kビデオを提供することだった。

カメラの作りは非常にしっかりしている。はっきりした高級感はないものの、十分堅牢で何よりも携帯性が非常に高い。多くの360度カメラと同じくバッテリーの持ちは2時間とさほど長くないが、交換可能で1台スペアがついてくるのがうれしい。VR180とは180度を意味している。これは、特にカメラの上端に指がかかっていると180度の半球に映り込んでしまうのでよくわかる。

GoogleのVR180アプリを使うと、写真をプレビューしたり、カメラからYouTubeにライブストリームすることができる。

これは成功のための正しい答なのかもしれないが、問題は商品の登場が遅すぎたのではないかということだ。山ほどのYouTubeクリエイターが、VRビデオを試そうとしてフラストレーションを募らせていることは間違いない。ヘッドセットの数は増えているものの、VR視聴者の数はチャンネルを維持できるのにはいたっていない。「マジックウィンドウ」モードを使うとヘッドセットがなくてもモバイルやデスクトップでVR180ビデオを見ることはできるが、当然のことながら最大の売り物である3D機能は失われる。

[原文へ]

(翻訳:Nob Takahashi / facebook

フレンドリーなロボットアームが患者のリハビリテーションのためのゲームに付き合う

イスラエルのネゲヴ・ベン=グリオン大学の研究者たちは、患者のリハビリ運動を助けるための tic-tac-toeゲーム(三目並べ)を開発している。ゲームは格子状の箱の上でプレイされ、「実物」および非実物プレイが可能だ。実物プレイでは、ロボットアームがマーカー(今回は小さなコップ)を実際に掴んだり置いたりする。非実物プレイの場合はコンピューターの選択を明るいライトで示すことになる。

このシステムでは、Kinovaアームとコップが使用される。コップはリハビリプロセスの一部であり、病気や事故の後に、ものを掴んだり扱ったりすることを患者が訓練することを助ける。

「(⭕❌の代わりに)Tic Tac Toeをコップのセットでプレイすることは、上肢のリハビリに役立つゲームの例の1つです」と語るのはShelly Levy-Tzedek博士だ。「沢山のコップを持ち上げたり置いたりすることで、ゲームを楽しみながら日常タスクのパフォーマンスを向上させて行くことが可能です」。

興味深いことに、ロボットの速度がユーザーに影響を与えることがわかった。ロボットがゆっくり動くとユーザーもよりゆっくり動き、ロボットの動きが速くなると、ゲームの進行も速くなった。このことを使って、個々の患者や個人のニーズに合わせてゲームを変化させることができる。ロボットは決して疲れることがないので、リハビリテーションスタッフは、特定のリハビリ療法に適したスピードとタイプのプレイを提供しながら、患者のささいな動きに注意を払うことができる。

この研究論文は、 Restorative Neurology and Neuroscience掲載された。


[原文へ]
(翻訳:sako)

Facebookの個人情報保護はまだ不十分、とドイツ司法大臣

ドイツの司法大臣はFacebookの個人情報流出問題に関して、サードパーティデベロッパーや他の外部プロバイダーがFacebookの情報を誤った形で使用することができないよう、内部統制と罰則を盛り込んだプラットフォームを要求する書簡をFacebookに送った。サードパーティがプラットフォームポリシーを遵守し、ルール違反した場合には厳しい罰則を課すことを求めている。

地元メディアに全内容が掲載されたこの手紙は、ロンドンのオブザーバー紙とNYタイムズが3月中旬にスクープして以来、Facebookが集中砲火を浴びている個人情報流出問題をさらに追求するものだ。このスクープ報道は、Cambridge AnalyticaがFacebookユーザー8700万人の個人情報をどうやって入手して選挙で不正利用したか、詳細を白日の下にさらした。

Facebook創業者でCEOのマーク・ザッカーバーグに宛てた書簡で、カタリーナ・バーレー司法大臣は、ユーザーのプライバシーに関してFacebookが最近とった対策について、“データディーラー”との協業を制限するのは“いいスタート”と評するなど歓迎の意を表明した。

しかし、バーレー司法大臣はFacebookにさらなる対応を求めている。データと利用者の保護という観点で一連の“必要不可欠な措置”をとるべき、というものだ。

大臣はまた、ドイツそして欧州におけるデータと消費者保護という点で、今回のCambridge Analyticaスキャンダルに伴いFacebookは長期の批判にさらされることになるとしている。加えて、Facebookの情報の扱いについてさまざまな告訴がなされたことも示唆している。

「遺憾ではあるが、Facebookはこれまで批判に対し十分に対応してこなかった」(Google Translateによる翻訳)。さらに「Facebookはデータ収集とデータの使用を拡大させ続けてきた。これは、プライバシー、そしてユーザーやサードパーティの自己決定を犠牲にしているものだ」と記している。

そして「必要なのは、Facebookが企業責任を果たし、抜本的に見直すことだ」と手紙を結んでいる。「(ザッカーバーグ氏は)インタビューや広告の中で、EUの新たな情報保護法はソーシャルネットワークにとって世界のスタンダードだ、と述べている。残念なことに、こうした考えをFacebookが履行しているかははなはだ疑問だ」と批判。さらに、EUの法律が適用されることがないよう、15億人にものぼる世界のユーザーのデータ操作ステータスを変更するとしたFacebookの決断についても懸念を示し、「だからこそ今後もFacebookが行うことを注視していく」と述べている。

Cambridge AnalyticaがFacebookの個人情報を使用していたという暴露が、Facebookにとって世界的なプライバシー問題へと発展して以来、同社はプラットフォーム上でのデータ保護を実行するためいくつかの見直しを明らかにした。

しかし、実際のところ、Facebookが発表したこの見直しのほとんどは、5月25日に施行されるEU一般データ保護規則(GDPR)への対応として少なくとも数カ月も前から準備が進められていたものだった。

にもかかわらず、Facebookの打ち出した策はプライバシー問題の専門家から手厳しく批判されている。GDPRに十分に対応しているものではなく、GDPRが適用されれば法的な問題とを引き起こす、とみている。

例えば、Facebookが先月発表した新たな同意の流れというのは、意図的な操作とみなされ、少なくとも新ルールの精神に反するものだと批判されている。

バーレー大臣はこうした批判を手紙の中で取り上げ、Facebookに下記の点を実行するよう、具体的に求めている。

・ユーザーにとっての透明性を高める

・ユーザーデータの取り扱いでの真のコントロール

・当然あるべきプライバシーと、Facebookのエコシステムへの同意についての厳密なコンプライアンス

・客観的、中立的、そして排他的でなく、ごまかしもないアルゴリズム

・設定や使用についてのユーザーの自由な選択

同意については、大臣はGDPR下では、Facebookはデータ使用ごとにユーザーの同意を得る必要があることを強調している。一括同意ですべての点で同意を得た、というふうにはできないというものだ。

これは、明らかにFacebookがいまやろうとしていることだ。例えば、欧州のユーザーに顔認証を選択するかどうかをたずねるとき、これによりユーザーの写真を外部の人が勝手に使用するのを防ぐことができるかもしれない、また、視覚障害を抱える人にとって助けとなるかもしれないと案内している。しかし、Facebookが必ず行う商業利用への同意の中には具体的な例は示されていない。

大臣はまた、GDPRではプライバシーをデフォルテ設定し、データの収集を最低限に抑えることが要求されると強調。GDPRに従うには、全てのデータ処理を見直す必要があるという主張だ。

“友達”からのデータ移送は、それぞれのケースで明白な同意の元行われるべきだ、とも述べている(2014年にデベロッパーがFacebookのプラットフォーム上でユーザー8700万人分のデータを収集してCambridge Analyticaに情報を流していたとき、同意は欠落していた)。

さらに、バーレー大臣ははっきりとFacebookに対し、シャドウプロファイルを作るべきではないと警告している。このシャドウプロファイル問題は先月、米議会がザッカーバーグ氏を呼んでただすなど、法的問題となっている。

Facebookは自社の開発者会議f8で、これまで同社が収集していたユーザーのブラウズ履歴を削除できるボタンを導入すると発表した。しかしこれは単に矛盾を強調するだけのものだ。Facebookによって追跡されている非ユーザーはこの削除ボタンを利用できないし、そもそも追跡などしないでくれとFacebookに言うこともできないからだ。

Facebookが、この非ユーザーのデータから発生した情報をどう扱っているのか明らかでもない。

確かに、このブラウズ履歴削除ボタンをクリックすることで、ユーザーは閲覧したサイトの履歴を消去することはできるだろう。しかしそれは、データから収集されたものを全て消去する、ということにはならない(おそらく見えないプロファイルに追加され、広告戦略目的に使用される)。

履歴削除のボタンは、FacebooknのPRにすぎない、と言ってもいいだろう。「ユーザーにしかるべき操作機能を提供している」と言えるようにする。これは、議員の追及をかわす戦略の一つなのだ(先月の米国議会でのやり取りは全く誠実さに欠けるもので、英国議会でもおおっぴらに批判された)。

TechCrunchでも、この履歴削除がどのように働くのか、なぜ導入するのかといった質問をFacebookに送っている。なぜなら、このボタンはデータ追跡を完全にブロックする機能を持っていないからだ。2日間にわたりこうした内容の電子メールを送っているが、Facebookからまだ一切返事はない。

主なWebサービスで使われているトラッキングピクセルやソーシャルプラグインを通じて集められた非ユーザーのデータの扱いをEUの規則に照らすと、Facebookはすでに苦境に陥っている。GDPRが施行されると、同意なくデータを利用するのは、そのアプローチを大幅に見直さない限り、明らかに大きな問題となる。

バーレー大臣は手紙の中で、政治的影響や意見操作を目的とする誤ったFacebookプラットフォームの使い方についても懸念を示している。そうした乱用や巧妙な操作の可能性を排除するため(例えばフェイクアカウントやソーシャルボットなど)、テクニカル面そして組織的面においてあらゆる方策をとる必要があると指摘する。その際は、客観的で中立的、そして排他的でないアルゴリズムを確保するよう述べている。

大臣はまた、独立したレビューを可能にするためにも対策をすべて開示するようFacebookに求めている。

Facebookは巨大だ。WhatsAppやInstagramといった人気のプラットフォームを傘下に抱え、効率的に収益を上げるエコシステムを急速に拡張してオフサイト追跡を展開している。バーレー大臣に言わせると、このエコシステムはドイツ、そして欧州のユーザーのプライバシーや自己決定権を犠牲にしているものとなる。

Facebookは大臣の手紙に対するコメントを複数から求められているが、この記事の執筆時点では応じていない。

[原文へ]

(翻訳:Mizoguchi)

NASAの火星着陸探査機、順調に飛行開始――InSightの火星到達は11月

NASAはAtlas Vロケットを予定どおりの時間に打ち上げた! 現在第2段ロケットの燃焼が11秒になったところだ。ブースターは正常に分離された。

リフトオフ! 人類の新しい火星ミッションは地球を出発した! @NASAInSightは火星に向かう6ヶ月の宇宙の旅に出た。 到着後、火星の活動を詳しく調べ、この岩だらけ惑星の成り立ちを理解する手助けとなるはず。
https://t.co/SA1B0Dglms pic.twitter.com/wBqFc47L5p

フェアリングは花びらのようにきれいに分離した。2段目、Centaurロケットはあと数分弾道飛行を続ける。発射ブログはこちら。https://t.co/50dnoQSHB8

アップデート: 打ち上げ後17分。ロケットは軌道に投入された。霧が出ていたものの、人類初となるアメリカ西海岸のバンデンバーグ空軍基地からの打ち上げはすべて順調に進行した〔これまでの火星探査機は東海岸のケープカナベラル基地からの打ち上げ〕。

メインエンジン停止(MECO)を確認。 @ULALaunch#AtlasVロケットは順調に @NASAInSightを火星に向けて推進している。 https://t.co/SA1B0Dglms #InSight pic.twitter.com/YjCuQ0dhRB

アップデート: 打ち上げの最終段階も無事に終了。火星の成り立ちを詳しく調べる科学的機器を満載したミニ宇宙船、Mars Cube One(MarCO)は2段目Centaurロケット頭部のディスペンサーから無事に切り離され火星に向かった。

探査機は自立飛行に入った。#AtlasVロケットからの分離を確認。これでいよいよ火星#Marsに向けての6ヶ月の旅が始まる。打ち上げブログはこちら。https://t.co/50dnoQSHB8 pic.twitter.com/aQjGnvUvAc

【略】

〔日本版〕InSight探査機のミッションと構造を詳しく紹介したTechCrunch記事はこちら

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Kubernetesのための機械学習ツールKubeflowが発表から4か月で最初のバージョンをリリース

Googleが作ったオープンソースのコンテナオーケストレーションツールKubernetesは、おそらく同社が想像しなかったほど華々しく成長した。そしてその人気が増すとともに、多くの関連プログラムが生まれてきた。今日(米国時間5/4)はGoogleが、オープンソースのツールKubeflowのバージョン0.1のリリースを発表した。これは、Kubernetesのコンテナに機械学習をさせるためのツールだ。

Googleはかなり前にKubernetesをCloud Native Computing Foundationへ移したが、積極的な関与は継続し、今回のKubeflowもそのひとつだ。このプロジェクトは昨年末オースチンで行われたKubeconで発表されたばかりだが、早くもかなりの勢いがついている。

GoogleでKubeflowを運用しているDavid Aronchickは、その前の2年半、Kubernetesのチームを率いた。その彼の言うKubeflowの基本的な考え方とは、データサイエンティストたちが、Kubernetesのクラスターの上で機械学習のジョブを動かせるアドバンテージを享受できることだ。Kubeflowを使って機械学習のチームは、既存のジョブを簡単にクラスターに付けられる。

今日の発表でプロジェクトは前進を開始し、その節目を報告するブログ記事は、安定性のアップと、コミュニティの要望に応じて実装した多くの新機能を強調している。新機能には、機械学習のジョブをコラボレーションと対話により訓練するJupyter Hubや、Tensorflowの訓練とホスティングなどが含まれる。

Aronchickが強調するのは、このプロジェクトがオープンソースなので、いろんなツールを使えるということ。最初のバージョンがGoogleの機械学習ツールばかりサポートしていても、 Tensorflowに縛られることはない。今後のバージョンでは、そのほかのツールのサポートも期待できる。

最初の発表からわずか4か月あまりでコミュニティは急速に成長し、70名を超えるコントリビューターと20社あまりのコントリビューター企業がいて、15のレポジトリーに700以上のコミットが行われた。次のバージョン0.2は、夏になる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

VR180カメラからYouTubeにライブストリーミングができるモバイルアプリが登場

来週に控えたGoogleの大規模な開発者会議であるGoogle I/Oを前にして、同社は自ら提唱したVR180フォーマットカメラ用の新しいモバイルアプリを発表した。このアプリを使えば、ユーザーはデバイスのセットアップや、クリップの閲覧と管理を行ったり、そして写真や動画コンテンツをGoogle PhotosやYouTubeにアップロードしたりすることができる。このこのアプリは、Daydreamを実行する初めてのスタンドアロン型バーチャルリアリティヘッドセットであるLenovo Mirage Soloと、Lenovo Mirage Cameraの発売に合わせて登場した。どちらのデバイスも本日(米国時間5月4日)から販売が始まっている。

1月のCESで、GoogleはMirageや、Horizonという名の中国のメーカーYiのカメラなどを含む新しいVR180カメラを発表していた。

Lenovoの3Dカメラの詳細はこちらから。

“VR180″という名前は、YouTubeとGoogleのDaydream VR部門の協力によって作成された、180度のパノラマビューを撮影する新しいVRフォーマットを指している。このフォーマットの特徴は、没入感のある写真や動画は撮影することはできるものの、それが360度全周には広がっていないということだ。

VR180カメラでキャプチャしたコンテンツには、3D写真やウルトラHD 4K解像度のビデオが含まれるが、これらは2Dと3Dの両方で表示および共有が可能だ。これをVRで表示するには、Google Cardboard、Daydream、あるいはPlayStation VRなどの、VRヘッドセットを使用することができる。

昨日、iOSAndroidの両者へ提供の始まった新しいVR180アプリは、Sensor Towerのデータによれば、VR180カメラをサポートすることを目的としたものだ。

App Storeの説明では、このアプリはモバイルデバイスからVR180カメラをセットアップして管理し、「ライブプレビュー」機能を使用して、カメラからの180度のVRコンテンツを取り込むことが可能だ。

ファイルは、携帯電話やクラウド(GoogleフォトやYouTubeなど)に転送することができる。VR180のウェブサイトの説明では、アプリとカメラを使ってYouTubeにライブストリーミングをすることも可能だ。

また、クリップを友人や家族と直接共有したり、不要なクリップを破棄することもできる。

さらに、バッテリーの充電状況、撮影状況、空き容量といった、カメラの状況に関する情報も表示される。

VRコンテンツを撮影できるシンプルな方法の提供(構えて撮影するだけのカメラ)は、より多くのひとがVRを試す機会を増やし、思い出を記録する新しい手段となる。たとえば、アプリストアのスクリーンショットでは、結婚式や赤ちゃんと一緒にいる母親の撮影のような、カメラの個人的な使用事例を宣伝している。

VRが没入型の思い出を再現してくれるという考えは、なにもGoogle独自のものではない。Facebookも今週、“VR Memories”と呼ばれるものを発表した。これは古い写真を取り込み、コンピュータービジョンを活用して、平面的な2D画像と動画を、VRの中で眺めることができるように空間に配置するものだ。

  1. vr180-app

  2. vr180-app-2

  3. vr180-app-3

  4. vr180-app-4

  5. vr180-app-5

 

[原文へ]
(翻訳:Sako)

GoogleがモバイルVRの計算負荷を減らすツールSeuratをオープンソース化

今日(米国時間5/4)はGoogleが2017年のI/Oで行った、VRに関する多くの約束を果たす日だ。さきほど同社は、モバイルの高忠実度なVRから計算の複雑さを減らし、パフォーマンスを大幅に向上するツール、Seuratをオープンソースにする、と発表した。

このローンチは、Mirage Soloのリリースと平行している。こちらは同社のVRプラットホームDaydreamの初めてのヘッドセットで、それはGoogleの位置追跡システムWorldSenseを使っている。このヘッドセットはスタンドアローンで、〔クラウドなどではなく〕モバイルのチップセットで動くから、ゲーム用PCに接続されるヘッドセットよりもリソースの制約が厳しい。

Seuratは、ポリゴン(多角形)の数を減らすことをねらったソフトウェアツールだ。Seuratが基本的にやるのは、VRのユーザーが、さまざまな動きの中で持つすべての視点から、実際には見れない/行けない領域を取り除くことだ〔前面に物がある、など〕。たとえばSeuratは、そこに恒久的にあるオブジェクトを取り除く。仮想現実の中で見えない部分は、実際に存在しないと見なしてもよい。だからそこは、ポリゴンの計算をしない。

上のBlade Runnerの例では、ひとつのシーンに4660万個の三角形があるが、Seuratはそれらを30万7000に減らした。高性能なハードウェアから描画能力に制約のあるモバイルのVRハードウェアへ移植するときは、このような省略能力がデベロッパーにとって助かる。

このツールのソースコードとドキュメンテーションは、GitHub上にある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

NASAのInSight火星着陸機は、赤い惑星を掘り下げる

NASAによる最新の火星行ミッションであるInSightは、土曜日の早朝に打ち上げられる予定だ。宇宙旅行や惑星学における史上初の探究が数多く行われる。着陸機の装置は惑星表面を探査し、前例のない精度で地震活動をモニターする。またロケットに同乗する1対の小型のCubeSats(小型衛星)は小型宇宙船の惑星間旅行の可能性をテストする。

太平洋時間で土曜日の朝4時5分(日本時間では土曜日の20時5分)が、最初の発射予定時間だが、もし天候が悪けれはその後に引き続き再トライが行われる。打ち上げウィンドウが閉じてしまう6月8日まで、ずっと雲に覆われ続けるという可能性はほとんどないだろう。

InSight(洞察という意味)は単にイカした名前だというだけではない、それはInterior Exploration using Seismic Investigations, Geodesy and Heat Transport(地震調査、測地学、熱伝達を用いた内部探査)という、少々無理もある頭文字を並べたものだ。その搭載された機器は私たちに火星の内部について教え、火星そして地球を含む太陽系内の岩の惑星についての、過去と現在に関する洞察(insight)を与えてくれるだろう。

NASAのジェット推進研究所に所属する、本ミッションの主任研究員であるBruce Banerdtは、20年以上にわたってこの任務を推進してきているが、これは彼のほぼ全職業人生に相当する。

「これは、夏の間にタイヤショップで働いたこと以外で、私がやったことのある、唯一の職業なのです」と彼はNASAによる最近のポッドキャストで語っている。もちろん彼は、他の多くのミッションにも取り組んでいるが、このミッションに対する彼の献身は明らかに実を結んだ。実際には、当初は2016年に打ち上げの予定だったが、機器のトラブルのために彼らは次の打ち上げウィンドウを待つ羽目になった ―― それが今なのだ。

InSightはPhoenixスタイルの着陸機で、その大きさは小さな車ほどであるが、火星に向けて高速弾よりも速く発射する。打ち上げそのものも初の試みだ、NASAはこれまで惑星間ミッションを西海岸から打ち上げたことはない、しかし今回の条件を考えたときには、カリフォルニア州のヴァンデンベルク空軍基地が最良の選択肢だったのだ。それは行き先を決めるために重力の支援を行う必要もない。

ご存知ですか?私は米国の西海岸から別の惑星に飛び立つ最初の宇宙船になります。私の備えるロケットはそれが可能です。パワーは充分なのです
打上の詳細:https://t.co/DZ8GsDTfGc pic.twitter.com/VOWiMPek5x

「フロリダ州に行って、軌道に乗せるために地球の回転を利用しなくとも、私たちは素直に推進力を得ることができるのです」とBanerdtは同じポッドキャストの中で述べている。「そして南カリフォルニアでは、おそらく1000万人の人たちに見えるような形で打ち上げることができるでしょう、なにしろこのロケットはロスアンゼルスとサンディエゴのそばを飛行するのです。そしてもし朝4時に起きる気のある人は、本当に素晴らしい光のショーをその日見ることになるでしょう」。

ロケット下段のThe Atlas Vが着陸機を軌道に載せ、上段のCentaurが火星に向けて着陸機を押し出す役割を果たす。そののち6ヶ月の巡航を経て、地球カレンダーの11月26日に火星に着陸する予定だ。

その着陸は、Phoenixやその他の多くの着陸機同様に、エキサイティングな(かつ恐ろしい)ものになるだろう。火星の大気に突入する時点で、InSightの速度は時速2万1000キロ以上になっているだろう。まずそれは大気そのものによって減速し、新しい強化熱シールドとの摩擦によってその速度の90%が失われる。残りの速度のさらに90%がパラシュートによって減速される。しかしそれでもまだ時速160キロ以上の速度が残っている。もちろんこのままでは着陸はうまくいかない。そこで、地上数千フィートの場所でそれは着陸ジェットに移行する。それによって着陸機は狙った場所と方向に、安全な時速8.7キロほどで着陸することになる。

粉塵が(文字通り)落ち着いて着陸機がすべてが正常に動作していることを確認した後、着陸機は扇状の太陽電池(Solar array)を展開して作業を開始する。

ロボットアームと 自分を叩くロボットモグラ

InSightのミッションは、これまで以上の詳細さと深さで、火星の地質学に切り込むことだ。そのために、3つの主要な実験に向けて、機器が準備されている。

まずSEISは、小さな野球ドームのような外見の、地表に置かれる6台の地震センサーの集まりで、足元の地表の微かな振動に至るまでモニターを行う。微小な高周波振動や長周期振動も、すべて検知されることになる。

「地震学は、私たちが知っているほとんどすべてのものを得るために使った方法です、地球の内部についてのすべての基本的な情報を与えるもので、そしてアポロ時代には月の内部の性質を理解し測定するために用いられたのです」とBanerdtは言う。「そこで、やはり同じ技法を使いたいのですが、今回は火星の地震や、隕石の衝突によって引き起こされる振動を利用するのです。そのことで、核に至る深い火星の内部を探ります」。

熱流と物理特性プローブ(Heat Flow and Physical Properties probe)は興味深いものだ。それは、ミッションの継続中、惑星表面下の温度を継続的に測定する、だがそうするためにはもちろん、地面を掘り下げなければならない。その目的のために、チームが用意したのは「自分を叩く機械モグラ」だ。わかり易い名前だと思うよね?

この「モグラ」は太さ1インチ(2.54センチ)長さ16インチ(40.6センチ)ほどの中空の釘状のもので、内部のバネ仕掛けのタングステンブロックを使って自力で岩の中に入っていく。惑星表面における日々の、そして季節的な温度変動を避けるためには、5000回から2万回の撃ち込みを行って深い場所にたどり着く必要がある。

そして最後のものは、巨大な釘、小さな野球ドームなどを必要としないRotation and Interior Structure Experiment(自転と内部構造実験)だ。この実験には、地球との無線接続を使用して、火星が自転するに伴い、InSightの位置を極めて正確に追跡することも含まれている。とても信じられないことだろうが、その誤差はわずか10センチ以内である、その位置の変動は、惑星の自転のゆらぎを意味しており、その結果内部の構造を知ることができる。70年代と90年代に行われた同様の実験のデータと合わせることで、惑星学者たちは核がどのように溶融しているかを知ることができるのだ。

「いくつかの点で、InSightは45億年前に火星が形成された初期段階の情報を取り戻す、科学的なタイムマシンのようなものです」とBanerdtは以前のニュースリリースで述べている。「それは、地球、月、そして他の太陽系の惑星を含めて、岩石の塊がどのように形成されるのかを知るのに役立ちます」。

またInSightに備えられたロボットアームは、単に岩石を掴み上げて観察するだけでなく、その格納庫からものを取り出して作業場所に置く役割も果たす。そのアームの先の小さな指は、設置する各機器の上にあるハンドルを、人間のように掴むことができる。まあ、正確には多少やり方は違うかもしれないが、原則は同じだ。約244センチの長さであり、平均的な宇宙飛行士よりも遠い場所に手が届く。

ロケットに乗ったキューブ

MarCO CubeSatの1つ

InSightは間違いなく主要なペイロードだが、荷物はそれだけではない。同じロケットで打ち上げられるのは、Mars Cube OneまたはMarCOと呼ばれる2機のCubeSatである。それらは自ら動きを調整して軌道に乗るような制御手段を持たないので、ただInSightが着陸する際に火星の横で打ち出されるだけだ。

CubeSatのようなものはいつでも打ち上げられているじゃないか?もちろん ―― ただし地球軌道の上に。これはCubeSatを別の惑星に送り出す最初の試みである。成功した場合には、何ができるかに制限はない ―― ただしパンケースより大きなものを詰める必要はないと仮定しての話だが。

今回は特に超重要な実験は想定されていない。1つが故障することに備えて2つ用意されていて、どちらもデータを送受信するUHFアンテナと、何台かの可視光低解像度カメラを搭載しているだけだ。実際ここで行われる実験が対象にしているのは、CubeSat自身と、その打ち出し技術である。彼らが火星の軌道に乗れば、InSightの信号を地球に送る手助けをしてくれるかもしれない。もし彼らがそれ以上の働きを見せてくれたとしたら、それはあくまでもボーナスというものだ。

InSightの打ち上げはここから追うことができる。また昔からある擬人化されたTwitterアカウントもある。

[原文へ]
(翻訳:sako)

人が着るソフトロボット(パワードスーツ)は工場労働者や四肢麻痺患者を助ける

〔↑原文にはビデオがあります。〕

1/4世紀の間稼働を続けたカリフォルニア州リッチモンドの50万平方フィート(46451.52平方メートル)の、Ford Motor Companyの組立工場は、1950年代の中ごろ、自動車の生産をやめた。今そのスペースには、Mountain Hardwearや、ソーラーパネルのメーカーSunPowerなどさまざまな企業が入っているが、しかしこの場所にいちばんふさわしいテナントといえば、Ekso Bionicsだろう。

2005年に、UC Berkeley(カリフォルニア大学バークリー校)のRobotics and Human Engineering Laboratoryからスピンオフした同社は、工場労働者の退屈で面倒な反復作業を助けるための、軟質外骨格(soft exoskeletons, 別名: “パワードスーツ”)を作っている。

昨年晩(おそ)く同社は、同社にお似合いのパートナーFordと協力して、そのウェアラブルロボット(着用型ロボットスーツ)をミシガン工場の労働者に提供した。それは、全米自動車労働組合が資金を出すパイロット事業で、ゆくゆくはそのEksoVestウェアラブルロボットの工場におけるデプロイを、全世界に広めたい、としている。しかし多くのロボット企業がそうであるように、同社も最初は国防総省の資金に依存した。

EksoのCFO Max Scheder-Bieschinはこう語る: “最初は、戦場で重い装備を運ぶ兵士を助けることが目的だった。ファウンダーたちの兄弟の一人が、海軍特殊部隊Navy Sealだった。彼は重傷を負い、四肢麻痺になった。そこで会社の目的は、“弟の国への奉仕を助ける機器を作る”から、“弟やそのほかの四肢麻痺患者が再び立ち上がって歩けるためのもの”を、同じ技術で作る、に変わった。

同社のEkso Health部門は、リハビリテーション専門だ。Eksoのスーツは、脳梗塞などで動きが不自由になった患者に、軽くて着用型の介助を提供する。

しかしScheder-Bieschinによると、同社は、近未来にはその技術が生活の一部として至るところで利用される、と予想している。“10年後には、外骨格デバイスは今のスマートフォンと同じぐらい、当たり前のものになるだろう。Eksoが他社と違うのは、人間をロボットで包むやり方をよく知っていることだ。どこの誰よりもね”、と彼は語る。

5月11日にはUC Berkeleyのキャンパスで、本誌のロボティクスセッションTC Sessions: Roboticsがある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Waymoのバンがアリゾナで大きな衝突事故に遭う、違反車ではなかったが

Waymo(元Googleの自動運転部門)の自動運転車が今日(米国時間5/4)の午後、アリゾナ州チャンドラーで大きな事故に遭った。地元警察によると、セダンが別の衝突を避けようとして正規のレーンを逸れたときにWaymoのバンにぶつかった、損害は軽微、とABC 15が報じている。今、チャンドラーの警察に詳細を問い合わせている。

アリゾナでセーフティドライバーのいない車をテストしている、とWaymoは言っていたが、これは違う。衝突のとき人間運転者が運転席にいたが、しかし車は自動運転モードだった、と警察は言っている。

上空からのビデオを見ると、これは軽い接触事故ではない。セダンの前方クランプルゾーン(衝撃吸収帯)は壊れ、ガラスは割れている。バンに大きな破損はないが、右前のタイヤはつぶれている。どちらもその後、牽引移動された。

報道では、東に向かっていたセダンが交差点で別の車を避けようとして西行きのレーンに侵入し、Waymoのバンに当たった。そのとき後者が衝突を避けようとして何をしたかは、まだ分かっていないが、同社の記録から明らかになるはずだ。今同社に問い合わせているので、情報が得られ次第この記事をアップデートしたい。

画像クレジット: ABC 15

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

CERN、機械学習コンテストを開催――誰でもLHCの実験データのAIモデルづくりに挑戦できる

欧州原子核研究機構のLHC〔大型ハドロン衝突型加速器〕から得られるデータは驚くべき量だ。科学者は実験から新たな知識を得るためにこのデータを処理しなければならない。しかもLHCの最近のアップグレードによりデータ量はさらに一桁以上増加する見込みだ。このデータの奔流に対し、CERNでは機械学習を利用してデータを処理し、AIモデルによって素粒子物理学の次のブレークスルーを得る助けとしようとしている。

全周27キロの眞空トンネル内に設けられた巨大な検出器が光速近くまで加速された高エネルギー陽子の衝突によって生じる素粒子のシャワーをとらえる。センサーはきわめて寿命が短い多種多様な素粒子を検出しなければならない。2013年から2年がかりで行われた改良工事により、陽子をガイドする磁場がさらに強化された。新システムの調整が進めば、従来10回程度の衝突が期待されたところで数百回もの衝突が可能になるという。

物理学者にとっては朗報だ。しかしもっとひんぱんに衝突が起きるということはそれだけデータ量も増えることを意味する。LHCの場合、データ10倍以上になる。科学者はNatureの記事で「これまでのプロセスでは処理スピードが遅すぎ、データの分類整理が間に合わなくなるおそれが出ていた」と語っている。現代のデータサイエンティストは巨大でノイズの多いデータを処理する場合AIテクノロジーを用いる。CERNの科学者もこの方法を選んだ。

お断りしておくが、私は科学的に厳密な説明をしていない。しかし簡単にいえば、機械学習は人間が巨大なデータからなんであれ意味ある連関を見出そうするプロセスのコンピューター化だ。製薬でも天文学でも人間の心理の操作(Facebookがそれらしい)でも、乱雑なデータを前にして「籾殻と種を選り分ける」必要があるときにきわめて有効な手段を提供している。素粒子物理学も新たな応用の例だ。

新分野を立ち上げる際には健全な競争が役に立つ。そこでCERNはTrackMLといういささか地味なコンテストを開催している。物理学者やデータサイエンティストはギガバイト規模のLHCの実験データをダウンロードし、正しく分類するモデルづくりを行うことができる。われわれも報じたように、CERNでは300TBの実験データを公開しているが、コンテストではもっと手頃なサイズのデータセットが用いられる。

賞金総額もささやかなもので、2万5000ドルに過ぎない。CERNの資金は新たな超電磁石の開発で使い果たされてしまったのかもしれない。

ただしコンテンストには参加料といったものはない。興味があるむきはKaggleのTrackMLコンテストのページを開いてデータをダウンロードすることができる。結果の提出までには十分時間がある。締切は8月13日だ。提出された成果はすべてオープンソースとなるので、CERNがアルゴリズムをぱくって一儲けを企むのではないかなどと心配する必要はない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Alexaのスキルにスキル内購入を書ける、デベロッパーに収入の道ひらける

【抄訳】
Amazonが今日(米国時間5/3)、Alexaのスキルを作っているデベロッパーが、そのスキルの中にスキル内購入を実装できるようにした。またそのために、スキルのためのAmazon Pay、Amazon Pay for Skillsを立ち上げた。これからはデベロッパーが、AmazonのEchoスピーカーのようなAlexa対応デバイスの音声アプリケーションから、収入を得ることができる。たとえばそれがゲームなら新しい武器を売ることができるし、無料の音声アプリの中に有料コンテンツのお買い上げお誘いを置くことができる。

この機能は2017年11月に発表されたが、これまではJeopardy!など、一部のアプリやゲームのデベロッパーだけが利用できていた。

音声アプリケーション(Amazon語で“スキル”)にスキル内購入が加わったら、お客はそこで売られているものを購入し、音声で支払うことができる。金額などの決済情報は、すでにそのユーザーのAmazonアカウントに結びついている。

有料にするコンテンツやその価格はデベロッパーが決められるが、購入の実際の処理はAmazonが扱う。またセルフサービスツールを使ってデベロッパーはスキル内購入を管理し、その売り方を最適化できる。ただしAmazonは、Prime会員向けには何らかの特典(値引き、特別コンテンツなど)を提供するよう、デベロッパーに要請している。なお売上に対するAmazonとデベロッパーの取り分は、30:70である。

【中略】

デベロッパーが売上を得る方法は、スキル内購入だけではない。

たとえばブランドやお店などは、イベントのチケットや花の配達など、さまざまな商品やサービスを、Amazon Pay for Alexa Skillsを利用して売ることができる。Amazon Payは既存のCRMと注文管理機能を統合しているので、お店は物やサービスを売るプロセスの中で販売管理ができる。その機能も、今日から一般公開される。

また、スキル内で何かを売るのではなく、人気の高いデベロッパーへの直接の報酬提供方式としてDeveloper Rewards(デベロッパー報酬)というプログラムもある。これは、スキルのデベロッパーのエコシステムを育てることが目的だ。

スキルのエコシステムと言えば、今日の発表ではAlexaのスキルの総数は40000、12月の25000から大きく増えている。

しかしこのエコシステムはロングテールがとても長くて、ユーザーのいない、またはほとんどいないスキルも多い。音声アプリの開発を体験してみるためにだけ作った、というものもある。音声デバイスの使われ方に関する調査によると、音声アシスタントでいちばん多く使われているのは、ニュースと情報、スマートホームのコントロール、タイマーのセット、リマインダーなどだ。多くは、音声アプリでなくてもよいものだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

DatadogのコンテナマップはKubernetesアプリケーションの内部〜各コンテナの可視性を提供

コンテナへ移行する企業が増えている中で、個々のコンテナと、それがアプリケーションに与えているインパクトをモニタすることが、課題になっている。それがとくに難しいのは、コンテナがきわめて短時間だけ存在する短命な実体だからだ。モニタリングとアナリティクスの専門企業Datadogは今日(米国時間5/3)、この問題を解決するための視覚化ツール、コンテナマップを発表した。

Datadogのプロマネ担当VP Ilan Rabinovitchはこう語る: “コンテナマップはユーザーのシステムにあるすべてのコンテナを見せる。顧客はすべてのコンテナを、どんなときでも見られて、それらをタグに基づいてグループ化し、その中で起きていることを詳しく知ることができる”。

同社はタグとメタデータを利用してコンテナの各部とそれらのお互いの関係、そしてそれらを支えるインフラストラクチャを識別する。そのツールはコンテナを、Datadogのそのほかのエンティティとまったく同じようにモニタする。

同社のブログ記事は、こう書いている:

“ホストマップが個々のインスタンスに対してするように、コンテナマップはメタデータを使ってコンテナを容易にグループ化し、フィルタし、点検できる。メタデータは、サービス、可利用性ゾーン、ロール、パーティション、そのほかのユーザーが望む特質など、何でもよい”。

問題が見つかったとき、Datadog自身が顧客企業のシステムにライト(write)アクセスして問題を修復することはしないが、その企業はWebhookや、あるいはAmazon Lambdaのファンクションのようなサーバーレスのトリガを使って、何らかのアクションを呼び出すことができる。

  1. container-inspect

  2. container-list

  3. dashboard

同社は、すべてのコンテナが正常に動作していることを監視するサードパーティにすぎない。“コンテナに対してやるべきことは、もっぱらKubernetesを信用している。でも異状が起きたら、何が起きたのかを知らなければならないが、それはKubernetesにできることではない”、とRabinovitchは語る。この新しいマップの機能は、コンテナシステムの内部に対する、その欠けていた可視性を提供し、ユーザーは個々のコンテナの内部を詳細に調べて、問題の原因を特定できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa