AIアシスタント「Pyrenee Drive」で交通事故撲滅を目指すPyreneeが2億円を調達

AIアシスタント「Pyrenee Drive」で交通事故撲滅を目指すPyreneeが2億円を調達

自動車の運転をより安全で快適にする車載機器「Pyrenee Drive」(ピレニードライブ)の開発を続けているPyrenee(ピレニー)は5月25日、総額2億円の資金調達を発表した。引受先は、フューチャーベンチャーキャピタル、菊池製作所、井伸之氏(クオンタムリープ代表取締役会長)、複数のベンチャーキャピタル、事業会社、個人投資家。

Pyrenee Driveは、交通事故の最大原因とされるドライバーのヒューマンエラーを回避するための装置。搭載されたAIが、道路状況の確認と危険予知を行い、事故の可能性を感知すると、音声と画面表示で即座にドライバーに警告する。オンライン型ドライブレコーダーも搭載するほか、後付け機器なのでどんな車にも装着できる。ナビゲーションなどの機能も、オンラインアップデートで追加してゆくとのこと。発売は2022年中を目指している。

AIアシスタント「Pyrenee Drive」で交通事故撲滅を目指すPyreneeが2億円を調達

開発中のPyrenee Driveと画面イメージ

今回調達した資金は、Pyrenee DriveのAIを活用した事故回避機能の強化と、発売に向けたハードウェアの量産設計に使われる予定。今後も調達を続けてゆくという。

Pyreneeは、人間の相棒となる製品を開発、販売するメーカーとして2016年創業。Pyrenee Driveは第1弾製品にあたり、2022年中の発売を目指して開発している。

関連記事
貨物船にコンピュータービジョンを後付けして衝突事故を防ぐOrca AIがシリーズAで約14億円調達
フィックスターズ独自開発の視差計算ソフトがOpenCVに正式実装、自動運転などへの活用に期待

カテゴリー:モビリティ
タグ:AI / 人工知能(用語)コンピュータービジョン(用語)資金調達(用語)Pyrenee(企業)日本(国・地域)

ヘルメットを着用しよう!電動スクーターによるケガがこの4年間で3倍に急増

これから電動スクーターを使う?それならヘルメットの着用を!医学雑誌のJAMA Surgery(ジャマ・サージェリー)に掲載された最新の調査結果によると、安全帽をかぶらない、あるいはその他の予防対策を怠ったために病院に運ばれる若者の数が増えているという。骨折や頭部外傷など怪我が4万件を超える。

残念なことに、この調査でヘルメットを着用している人は5%に満たず、頭部に外傷を負った患者の3分の1近くに上っている。自転車で頭部を怪我する割合の2倍以上だ。

この怪我の増加は、都市部の若者の間で人気が高まっている電動スクーターの増加によるものと考えられる。2014年から2018年までの間に、電動スクーターで怪我をした人の数は、18歳から34歳までの全体で222%増え、病院に運ばれたスクーター運転車の数は365%増えている。特に2019年は劇的に増加した。スクーターで怪我をしたこれらの人の3分の2近くが若者で、そのほとんどが頭部保護具を使用していなかった。

「頭部外傷の患者の率が非常に高く、とても危険な状況です」と話すのは、カリフォルニア大学サンフランシスコ校の提携病院ザッカーバーグ・サンフランシスコ総合病院および外傷センターで泌尿器科部長と泌尿器科教授を務めるBenjamin Breyer(ベンジャミン・ブレイヤー)博士だ。「2017年から2018年にかけて、電動スクーターによる外傷はほぼ2倍に増えていることが、運転車の安全対策や規制強化の必要性を示しています」。

昨年の初めに施行された改正法のおかげで、現在のところは、カリフォルニアで電動スクーターに乗る場合に頭部保護具の着用を求められることはなさそうだ。そのため、カリフォルニアでは18歳以上ならヘルメットをかぶらずスクーターに乗るのは合法的で自由だ。電動スクーターにヘルメットなしで乗れる州はほかにもいくつかある。

こうした新事実を受け止めて法律を見直すべきだろうが、当面は、電動スクーターのメーカー自身が安全対策に貢献できる。私たちはいくつものメーカーに問い合わせたが、返事をもらえたのはごくわずかだった。Lime(ライム)はTechCrunchに対して、ユーザーにヘルメットをかぶるよう奨励し、安全に心がけていると話していた。同社ではヘルメット代金の割り引きを提供し、キャンペーンの一環として2万5000個のヘルメットを無償で配布している。Bird(バード)とほかの数社も、それぞれのサイトでヘルメットの着用を奨励し、一部の企業は別の地域でヘルメットのレンタルを行っている。

だが、電動スクーターの良いところは、その手軽さにある。何も持ち歩かずに済むところだ。アプリをクリックしてスクーターに飛び乗るだけでいい。あまりにも簡単なので、事前の心構えやヘルメットの準備を忘れてしまいがちになる。

では、どうすればいいのか?この点においては乗る人自身の責任ということになる。乗るのは自由だ。しかし、不便ではあっても、ヘルメットをかぶって乗ることで重大な事故が防げる。

「ヘルメットの装着と頭部外傷のリスク低減との相関関係は証明されています」と、カリフォルニア大学サンフランシスコ校薬学部の医学生で、調査結果の筆頭著者Nikan K. Namiri(ニカン・K・ナミリ)氏は言う。「ヘルメットはかぶるべきだと、私たちは強く信じています。電動スクーターのメーカーは、気軽に使えるヘルメットを用意して装着を奨励すべきです」。

画像クレジット:ROBYN BECK/AFP/Getty Images / Getty Images

[原文へ]

(翻訳:金井哲夫)

あなたの自律走行車はスポーティーなサリーか?血に飢えたクリスティーンか?

馬車が走る道に初めて自動車が登場したとき、馬はその技術の最初の犠牲者となった。ゆっくり走る自動車に襲われたわけではなく、驚いて逃げてしまったわけでもない。むしろ馬は、怪我に悩まされた。また、怯えた馬が通り道にあるものすべてを踏み荒らし、物や歩行者に損害や傷害を与えることもあった。

自動車がもっと速く走れるようになり台数も増えると、歩行者が走る自動車の直接の犠牲者になった。間もなく、交通規則、および製造物責任法と不法行為責任法が作られ、大虐殺を避けるための秩序がもたらされた。それでも、いまだに注意散漫で運転技術が未熟なドライバーは増加する一方であり、彼らが混雑した高速道路を、現実版のまったく笑えない「フロッガー」の舞台に変えている。

自律走行車に乗れば、ドライブのあらゆる恩恵がドライブせずに得られるようになる。自動運転を支持する人たちは、自律走行技術によって自動車はより安全になり、2050年までに事故発生頻度を90パーセント以上削減できると信じている。自動車事故の90パーセント以上が、ドライバーの運転ミスによるものだからだ。

たしかに、飲酒運転や不注意、その他のドライバーの行動に起因する死傷事故のニュースは後を絶たない。自律走行車なら、友だちにメッセージを送ったり、『ブラック・ミラー』を一気見したりしていてもオーケーだ。でも、本当にそうだろうか?それは、目の前に立っている歩行者は実際にはそこにいないと自律走行車が誤認しない限りにおいてのことだ。または、ゴミ収集トラックが引きずっているゴミを車線のラインと見間違えて、車ごとコンクリートブロックに突っ込まない限りにおいてだ。

他社に先んじて、完全な自動運転の実現を目の前にしている企業もあるが、運転環境での極限状況は改善されないままだ。つい最近も、アリゾナの暗い国道を自転車を押して渡ろうとしていた女性が自律走行車に跳ねられるという悲惨な事故があったばかりだ。車にはドライバーが乗っていて、事故にならないよう対処できたはずなのに、それをしなかった。積極的に奨励しないまでも、ドライバーが運転を手放せるようにすることが自律運転技術の本来の意義であるため、その車に乗っていた人の不注意を責めることはできない。

ほとんど必要とされないためドライバーが運転できなくなってしまうから「自律走行車のパラドックス」は危険だ。少なくとも当面の間、自律走行システムの信頼度が人間のドライバーとほぼ同じ98パーセントの安全率を上回るようになるまでは、緊急時や予想外の状況での人間のドライバーの補完を必要とするだろう。

この移行時期の間、そしてこの時期を過ぎてからも、事故の際に何が起きるのか、また誰がその責任を取るのか?自律運転技術が現れる前は、自動車事故は、ドライバーの過失とメーカーの製造者責任という2つ法理論のうちのいずれかが適用された。過失の法理論は、ドライバーの行動に責任を負わせ、ドライバーから、一般的には保険会社からだが、ハンドルを握っていた本人の行動に対する金銭的賠償を引き出そうとするものだ。製造者責任の法理論はその反対で、怪我の原因になったエアーバッグやイグニションスイッチやタイヤや、さらには自動車そのものなど、欠陥のある製品を製造し販売した企業に向けられるものだ。自律走行車の事故に現在の法理論を適用しようとすれば、数多くの問題が発生する。

人工知能(AI)、あるいは自動車を自律走行させるものなら何でも構わないのだが、それがカーブの路面が滑りやすくなっていることを検知または、それに応じて運転を補正できなかったとする。前を走る車から漏れた不凍液が路面を濡らしたようで、ハンドルを握る人間には認知できたものの、AIシステムにはほとんど見えなかった。もし、自律走行車に手動運転が優先される機能があり、それで事故が起きたなら、衝突を防ぐ操作をしなかったドライバーの責任が問われるのか?道路状況を検知したり、それに対処しなかった自動車のメーカーが責任を問われるのか?両方だとしたら、責任の割合はどうすべきか?

もし、通常の自動車だった場合、ドライバーに対する訴訟は、その人の行動が適切な注意義務基準に達していなかったことを証明できるかどうかにかかってくる。ハンドルから手を放していたなら、通常の自動車では過失行動とされることが多い。スマートフォンでメッセージを送っていて注意散漫になっていた場合もおそらく同じだ。しかし、自律走行車の自動運転機能は、本来の性質上、ドライバーが運転に注意を払わなくても、また運転に関わる必要性をなくすためのものだ。となれば、上記のような状況で、私たちは運転を引き継がなかったドライバーの責任を追及できるのだろうか?

従来型の自動車のメーカーも、法的責任はシステムや部品に欠陥がなかったかにかかってくる。状態のいい従来型の自動車で、サスペンションにもブレーキにもハンドルにも欠陥がなければ、上記のシナリオでも、メーカーが責任を問われることはまずないだろう。一方、人間の運転が優先される自律走行車のメーカーは、少なくとも責任の一部をドライバーに負わせようと試みる知れないが、そんなことを社会が許すだろうか?許すべきだろうか?ドライバーは、合理的な範囲で自律走行者に依存していたと主張するだろう。しかし、ドライバーの目には危険が目に見えていて、事故を防ぐための介入ができにも関わらず、メーカーが責任を負うべきなのだろうか?

その車が完全に自動化されていて、人間の介入が不可能であった場合は、結果は違ってくる。しかし、そんな車が現れるのは何年も先のことだ。

そうした自律走行者が市場に登場したとき、予期せず遭遇した滑りやすい路面を検知またはそれに対する補正に失敗したときは「欠陥車」とされるのか?または「欠陥車」と見なすべきなのか?もしそうなら、単に故障が発生したから欠陥車とされるのか、それとも、AIソフトウエアにエラーがあることを誰かが証明して見せなければならないのか?AIアルゴリズムは自身で進化することができ、膨大な距離と時間を費やして得たトレーニングデータに依存していることを考えると、どうしたらソフトウエアの中の「欠陥」を証明できるのだろうか?事故を起こした時点のアルゴリズムがオリジナルから大きくかけ離れていた場合、そしてその変化がAIアルゴリズムが自分で「教育」した結果であった場合、そのプログラマーやソフトウエアの提供業者に責任を負わせることが公正なのだろうか?

もうひとつの問題は「集団意識」だ。AIが学習する方法のひとつに、接続された他の複数のAIの集団的な体験を利用するものがある。これは、一時期Teslaが使用していた方法だ。もし、他のAIの誤ったデータがアップロードされ、それが事故に大きく関わっていたとしたら、どうだろう?

こうした問題の観点からすると、そして技術がますます人間の関与を減らす方向で発達すれば製造者責任の法理論を強化するよう法律も変化することになるだろう。おそらく、製造者責任は過失よりも厳しくなる。将来の自律走行車の価格が、研究開発と部品のコストだけでなく、事故のコストをカバーする「保険」を含めて決められるようになるとしても、突飛な話ではない。こうした進化は、人間のドライバーの役割が減るのに合わせて起こっていくだろう。しかし、自動車メーカーのAIシステムの学習プロセスを完全にコントロールする能力や、ましてや運転環境が同時に進化することはないだろう。

少なくとも、ある程度の人間の介在を必要とする移行期においては、責任に関する自動車メーカーの意見は分かれる。ボルボなどの一部のメーカーは、自動運転モードの最中に発生した事故に関しては全責任を負うと宣言している。しかし、テスラを始めとする他のメーカーは、ドライバーが若干の関与を要求される状況で発生した事故においては、たとえ自動運転モードであっても、ドライバーに責任を負わせようとしている。

例えば、かつてテスラでは、自律走行モードで他の車を追い越す機能を有効にするには、方向指示器を点灯させなければならなかった(テスラの新型車ではこの操作が不要になった)。ドライバーにこの操作を行わせる仕組みは、一見、大したことではないように感じられるが、そこには自動車メーカーが法的責任をドライバーに転嫁する意図がある。簡単な操作だが、車に追い越しを指示するだけでなく、その追い越しは安全に行えるという自らの判断によるものであり、その結果の如何に関わらず責任を負う、または負わなければいけないと、ドライバーに示唆するものでもある。

その基礎となる技術は、責任の所在を追求しようとすれば、さらなる複雑性を突きつけてくる。これまで暗に示してきたように、「機械学習」として特徴付けられるAIの側面は、無数の多様な入力データをもとに開発されていて、その振る舞いは多かれ少なかれ「ブラックボックス」化されている。厳格な数学的アルゴリズムと思われるため、本当に理解することは難しい。

言い換えるなら、私たちには、機械がどのように判断をしてその行動をとったのかを正確に知る手立てがないのかも知れないということだ。その場合、AIボックスが間違ったトレーニングを受けた、または現実の運転ではなくシミュレーター上で「訓練」されていたとしたら、AIボックスが極限的状況での対処を誤って事故につながった責任は、シミュレーターの開発者に負わされることにならないか?

AIのプログラミングやトレーニングの倫理の問題はどうだろう。最近の研究で、歩行者が有色人種だった場合、現在のAIシステムが彼らを認識できる能力は20パーセント低下することがわかった。これは、AIのトレーニングが多様性を踏まえていなかったためだ。他に説明があるだろうか?MITによる最近の調査では、衝突が避けられない極限状況において人の命を犠牲にするかどうかではなく、どの人の命を犠牲にするかの選択を迫られたとき、人は救うべき命をその上下関係で決めていることがわかった。この調査に参加した人たちは、動物よりも人の命を優先させるべきだと話している。少数の命よりも、大勢の命を救うべきであり、老人を犠牲にして若者を救うべきだと考えている。

興味深いことに、ベビーカーを押して交通法規を守って歩いている人を尊重するべきだとも考えられている。結論として、こうした倫理感に基づいて自律走行車がプログラムされた場合、交通の激しい道路をひとりで乱横断している人は自律走行者に跳ねられる確率が格段に高くなるということだ。この調査の道徳的序列では、猫、犬、犯罪者が保護対象としての最下層に位置する。だが、その人が犯罪者かそうでないかを車が判断できるのだろうか?刑務所の情報をリアルタイムで入手するのか?また、動物愛護活動家のハッカーが車のプログラムを、人より動物を尊重するように書き換えてしまったらどうなるのだろう?

MITのこの調査が信頼できるとすれば、こうした序列の意識や変動性が現に存在していることになる。それは、人間の潜在意識にしまい込まれているだけだ。機械の中ではない。次に道路を渡るとき、このことを考えてみてほしい。

【編集部注】
著者のLucas Dahlinは、Goodwin知的財産グループのアソシエート。複雑な知的財産問題を専門に取り扱い、特許と企業秘密に関する訴訟に豊富な経験を持つ。

Julius Jeffersonは、Goodwin知的財産訴訟グループのアソシエート。Goodwinに加わる以前は、デラウェア地区とテキサス西地区で判事の書記を務めていた。ロースクールに入学する以前は、Wyeth Pharmaceuticals(現Pfizer)の研究フェローとしてアルツハイマー病の治療法を研究していた。

Darryl M. Wooは、Goodwin知的財産訴訟グループの共同経営者。以前は法廷弁護士として特許訴訟やその他の複雑な技術関係の訴訟を専門に扱っていた。

[原文へ]
(翻訳:金井哲夫)

英国警察、空港ドローン事件の容疑者を解放。ドローンが存在しなかった可能性を認める

謎のドローンが英国第二の空港でフライトを妨害し14万人のクリスマス旅行計画を大混乱させた事件から一週間足らず、警察は実際にはドローンなどいなかった可能性があることを認めた。

一日間の閉鎖のあとガトウィック空港は再開したが、捜査員らは実際何が起きたのかを解明するにはほど遠いままだ。

The Guardianによると、警察は拘束していた容疑者カップルを解放し容疑を晴らしたが、上級広報官は、「そもそもドローンの飛行活動はなかった可能性がある」と語った。

警察は目撃者——正確には67名——に頼っている状態で、証言を組み合わせて何が起きたかを探っている。先週BBCは、水曜日遅くに2台のドローンが「境界のフェンスを越えて滑走路付近」に侵入するところを通行人が目撃し、木曜日午前に3台目も発見されたと報じた。滑走路は水曜日の晩から木曜日の午前まで約6時間にわたって閉鎖され、3台目のドローンが目撃されたとされたあと、完全閉鎖された。

日曜日の晩、警察は容疑者のエレイン・カーク氏とポール・ゲイト氏を事件に無関係であると結論を下し解放した。この逮捕によって英国の新聞や解説者は、送検すらされる前からふたりを非難した。The Mail on Sudayは彼らが「クリスマスを台無しにした」と責め、テレビ司会者で元タブロイド記者のPiers Morganは、カークとゲイトに「道化師」のレッテルを貼ったことを謝罪させられた。

誤認逮捕で道を誤った警察は、空港北部で墜落し破損したドローンが回収されたあとも多くの仕事が残っている。現在は誰が操縦していたのかを示す痕跡を調査しているところだと The Guardianは書いている。

先週解説したとおり、英国には空港近くでドローンを飛ばすことに関する専用の法律があるが、正確に何が起きたかは未だ明らかになっていない。

英国は今年、空港から1 km 以内でのドローン飛行を違法とする修正を現行法に付け加えた。

5ヶ月前の安全に焦点を当てた法改訂でも、高度400フィート(120 m)以上のドローン飛行機を禁止している。ドローン所有者の登録構想も来年計画されている

現行の英国法では、航空機または航空機に乗っている人間を危険にさらす行為を行ったドローン操縦者は、最大5年の懲役か無制限の罰金あるいはその両方が課せられる。

しかし、ガトウィック空港の事例では単に滑走路付近でドローンを飛ばすことが、法的に航空機を危険にさらす企てに相当するかどうか明確ではない。安全を重視する空港が危険を冒さないことから、実際この事象が旅行者らに大きな混乱を与えたらことが明らかであってさえそうだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

事故や災害の損害査定にAIを活用するスタートアップTractable

[著者:Steve O’Hear]
「私たちの展望と活動の説明に10分間付き合っていただき、嬉しく思います。しかし、これから15分間で、私たちが今、何を得たか、何を達成したか、私たちのAIは何をするのかを解説します」と、Tractableの共同創設者でCEOのAlexandre Dalyacは、数週間前、私がかけたビデオ通話で言った。「もっと短くなりませんか」と私は冗談を返した。

[原文へ]
(翻訳:金井哲夫)

AWS、S3の大惨事の原因を公開―ヒューマンエラーが発端だった

Mixed race person watching light column in cloud of blocks

AWSのS3クラウドストレージが4時間にわたってダウンした件は、当然ながら、強い批判を浴びた。AWSは検証レポートを発表し、この事件について原因と経過を詳しく説明した。技術的情報と将来に向けての防止策も含まれている。

直接の原因は、やや平凡な理由だが、ヒューマンエラーだった。あるエンジニア―ここではジョー(仮名)と呼んでおく―が間違ったコマンドを入力してしまったということだ。ジョーはあるサブシステムをシャットダウンするつもりだった。それ自体は日常行われるオペレーションだった。しかし月曜日、バージニア州北部データセンターではルーチンワークが大変な問題を引き起こした。

ジョーは正規の特権ユーザーであるため、システムをシャットダウンするコマンドを入力する資格があった。ただしこの作業はAmazonが「確立された手順書(established playbook)」に従ったもので、ここではS3サブシステムの少数のサーバーを停止することが意図されていた。ところがジョーは誤って多数のサーバーを停止するコマンドを入力してしまった。

素人の表現でいえば、地獄のような騒ぎが持ち上がった。

Amazonはもっと技術的な表現をしているが、問題のエラーはカスケードしてバージニア州北部データセンター全体に影響を与えることになった。ジョーのエラーは決定的に重要なサブシステムを停止してしまい、センターのデータ保存能力の大きな部分を失わせた。システムは再起動を余儀なくされたが、この間S3はリクエストを処理することができなくなった。AWS自身のダッシュボードも機能を失い(これはかなり恥ずかしい事態だ)、S3の稼働状態を確認できなくなった。

そして外部の世界も影響を感じ始めた。一般ユーザーはお気に入りのサイトが開かなかったり、アプリが異常な動作をしたりするのに気づいた。

昼頃、AWSはサービスの復旧に全力を上げていたが、なにぶんシステムの規模が大きすぎた。AWSは何年にもわたってダウンしたことがなく、従って全システムの再起動を行ったこともなかった。S3はいわば自分自身の成功の犠牲になった。再起動をかけるとシステムは安全性のチェックとメタデータの整合性の確認を始めた。ところがこれは予想外に時間を必要とした。

こうしたヒューマンエラーによる事故の再発を防ぐためにAWSでは運営手順に変更を加えるという。レポートによれば「この〔事故の原因となった〕ツールに修正を加え、作動速度を遅くし安全策を追加した。〔停止要求に対し〕配下の最小限のレベルにおけるサブシステムのみを停止させるようにした」という。これでジョーのような慌て者が同様のミスをするのは防げるだろう。

しかしAWSでは、もっと根本的にS3のサブシステムの構成の見直しも行っている。サブシステムをセル(cell)と呼ばれるさらに多数の区画に分割し、一挙に大量のサーバーが停止されないようにするという。これは過去にも試みられたことがあったはずだ。ともかくS3のサブシステムは許容可能な時間で再起動するには大きすぎた。

AWSのレポートは謝罪と改善の約束で締めくくられている。単純なヒューマンエラーで始まったものの、影響が連鎖反応で急速にデータセンター全体に拡大して大事故となった。AWSのシステムがこの種の深刻なエラーを想定せず、したがってそのカスケードを防ぐ機能が組み込まれていなかったのが惨事の根本的な原因だったようだ。

画像: Colin Anderson/Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

ドライバーの事故処理を楽にしてくれるアプリSnapsheetが2000万ドルを調達

toycarcrash

シカゴを拠点とするスタートアップSnapsheet自動車事故を起こした人びとの手続きを、より楽にするために、シリーズCラウンドで2000万ドルを調達した。

同社のクラウドベースのソフトウェアは、自動車保険会社よって利用され、ユーザーをガイドして事故が起きた際の写真と情報収集を行う。各自動車保険会社のモバイルアプリには、基本的に白いラベルが付いている。バックエンドでは、Snapsheetは、車を検査するための検査役を実際に派遣することなく、保険会社が請求を実質的に処理することを支援する。

スタートアップのシリーズCの資金の一部は、保険の世界のビッグネームからやってきた。この調達はF-Prime CapitalとIA Capital Groupによって主導され、戦略的支援としてFosun Insurance Group、Liberty Mutual Strategic Ventures、Intact Financial Corp、そしてUSAAが加わっている。また同スタートアップはMetroMileやTuroのような新興保険会社とも協業していて、会社の発表によれば、これまでに35の法人顧客を獲得している。

Snapsheetの社長CJ Przybylによれば、スマートフォンのようなテクノロジーや、クラウドソースの写真、通信技術、そして機械学習のお陰で、保険請求処理はますます洗練されたものになっているということだ。保険会社が彼らの顧客にいち早く保険金を支払い、修理された車を戻せるように、同社は全てのテクノロジーをそのプラットフォーム上に統合して、保険金請求処理を素早く処理することを助けている。同社は、新たな資金を製品開発のために投入し、そして特に顧客サポート、セールス、そしてマーケティングの人材を雇用するつもりだと、Przybylは語った。

彼はSnapsheetのようなソフトウェアが、他の保険会社が家や他の物品の損害を分析するのに役立てることもできることを認識しているが、Przybylは自動車関係の保険請求だけでも十分大きなマーケットなので、同社は自動車の範囲から広げていくつもりはないと語った。

「インシュアランステックとは、顧客サービスがどれほど大切かということに本当に集中し理解しているプレイヤーが勝者となって、ほとんどのものを得ていく世界なのです」と彼は言った。

Snapsheetの投資家でありF-Prime PartnerのBen Malkaは、彼の会社がSnapsheetを支援する1つの大きな理由は、そのテクノロジーの効果が自動車保険会社の顧客たちに確かに役立つものだからだ、と語った。

「自分のキャリアに合わせてSnapsheetを利用した人々は、保険金請求処理を素晴らしい顧客体験で終わらせることができるのです、他の請求解決手法に比べて、NPSスコアが特に良好ですね」と彼は「NPS=net promoter score」という指標を引合いに出しながら語った。

さらに彼は、Snapsheetは、競争優位のために技術を利用したいと考える保険会社の、新たな意欲に訴えているのだとも語った。「保険業界では、過去数年間に比べて、技術革新の圧力が強くなっていますからね」と彼は言った。

Przybylは 、Snapsheetが調達資金を使って開発したいと考えているものの1つは、請求の受付や状況に関する顧客の質問を、彼らが実際に質問してくる前に予測できる機械学習だと語った。そのようなシステムが組み込まれていれば、顧客が不安の種を見つける前に、Snapsheet搭載のアプリは情報を提供することができるからだ、と彼は言った。

[ 原文へ ]
(翻訳:Sako)