ソーシャルメディアで大切なのは「事後修正」、人は誤情報を見た後に警告を受けたほうがそれを信じない

ソーシャルネットワークやその他のプラットフォームが誤情報に対処するには、それが偽りか否かを知るだけでは十分ではない。それに対して、人々がどう反応するかまで知る必要がある。MITとコーネル大学の研究者は、驚きの、しかし微妙な発見をした。これは、Twitter(ツイッター)とFacebook(フェイスブック)の問題をはらむコンテンツの対処方法に影響を与えそうだ。

MITの発見は、直感に反するものだった。タイムラインに誤解を招くタイトルが現れたとき、打つべき論理的な対策は、真偽が怪しい内容であることを読者にまず知らせるために、事前に警告を表示することだと思われていた。だが、それは間違いだった。

この調査では、3000人近い人々を対象に、内容に関するいろいろなかたちでの警告(警告なしも含む)を見せてから、タイトルの信ぴょう性を判断してもらった。

「この調査を行うにあたって、私は事前に修正情報を提供するのが最善策だと期待していました。なので人々は、問題のタイトルに出くわしても嘘の主張は信じないものと考えていました。ところが驚いたことに、実際は逆だったのです」とMIT Newsの記事を共同執筆したDavid Rand(デイビッド・ランド)氏は書いている。「遭遇した後にその主張を修正するのが、最も効果的でした」。

そのタイトルには誤解を招く恐れがあると事前に警告を与えたところ、人々の判断の精度は5.7%向上した。タイトルと同時に警告を表示すると、精度は8.6%に上がる。しかし、後で警告を示した場合は25%も良くなった。つまり、かなり高い割合で、事前警告よりも事後修正が勝ったことになる。

研究チームは、既存の判断が生まれる過程を改めるのではなく、既存の判断に評価を取り込もうとする傾向があるという他の兆候と一致する点を示唆し、原因はそこにあると推測した。問題はかなり根深く、小手先で対処できるようなものではないと、彼らは警告している。

また、コーネル大学の調査結果は安心と不安が半々の内容だった。誤解を招く恐れのある情報に接した人は、読者の政治的立場に則しているか否かは関係なく、確実に大きなグループの意見の影響を受けた。

これには安心する。なぜなら、人は100人中80人がその話を怪しいと感じたなら、たとえその80人のうち70人が意見を異にするグループに属していたとしても、何かありそうだと疑いを持つことを示唆しているからだ。だが不安もある。なぜなら大きなグループの考えがあちらこちらに変わるだけで、自分の意見も簡単に揺らいでしまうからだ。

「人の気持ちは、政治的な立場とは別に社会的な影響によって変わってしまうことが、具体的に示されました」と、論文の筆頭著者である大学院生のMaurice Jakesch(モーリス・ジェイクシュ)氏はいう。「これは、オンラインスペースの二極化を解消し人々を1つにまとめる手段として、社会的影響を利用する道を開くものです」。

それでも、党派による感情も影響しているといわざるを得ない。別の党派に属する人たちの集団的な意見が、考えを左右する割合は21%下がる。だとしても、人は集団の判断に影響される傾向は強い。

誤情報がこれほど拡散した原因としては、そうした話に人が魅力を感じる理由、その魅力を弱める手段、その他の細かい疑問をよく理解していない点がある。暗闇の中で失敗を重ねている間は、ソーシャルメディアが解決策を探し当てることは期待できない。しかし、こうした研究の一つひとつが、少しずつ光明を増やしていくのだろう。

カテゴリー:ネットサービス
タグ:フェイクニュースソーシャルメディアモデレーション

画像クレジット:Bryce Durbin / TechCrunch

原文へ

(翻訳:金井哲夫)

フェイクニュースとソーシャルメディアの「共鳴室」問題をスマートなニュースアプリで解決するGawq

Gawqと呼ばれる新しいスタートアップがフェイクニュースの問題とソーシャルメディアが作り出す「エコーチェンバー(共鳴室)」問題に取り組みたいと考えている。ソーシャルメディアでは、巧みに操られたアルゴリズムとパーソナライズされたフィードによって我々の世界観が形成される。Gawqが新しくリリースしたモバイルニュースアプリでは、さまざまなソースからのニュースを提示しつつ、ユーザーによるニュース、意見、有料コンテンツなどのフィルタリング、ソースの比較、事実かどうかの確認、さらにGawq上のコンテンツの正確性の確認を可能にすることを目指す。

GawqのアイデアはJoshua Dziabiak(ジョシュア・ディジビアク)氏が出した。同氏は今や利益を計上しているインシュアテックスタートアップのThe Zebraの共同創業者で、現在取締役も務める。2020年3月に常勤から退き、その直後にGawqを創業した。

「それは情熱のプロジェクトとして始まり、その後ビジネスに変わりました」とディジビアク氏は説明する。「私はより大きな社会的影響を与える何かをしたかったのです。そして、このアイデア、この問題は、特にこの1年間で非常に大きく表面化し、拡がりました」と同氏はいう。

ニュースがソーシャルメディアチャネルから流れると、人々は自分だけのバージョンの現実を見せられる。アルゴリズムは人々が関心を持たないニュースを取り除き始め、関心を持つニュースをどんどん見せ始めるからだ。時が経つにつれ、このシステムにより一部の配信元は突飛でセンセーショナルな見出しによりクリックや怒りを引き付けるようになった。だが、右寄りまたは左寄りの聴衆に訴えるニュースに傾き、また偏る配信ネットワークも生み出した。

その結果、メディア環境は全体として、必ずしもニュースの質ではなく読み手を意識し始めたとディジビアク氏はいう。質の高いジャーナリズムはまだ生み出されているが、あらゆるノイズをかき分けて見つけるのが難しいこともある。

「ジャーナリストとコンテンツクリエーターは成功のために新しい手段を必要としています。クリックやシェアの数ではなく、ジャーナリズムの核心をなす倫理に基づくものです」とディジビアク氏は語った。

画像クレジット:Gawq

Gawqの名前は、近頃の見出しが我々の注意を引くためによく叫んでいる様子を思い起こさせる意図がある。だがそれは、このアプリがニュースの正確性を念頭に置いたアプリであるという点では的外れだ。根本的にGawqというニュースアグリゲーターは、読者が見出しを「gawk(驚きの目で見る)」ことではなく、実際にはより批判的な目でニュースを読み、検討することを目指している。

アプリは当初、いずれの方向に偏っているものを含め、あらゆる種類と大きさの150を超える多様なトップメディアソースから構成される。配信元が網羅するトピックは米国や世界のニュース、政治、スポーツ、ビジネス、技術、エンターテインメント、科学、ライフスタイルニュースなどに及ぶ。

またGawqは、アルゴリズムやパーソナライズエンジンを使わずにトピックごとにその日のニュースを整理する。読みながらクリックすると、ある話題に関する報道を他の情報源と比較し、異なるメディアが同じトピックについてどうに書いているのかを深く理解できる。画面上部の巧妙な赤と青のスライダーバーを指で赤い方に引っ張り右寄りのソースからの報道を確認したり、青側に引っ張り左寄りのソースの報道を表示したりできる。

同社によれば、メディアを監査する3つの異なる非営利団体(AllSidesMedia Bias Fact CheckAd Fontes Media)のデータを使用して、ソースが「右」か「左」かを判断する。

画像クレジット:Gawq

スライダーバーのすぐ下には、目下のトピックに関するファクトチェックが簡単に参照できるようになっている。

ユーザーはアプリの設定で一部のニュースソースのオンとオフを切り替えられる。だが、Gawqは「多様なメディアの品揃え」がある場合にアプリが最適に機能することをユーザーに喚起するためにオンオフの切り替えを思いとどまらせる表現を使っている。

さらにGawqは「スマートラベル」機能を導入して、論説、スポンサーコンテンツ、セレブのゴシップなどのニュース以外のコンテンツを自動的に識別してタグ付けする。かっちりしたニュース以外を非表示にしたいなら、オンとオフを切り替えることもできる。

もう1つの優れた点は、もし配信元にとってではないなら少なくともニュースの利用者にとってということだが、Gawqがデフォルトで記事を「リーダーモード」に流し、最近ニュースサイトのページを埋めつつある広告や余計なものを取り除く機能だ。必要に応じて、クリックによりウェブサイトの記事を表示することもできる。

上記の多くは読者へのニュースの表示方法に関するものだが、Gawqのより大きな賭けはニュースレビューアーからなるウィキペディアのようなコミュニティを作れることだ。レビューアーはジャーナリズムの慣例を守っているかどうかに基づき記事を評価する。これは、より野心的で、おそらく過度に楽観的な取り組みだ。

すべての記事で、ユーザーはレビューボタンをクリックすると短いクイズに誘導され、記事のバランス、提供された詳細、見出しがクリックベイトであったかどうかを評価できる。次にユーザーはコメントを追加してレポートを送信する。このレビュープロセスは、プロフェッショナルジャーナリズム協会が定めるジャーナリズムの倫理規約に基づいて構築されたとディジビアク氏はいう。

画像クレジット:Gawq

おそらく、Gawqユーザーのうち記事を評価するのは少数にとどまる。だが時が経ち規模が大きくなるにつれ、レビューはニュースの消費者の目から見たニュースの正確性とセンセーショナルな傾向について、正確な評価を配信元に提示できるかもしれない。そのようなデータは会社外部で価値を持つかもしれないが、今のところGawqのビジネスモデルは「未定」だとディジビアク氏は認めた。

Gawqが取り組もうとしている問題は難しいものだ。そして間違いなく、世界観を広げる必要がある人がそのために新しいアプリをダウンロードする可能性は極めて低いと思われる。彼らは多くの場合、パーソナライズされたソーシャルメディアのフィードからニュース(そして多くの場合、怒りや嘘)を取り込む、ニュースの受動的な消費者だ。それから彼らは、誰でも見ることができるニューステレビチャンネルからお気に入りを1つ選んでクリックする。だが、より中立的なメディアを求める人は増えている。Gawqは情報源を比較する際、ニュースを右、左、または真ん中に配置して中立的なメディアを見つけるのに役立つ。

Gawqは現在自己資金で経営しており、エンジニアの小さなチームを抱え、ほとんどが契約ベースで働いている。ただし、Gawqは将来の資金調達を否定していない。

このアプリはiOSAndroid無料でダウンロードできる。

関連記事:インシュアテックのThe Zebraの年換算売上高が約106億円に達し利益を計上

カテゴリー:ソフトウェア
タグ:Gawqアプリフェイクニュースソーシャルメディア

画像クレジット:Gawq

原文へ

(翻訳:Mizoguchi

Facebookは全プラットフォームで米国の陰謀論グループQAnonを締め出しへ

Facebook(フェイスブック)は米国時間10月6日、同社が運営するいくつものソーシャルプラットフォームでのQAnon(キューアノン)関連コンテンツの禁止範囲を拡大(Facebookリリース)した。これまでも、「『暴力を煽る議論』を行うQAnon関連グループを禁止していたが、それをさらに進めたものだ」と同社は話している。

QAnonの暴力的なコンテンツを禁止するのみならず「QAnonを代表するあらゆるFacebookページ、グループ、Instagramアカウント」も対象としたFacebookの今回の措置は、ますます対立が激化する選挙に先立ち、そのプラットフォームを浄化しようとするソーシャルネットワークの同巨大企業の強硬手段だ。

QAnonは、トランプを支持するための数々の陰謀論を無秩序に押し広める団体であり、米国人有権者の間に広く根付いている。その熱狂的な信奉者たちは、異常で支離滅裂な信念体系に執着するあまり危険な行為に及んでは、テロ活動として起訴(ABC News記事)されている。BuzzFeed Newsは先日、QAnonを「集団妄想」と呼ぶことを決めた。この陰謀集団の空虚で愚かで危険な信念を、的確に言い表した言葉だ。

QAnonの抑え込みを目指すFacebookのこの取り組みには効果があるだろうが、時期が遅すぎた。昨年の1年間で、陰謀論を振りまくキワモノ集団に過ぎなかったQAnonは、驚くほど大きな政治的思想団体に発展し、米国議会議員の候補者を擁立するまでになっている(The Guardian記事)。彼らを成長させたのは、同好の仲間を引き合わせる機能を本質的に備えたソーシャル・ネットワークだ。その機能が偽情報を広め、次第に過激な思想へと利用者を感化していくことが何度も繰り返し指摘されてきた。

7月、Twitter(ツイッター)は、「オフラインの危害」の懸念を理由に、QAnonに対して独自の対応に出た。同社はQAnonのコンテンツを格下げし、トレンドページとアルゴリズムによる「おすすめ」から排除した。Twitterのポリシー変更は、Facebookの以前の対応と同様、QAnonのコンテンツを完全に禁止するまでには至らなかったものの、その増殖を抑えることはできた。

他の企業は、Alphabet(アルファベット)のYouTubeと同様、外部の監視者による同種の批判を受けている、YouTubeはアルゴリズムを見直し、大量のコンテンツの中から怪しいものをより的確に排除できるようにしたと話しているが、実験の結果は確実とは言い難いものだった(Wired記事)。

FacebookやTwitterなどのソーシャル・プラットフォームも、選挙を前にして作為と虚偽に満ちた政権に対抗し、ルールを変更した(未訳記事)。その同じ政権が、投票のセキュリティーと、20万人以上のアメリカ人の命を奪ったウイルスに関するデマや偽情報を拡散している。この2社の対策には、とくに危険なこれら2つの偽情報の威力を弱めるだけの価値はあったが、積極的な措置ではなく後手の対応であったため、そのポリシー上の決断は危険なコンテンツの拡散を抑えるには遅きに失した。

Facebookの新ルールは、米国時間10月6日から有効となる。同社は広報資料で、これから「ルールに従いコンテンツを削除してゆく」と話しているが、QAnon自体を排除する取り組みには「時間がかかる」とのことだ。

Facebookの今回の変化は、何に後押しされたものなのか?同社によると、QAnonの暴力的なコンテンツを引っ張り出したときに、「西海岸の山火事は一部のグループが引き起こした、などという陰謀論をはじめ、さまざまな形で現実の災難に結びつけられた別のQAnonコンテンツ」が見つかったという。先日、山火事が発生したオレゴン州では、Facebookプラットフォームで広がった偽情報のために、アンティファ(ファシズムに反対する人を真正面から軽蔑した呼称)が州に火を放ち、不法に道路を封鎖(CNN記事)しているというウソを住民たちが信じてしまった。

Facebookが運営するいくつものプラットフォームで、QAnonをどれだけ効果的に排除できるか、今はまだわからない。だが、私たちはそこに注目していく。

関連記事
Twitterが右翼陰謀論を広めるQAnonを取り締まり、7000アカウントをすでに停止
トランプ大統領がSNSルールに再違反、新型コロナはインフルより「はるかに致死力が弱い」と虚偽の主張を投稿

カテゴリー:ネットサービス
タグ:ドナルド・トランプ、Facebook、フェイクニュース、QAnon

画像クレジット:Photo by Stephanie Keith/Getty Images

[原文へ]

(翻訳:金井哲夫)

Twitterが誤った情報と戦うためにツイートにコンテキストを追加する「Birdwatch」システムを開発中

Twitter(ツイッター)が「Birdwatch」(バードウォッチ)という名の新機能を開発している。同社はプラットフォーム上のツイートにノート形式でコンテキストを追加することで、誤った情報問題にアプローチしようとしていることを認めている。各ツイートの、現在ブロックや報告ツールが置かれているドロップダウンメニューから、対象のツイートを「Birdwatch」対象にすることができる(すなわちモデレートのフラグが立てられていることを意味する)。小さな双眼鏡ボタンは、Twitterタイムラインに公開されたツイート上にも表示される。そのボタンをクリックすると、ユーザーはツイートにつけられたノートの履歴を閲覧できる画面に移動する。

リバースエンジニアリング手法によって発掘されたBirdwatchのスクリーンショットによれば、「Birdwatch Notes」という名の新しいタブが、リスト、トピック、ブックマーク、モーメントなどの他の既存の機能とともにTwitterのサイドバーナビゲーションに追加される。

このセクションでは、「Birdwatch Notes」と呼ばれる、自分の書いたノートの履歴を追うことができる。

この機能は、この夏にTwitterのウェブサイト上で開発の初期段階のものが、リバースエンジニアのJane Manchun Wong(ジェーン・マンチュン・ウォン)氏によって初めて発見された。その時点では、Birdwatchには名前がなかったが、ツイートにフラグを付けたり、ツイートが誤解を招くものかどうかを投票したり、さらに説明のノートを追加したりするためのインターフェースが、明確に示されていた。

彼女による発見の数日後に、Twitterはウェブアプリを更新し、それ以上の調査はできなくなった。

しかし今週、今度はiOS上のTwitterのコードで、非常によく似たインターフェースが再び発見された。

モバイルでこの機能のスクリーンショットをさらにいくつかツイートした、ソーシャルメディアコンサルタントのMatt Navarra(マット・ナバラ)氏によれば、Birdwatchを使用することで、ユーザーはツイートにノートを付け加えることができるという、これらのノートは、ツイート自身の上にある双眼鏡ボタンをクリックすると表示される。

すなわち、ツイートに対して行われたノートによる追加のコンテキストが、一般に公開されるということだ。

はっきりしていないのは、追加のコンテキストでツイートに注釈を付けるためのアクセス権が、Twitterのすべての人に与えられるのか、承認が必要なのか、それとも一部のユーザーまたはファクトチェッカーのみが利用できるのかということだ。

Twitterの早い時期からの利用者でハッシュタグの発明者でもあるChris Messina(クリス・メッシーナ)氏は、BirdwatchがTwitterの偽情報を取り締まるためのある種の「市民による監視」システムになるのではないかという懸念を表明していた(Twitter投稿)が、彼は正しかったようだ。

彼がTwitterのコード内で見つけた情報によれば、それらのノート(Birdwatch Notes)は「contribution」(貢献)と呼ばれ、どうやらクラウドソーシングシステムを暗示しているようだ。(結局のところ、ユーザーは自分だけが見るためのメモを書くのではなく、共有システムに 貢献するようだ)。

画像クレジット:クリス・メッシーナ氏

クラウドソーシングによるモデレートはTwitterにとって目新しいものではない。数年にわたり、TwitterのライブストリーミングアプリPeriscope(ペリスコープは)不正利用を抑え込むためにクラウドソーシング技術に依存して、リアルタイムストリームへのコメントをモデレートしてきた。

ただし、Birdwatchが非技術的な観点からどのように機能するかについては、まだ多くのことがわからないままだ。たとえば、誰もがツイートに注釈を付ける同じ権限を持っているのかどうか、このシステムを荒らそうとする試みがどのように処理されるのか、多数のネガティブな注釈が付けられたときにツイートはどうなるのかなどはわからない。

この数カ月間Twitterは、誤解を招いたり、虚偽だったり、扇情的な内容を含むツイートに対して、より厳しい姿勢をとろうとしてきた。それはトランプ大統領のツイートの一部に、ファクトチェックラベルを適用するまでになっており、その他のツイートをTwitterのルールに違反していることを通知して非表示にすることも行っている。しかし、Twitterはまず規模の拡大を目指して開発され、その後有害コンテンツに関するポリシーと手続きを決定しようとしてきたため、Twitterが全体にモデレーションを拡大する準備は、十分には整っていない。

Twitterにコメントを求めたところ、同社はBirdwatch計画に関する詳細の開示は拒否したが、この機能が誤った情報の拡散を防ぐために設計されていることは認めた。

「私たちは誤った情報の問題に対処し、Twitter上のツイートにより多くのコンテキストを提供するための、多くの方法を模索しています」とTwitterの広報担当者はTechCrunchに語った。「誤った情報は重大な問題であり、それに対処するためのさまざまな方法をテストする予定です」と彼らは付け加えた。

関連記事
敵を知るには敵になろう!向学のためにフェイクニュースを自分で書くAI
Twitterがトランプ大統領のツイートに「要事実確認」の警告を表示
Twitterがトランプ大統領のツイートを非表示した理由を発表、人々の投票意欲を削ぐ可能性がある
「偽ニュース」とは一体何で、何が問題なのか

カテゴリー:
タグ:

画像クレジット:TechCrunch

原文へ
(翻訳:sako)

有害コンテンツと戦うAIプラットフォーム開発のSpectrum Labsが1000億円超を調達

米国大統領選挙を40日後に控え、米国人の目はネット上の会話に集中している。同時に、人々の判断を惑わそうとネットで拡散される本物そっくりの偽動画やフェイクニュースや誤解を招く広告にも強い関心が寄せられている。

だが政治的発言は、もちろん、インターネット利用者が制作したコンテンツを悪用し、有害な結果を引き起こそうとする目論見の一手段に過ぎない。米国時間9月24日、AIでそうした行為全般に対処しようというスタートアップが資金調達を発表した。

Spectrum Labs(スペクトラム・ラボズ)は、コンテンツのモデレーション、追跡、警告を行い、さらには、嫌がらせ、ヘイトスピーチ、暴力の扇動、その他40種類の有害行為を、英語の他数カ国語で阻止するためのアルゴリズムと一連のAPIを開発し、1000万ドル(約10億5000万円)のシリーズA投資を獲得した。同社はこの資金を用いてプラットフォームの拡大を計画している。

このラウンドはGreycroftが主導し、Wing Venture Capital、Ridge Ventures、Global Founders Capital、Super{set} が参加している。現在までに同社は1400万ドル(約14億8000万円)を調達した。

Spectrum Labsが有害な政治的発言と戦うようになったのは偶然ではない。

CEOのJustin Davis(ジャスティン・デイビス)氏によれば、このスタートアップは、2016年の前回の大統領選挙の余波の中で創設された。そのとき、彼と、マーケティング・テクノロジー畑出身の共同創設者で現CTOのJosh Newman(ジョシュ・ニューマン)氏は、オンライン上のあらゆる有害コンテンツとの戦いを支援する何かを作りたいと感じていた。それは、選挙の行く末ばかりでなく、インターネットやそれ以外の場所で毎日繰り広げられ、固定化されてきた大きな仲違いにおいても大きな役割が果たせる。ちなみに、2人の共同創設者と9名ほどの従業員は、みなKrux(ク kjラックス)での、そしてKruxを買収した後のSalesforce(未訳記事)での同僚だった。

「私たちは、みんなでそこに介入する方法を探りました」とデイビス氏。「自分たちのビッグデータの経験を生かしたいと考えたのです」。Kruxは、マーケターのためにオンラインコンテンツを分類し、キャンペーンの効果をより正確に測定する事業を専門としていた。「世界の役に立つためにね」と。

現在Spectrum Labsは、Riot Games(ライオット・ゲームズ)をはじめとするゲーム業界の大手、Pinterest(ピンタレスト)などのソーシャルネットワーク、Meet Group(ミート・グループ)などの出会い系サイト、メルカリなどのマーケットプレイス、DTCブランド、さらには社内の会話をトラッキングしたいと考える企業など幅広い分野の顧客を有している。

同社の主要プラットフォームはGuardian(ガーディアン)と呼ばれ(ロゴはよく似ているが同名の新聞とは異なる)、必要に応じてダッシュボードの形態になる。また、内部システムに統合して単にサービスのセットとして使うこともできる。

利用者はこの技術を使って、既存のポリシーの確認や検査をしたり、ポリシー改善の手引として利用したり、またはこれをフレームワークとして新しいサンプルを作り、コンテンツのトラッキングが上達するようラベリングしてモデルのトレーニングを行うこともできる。

コンテンツのモデレーションのためのツールは、もう数年前から出回っているが、たいていのは人の言葉を単純に補完したり、キーワードを検出するといった程度のものだ。今なら大量の誤検出が心配される。

最近になって、人工知能がその作業をパワーアップしてくれたのだ、ソーシャルメディアやチャットが一般に大人気となり、ネット上の会話が飛躍的に増加したこともあって、その登場には相当待たされた。

Spectrum LabsのAIベースのプラットフォームは、現在40種類以上の有害な行為を検出できるよう設定されている。嫌がらせ、ヘイトスピーチ、詐欺、いい顔をして人につけこむ、不法な勧誘、人の個人情報をさらすなどの行為のプロファイルを、世界の研究者や学会の意見を元にあらかじめ用意していたのだが、さらに多くのデータをウェブから取り込みつつ洗練を重ねている。

有害な行為を止めようとAIを活用しているスタートアップは、他にもある。たとえば今年になって、やはりソーシャルメディアでの会話に焦点をあてたSentropy(セントロピー)というAIスタートアップが資金調達(未訳記事)してステルスモードから姿を現した。L1ght(ライト)もネット上の有害コンテンツに立ち向かう事業に資金を調達(VentureBeat記事)した。

実際に注目すべき点は、善なる戦いをビジネスとするスタートアップの台頭だけではない。そんな企業を支援したいという投資家が現れたことだ。大儲けできるスタートアップとは言えないかもしれないが、長い目で見て社会を良くする努力であることに間違いはない。

「ジャスティンとジョシュには根性と立ち直る力があり、それが独創的なリーダーとチームをまとめています」と、GreycroftのベンチャーパートナーAlison Engel(アリソン・エンゲル)氏は言う。「しかし投資家として私たちは、体系的問題を解決するには資金が必要であることも承知しています。彼らを支援しなければなりません。それを成功させるためには連帯が欠かせません。プラットフォームを統合するのです。その多くはデータに起因する問題なので、そこを頑強にすることです。次にそれを支える人、そして3番目に資金です」。

「スタートアップ投資家の間で潮の流れが、そして投資先の選択が変化してきている」とエンゲル氏は感じている。「投資コミュニティーの支援を求めるなら、コミュニティーが発展して栄えることを望むなら、私たちは、そこにおける自分の価値体系は何かを考えることが重要です。私たちは、より大きな公益の一部となるプラットフォームに投資する必要があります。そうすれば、投資家もそこに関与するようになります」と締めくくった。

画像クレジット:Towfiqu Photography / Getty Images

[原文へ]

(翻訳:金井哲夫)

米ベストセラー作家が5Gと新型コロナの陰謀論がはびこる理由を解き明かす

米国時間8月20日早く、Facebook(フェイスブック)は、数百のQAnon(キューアノン)関連グループを削除したことを発表した。さらに多くのグループ、数百のページ、1万件のInstagram(インスタグラム)アカウントにも制限を加えたと話している。

The New York Timesが伝えているように、結成4年目になるQAnonは、かつては取るに足らない動きであったが、たとえば世界はドナルド・トランプの失脚を企てる小児性愛者に支配されていているとか、5Gモバイルネットワークが新型コロナウイルスを広めているとか、明らかに眉唾な、多岐にわたる陰謀論を振りまいているにも関わらず、この数カ月間に社会の本流に現れるようになった(The New York Times記事)。

なぜ、こんなことが起きるのだろうか?我々は今週たまたま、プロポーカープレイヤーからベストセラー作家に転身したことでも有名なAnnie Duke(アニー・デューク)氏(Newyorker記事)に話を聞く機会があったので、人々はこれまでになく陰謀論に感化されやすくなってしまったのか、そうだとしたらその理由は何かを聞いてみた。デューク氏は現在、著書「How to Decide: Simple Tools for Making Better Choices」(いかに決断するか:よりよい選択のための簡単なツール)を間もなく出版するなど、決定理論を教える学者でもある。

同氏の話がとても興味深かったので、ぜひ読者に伝えるべきだと考えた。ここで紹介する以外にも、デューク氏の新著について、またそれが起業家や投資家にどのように役に立つかについて、長く語った内容を、いずれまとめて紹介しようと思うので、お楽しみに。

私たちの脳は無作為性を好みません。私たち人類は、無作為な類のものの原因や結果を常に導き出そうとします。それでも気に入らず、点と点をつないで、存在するはずのない因果関係を作り上げるのです。

陰謀論を信じることと、知性とは関係がありません。物事の道理を理解すれば結果を左右できるという幻想を求める強い気持ちに対して、「そんなこともあるさ、ときとして人生とは無作為なもので、何をやるにも運が大きく関わってくる」と言い切ってしまえれば楽だという気持ちに基づく、まったくの別物なのです。

「新型コロナが流行して人々が死に、自分は家に閉じ込められるといった無作為なことは、いつでも起こり得る」とわかっていても、自分の人生に対する(自分の支配する)力の程度が示唆されてしまうため、すべては運任せだとは思いたくない。私たちの物の考え方は、大変に決定的です……。そのため、常に物事を結び付けることで、決定と結果と物事が、実際よりもずっと決定的に感じられるようにしているのです。

私たちはまた、そこにパターンなど存在していなくても、自然のパターンを見いだすことができます。それだからこそ、私たちは「前にあの平原へ行ったとき、ライオンがたくさんいた(だから安全のためにもう行くべきではない)」とある程度予測できるのです。世界は見た目とは異なること、そして私たちが常に世界に何かを押しつけていることを理解するのは困難なのです。

【編集部注】ここでデューク氏は、動いているように見えて実際には静止している2つの立方体による目の錯覚について話した

私が見たなかでもっとも強烈な錯視。反対方向に回転しているように見える2つの立方体は、じつはまったく動いていない。

立方体は確かに動いていると思えてしまうため、本当のことを知っているという確証が揺らぎます。そこで(ひとつの解決策は)、真実を知っていると自信過剰にならないことです。真実がそれ自身を私たちに押しつけてくるのに対抗して、自分が自分の真実を世界に押しつけているのだと自覚することです。

陰謀論は最近始まったのものではありませんが、いずれにせよ、長い間留まるものです。現在の最大の問題は、いとも簡単にそれが増幅されてしまうことです。

あることが真実か否かを見極める際に、私たちに備わっている発見的手法は、処理の流暢性です。つまり、そのメッセージをどれだけ簡単に理解できるかです。あることを何度も繰り返し聞かされると信ぴょう性が高まると、Stephen Colbert(スティーブン・コルベア)は言っています。写真を加えると……。例えばばキリンは世界で唯一ジャンプできない動物だと私が話すときに、キリンの写真を添えてやれば信ぴょう性が高まります。

それが、ソーシャルメディアのどこに利用されているかがわかるでしょう。陰謀論と反復。それが、真実かフィクションかの見分けづらくしているのです。

近々、デューク氏からは、なぜ会議がいつも間違った方向に進むのか、なぜ物事が正しい方向に進むときのことを十分に研究せずに損失にばかりこだわるのかなど、もっといろいろな話を聞く予定だ。

画像クレジット:JAE C. HONG / AP

[原文へ]

(翻訳:金井哲夫)