要約
トンデモ科学情報の拡散のツールになっているsnsなどのプラットフォームはいったいどこまで責任を負うべき(強権を発動すべき)なのだろうか?という疑問に参考となる英国王立協会のレポートの内容を紹介します。疑似科学対策としてコンテンツの削除やアカウントの凍結のみに依存するべきではない、という興味深い内容となっています。
本文:トンデモ科学に対するプラットフォームの責任
本ブログで以前にVoicyというYouTubeの音声版のようなプラットフォームの配信を元ネタとして記事を書きました。
最近ツイッター界隈では、このVoicyが医療デマなどをバラまいてる悪質プラットフォームという評判が立っているようです。これに対してVoicyからは以下のような発表がありました。医療情報を扱う放送について、利用規約に反するものについて放送主への対応を依頼する、という内容です。
Twitter:音声プラットフォーム Voicy【公式】
この発端となったと思われるツイッター上でのやり取りがあります、Voicy代表のツイッターアカウントに医療デマを流さないでと要望した医療関係者に対し、Voicy代表がかるーい感じの返信をしたことで批判が起こり、当該ツイートは削除されました。そのあとに上記のVoicyとしての対応が発表されたという経緯になっています。
代表が批判されたツイートを削除した後も、削除されたツイートのスクショ(当時のツイートの画像)がさらされています。このようなさらし行為はツイッターでは著作権違反とされています。正義のため(悪を退治するため)ならルール違反をしても許されるというモラルライセンシングが発生していますね(モラルライセンシングについては補足参照)。
面白い点は、Voicyでデマが流されていることに対して、デマの発信者ではなくプラットフォーム(Facebook, Twitter, InstagramなどのSNSサービス提供者)の代表が責められているということです。
デマの量や悪影響度ではツイッターのほうが圧倒的に上だと思いますが、ツイッターの代表を責める人は見たことがありません。Voicyなんか無くなっても俺たちには何の関係もないが、ツイッターが無くなったら俺たちが困る、ということが出発点になっているのかもしれません。これはリスク認知の話ともつながってきそうな話ではないかと思います。
ところで以前に本ブログで書いた記事でも、デマ対策は国による情報検閲ではなくプラットフォーム側で対応すべきであることを書いています。
ここで疑問になるのは、ではプラットフォームはデマ等に対してどこまで責任を負うべきなのだろうか?ということです。例えばツイッターがトランプ大統領のアカウントを永久凍結したことは有名ですが、プラットフォームがどこまでの権力を持つべきかは難しい問題と言えるでしょう。
そこで本記事では、この疑問に対してヒントになりそうなイギリスのThe Royal Society(英国王立協会)が最近公表したレポートを紹介します。逆説的なことにこのレポートでは、政府とsnsプラットフォームは、疑似科学対策としてコンテンツの削除やアカウントの凍結のみに依存するべきではない、ということが書かれています。私も「ええっ!?そんなことあるの!?」と思って興味を惹かれました。詳しい内容を以下で解説していきます。
英国王立協会のレポート「The online information environment」
2022年1月に英国王立協会は「The online information environment」と題するレポートを公表しました。このレポートは、インターネット上の科学情報を主なターゲットとして、人々の意思決定行動にどのような影響を与えるのかについての調査を報告し、さらに健全なオンライン情報環境の構築のための一連の提言を行ったものです。
この中で最も興味深かったのは、提言のうちの一つ(11個の提言のうち2番目)に、政府とsnsプラットフォームは、疑似科学対策としてコンテンツの削除やアカウントの凍結のみに依存するべきではない、ということが書かれていたことです。
これはなぜかということですが、メジャーなプラットフォームから追放されたデマ発信者は、さらに対策が困難な小さいプラットフォームや独自のプラットフォームに逃げ込み、そこで誰の批判にもさらされずに先鋭化してしまう、という懸念があるからです。分断が進むとその閉じた世界の中でデマが増幅されるようになるのですね。実際にトランプ大統領は、自身のツイッターアカウントが凍結された際に、独自のプラットフォームを作ることを検討していると発言しました。
コンテンツ削除に依存するというアプローチは、ヘイトスピーチや誹謗中傷、児童ポルノなどのコンテンツには有用ですが、疑似科学に対してはこのアプローチの有用性を示すエビデンスは今のところ無いようです。
むしろ、科学情報の信頼性に対するオープンな議論は、科学のプロセス(科学は間違うことも多いが後にちゃんと修正される)の重要な部分になっています。
また、確信犯的にデマを流している人にも効果があるかもしれませんが、多くの人は善意により(正義のため)デマを(デマとは認識せずに)流しているため、そのようなコンテンツやアカウントまで削除・凍結してしまうと反発が強くなると考えられます。このような反発からプラットフォームによる正しい知識の普及にまで負の影響が出てきます。
さらに、疑似科学の場合は明確な線引きがなく(明確に弾けるモノ多いですが)、科学的に議論の余地のある内容であることが多いため、アルゴリズムではじくことは現時点では現実的ではなく、これを識別するには科学的知識を持つ人力による多大なコストがかかることもハードルになります
それでは代わりどのようなアプローチがあるのでしょうか。排除ではなく緩和策として
・デマ情報に広告がつかないようにする
・デマ情報のバズり(リツイートなどで一気に情報が拡散すること)の抑制
・レコメンドシステムによる規制(デマ情報を話題のツイートに載せないなど)
・正しい情報にはファクトチェック済みラベルを付す
などの案が出されています。
主な調査結果
また報告書の内容に戻ります。Exective summaryには主な調査結果として以下の6点が書かれています。特にデマなどの影響が過大評価されているという1と2の内容については注目すべきではないかと思います。デマをこの世から撲滅しなければならない、という考えに対して冷静になるべきという論調になっているようです。
1.デマはネット上にあふれているがその影響力の大きさには疑問が残る。例えば、イギリスの一般市民を対象に行った調査では、回答者の大多数がコロナワクチンは安全であり、気候変動は人間活動のせいであり、5G技術は有害ではないと考えていた。さらに、多くの人々がインターネットによって国民の科学に対する理解が深まったと考えており、ネット上で読んだ疑わしい科学的主張についてはファクトチェックをする可能性が高いと報告し、科学デマについては友人や家族に反論する自信があると述べている。
2.エコーチェンバー(オンライン・オフラインを問わず、自分の信念を補強するような情報にばかり触れること)は一般に考えられているほど広まっておらず、フィルターバブル仮説(アルゴリズムによって、人々が自分の信念を補強する情報ばかりに囲まれること)を支持する証拠はほとんどない。
3.科学的な不確実性は科学的プロセスの中核をなすものだが、専門家の間で大きな論争が起きるとその論争が広く一般にも波及してしまう。このような論争が長期化してそのトピックに関して明確な権威がいない場合は特に難しい事態を引き起こす。例えばコロナ禍においてはWHOなどが権威として機能したが、5G通信などのトピックでは信頼できる情報源を素早く特定することが困難である。
4.単一の「反ワクチン」運動という概念はミスリーディングであり、一部の人々がワクチン接種に抵抗するさまざま理由を代表していない。反ワクチン感情を持つ人々は、子どもの安全性など明確な懸念を抱いていたり、エビデンスに対する疑問ではなく政府に対する不信感から行動している場合もある。さらに、反ワクチン情報の作成と拡散には政治関係者などさまざまな関係者が絡む。
5.ネット上のデマ対策においては情報技術が有用であり、特に有害なデマの素早い検出などでは有用である。ネット上のコンテンツの出所や改ざん状況に関する情報を提供するプロベナンス技術も有望である。現在でもフェイク情報を見抜くことは難しく、本報告書のため調査でもほとんどの人がディープフェイクを識別するのに苦労していた。
6.コンテンツの生産と消費に対するインセンティブは、オンライン情報環境を評価する際に最も重要な要素である。このインセンティブはプラットフォームと個々のユーザーの両方に影響し、人助けのような公益と金銭的利益のような私益のために存在する。デマ拡散におけるこれらのインセンティブを軽くするには、オンライン情報環境の経済的・法的側面についてさらに検討する必要がある。
提言
最後に11の提言の内容を紹介します。注目すべき2番目の内容についてはすでに紹介しましたが、これ以外についてはそれほど驚くべきような内容ではなく、必要な課題がよくまとまっていると思います。Voicyなどの新興プラットフォームの対策は提言7あたりが重要でしょう。8番目の「多様な情報に触れることでデマに強くなる」というのはハッとさせられますね。
提言1:健康に有害な情報など個人的な被害をもたらすデマについてはすでに対策がされてきたが、気候変動に関するデマのような(特に将来世代の)社会的被害をもたらすデマについてはこれまで以上に重視する必要がある
提言2:政府とsnsプラットフォームは、疑似科学対策としてコンテンツの削除やアカウントの凍結のみに依存するべきではない(上記で説明済み)
提言3:ファクトチェック組織に対する支援が必要。メディアから独立したファクトチェック組織が多数あるが多くが資金難である。
勧告4:Facebook, YouTube, Twitter, TikTokのような巨大なプラットフォームではデマ対策が進んできたが、より小規模なプラットフォームにおける対策を進めることが必要
提言5:ネット上でオープンになっている会話のデマ対策だけではなく、クローズドでプライベートな会話における対策(見えにくく介入がより困難)も検討すべき
提言6:snsプラットフォームはプライバシーを保ちつつも研究者がデータにアクセスできる方法を確立すべき。デマ対策の有効性の評価に役立つ。
提言7:新たに立ち上がるプラットフォームが低コストでデマ対策システム(自動検出システムなど)を構築できるように、手法、機械学習用データセット、ソフトウェアなどを開発して利用できるようにすべき。
提言8:政府とsnsプラットフォームはメディアの多様性を支援するべき。snsで伝統的なメディアを優先的に表示したりするようなやり方は多様性に反する。多様な情報に触れることでデマに強くなる。
提言9:政府はあらゆる年齢層の人々の情報リテラシーの向上(フェイク情報の見分け方など)に取り組むべき。
提言10:学術論文のオープンアクセス化を進めるべき。学術研究へのアクセスを容易にすることにより、情報の検証を容易にし、科学に対する社会の信頼性の向上につながる。
提言11:アーカイブされたデジタルコンテンツへのアクセスを容易にするために、法的枠組みを見直す必要がある。イギリスでは電子書籍、電子ジャーナル、ビデオ、PDF、ソーシャルメディアへの投稿など、デジタル形式で利用できるものはほぼすべて収集してアーカイブされているが、データへのアクセスは現時点では法律によって極めて限定されている。
まとめ:トンデモ科学に対するプラットフォームの責任
英国王立協会のレポート「The online information environment」の内容を紹介しました。疑似科学対策としてコンテンツの削除やアカウントの凍結のみに依存するべきではない、という部分はわりと議論を巻き起こす内容のためびっくりしましたが、それ以外の部分はごく真っ当な主張が大部分だったと思います。「デマは削除すべきではない」のではなく「削除”のみ”に頼るべきではない」というところの理解がポイントになるでしょう。
補足
本ブログではトンデモ科学をトピックとした記事を2回書いています。こちらもぜひ参考にしてください。
記事中で紹介したモラルライセンシングについての過去記事はコチラです。いいことした分だけ悪いことしたくなる心理について書いています。
コメント