k-takahashi's blog

個人雑記用

閉じこもるインターネット 〜「邪悪になるな」では足りない

閉じこもるインターネット――グーグル・パーソナライズ・民主主義

閉じこもるインターネット――グーグル・パーソナライズ・民主主義

著者のイーライ・パリサーは本書と同じ内容をTEDでも講演している。

去年の5月に出た本が今年の初めには翻訳されていた。素早い翻訳は嬉しいかぎりだが、本件が急を要する話題だからというのもあるのだろう。

パーソナライズは便利だが

基本的にパーソナライズというのは便利なものだ。ユビキタスの未来像に「今だけ、ここだけ、あなただけ」というフレーズがあったが、自分に合った情報が選択されて提供されることは、「便利」である。
食事を取ろうしているときにレストランの情報が提示されたり、これからデートにでかけようとするときに結婚相談情報が提示されなかったりするのは、本人にとって明らかに有用である。
しかし、そこには大きな危険が潜んでいる、というのが本書の主張。
この手の本によくある「テクノフォビア」「反資本主義」という傾向は薄く(無いとは言わない。著者はいわゆる「左派」である。)、冷静に問題点を指摘している。そして、それは無視するには危険すぎるというのだ。

パーソナライズの何が問題なのか?

それは、インターネットの持つ大きな長所であるオープン性を損なうからだ。
梅田望夫が以前、「インターネットがオープンというのは一般的な話ではないかもしれない」といったことを書いていた。この話は逆説的に、オープン性こそインターネットにとって重要な性格であるという主張でもあるし、オープン性を好まない人達が存在するということでもある。


実際、中共を筆頭に専制国家ではネット検閲は一般的であり、例えば、中国国内でチベット天安門を検索しても偏向情報しか出てこない。これが問題であることは誰にでも分かることだが、パーソナライズも同じような現象を起す可能性がある。(実は中共の手口はもっと巧妙だということが、第5章に説明されている。完全な検閲が不可能でも、本書で懸念されているような方法を用いて最初に特定の方向付けをし、自己規制を効かせるように誘導するのだ。)


偏向とパーソナライズは連続している。中共の例はわかりやすいが、これはパーソナライズでも起こりえる問題だ。自分の関心のあることだけを知るのと、広告主(専制政権)が伝えたいことだけを伝えるのとは非常に近いからだ。そして、広告という目的なら西側でも起こりえる。
それは既に現実的懸念であるというのが本書で描かれている。


パーソナライズにより情報が偏ることは、ここ1年の日本の原発関連の話をみれば容易にわかる。
子持ちで心配性の母親は放射能の危険についての情報を求めるだろう。彼女向けに、放射能の危険を煽り「健康食品」を売り込む広告を出せば非常に効果的だ。効果的なので広告主は高い金を出すようになり、彼女には更に同種の情報ばかり提供される。そして特定の種類の情報のみが伝わり、それを批判する情報は遮断される。
こういった問題は社会のあちこちに(どちらの立場にも)あるが、「放射脳」と批判される一群が一番典型的な例だろう。
これは明らかにまずい。そして、既に起こりつつある。今はまだ「twitterはバカ発見器」と言っていられるが、パーソナライズによって悪い方向に加速される恐れがある。


ことが宣伝広告だけでも充分問題なのだが、このパーソナライズがその本人にとっても、社会にとっても危険である理由がある。本書はそれを様々な角度から語っている。

民主主義を危険にさらす

イーライの指摘は多岐にわたるが、以下に、民主主義を危機に陥れる可能性という点から幾つか上げてみる。

フィルターは何がまずいのか

他人の視点から物事を見られなければ民主主義は成立しないというのに、我々は泡に囲まれ、自分の周囲しか見えなくなりつつある。事実が共有されなければ民主主義は成立しないというのに、異なる平行世界が一人一人に提示されるようになりつつある。(p.14)

そこには、3つの大きな問題がある。(pp.19-20)

  • 一人ずつ孤立しているという問題。 情報の共有が体験の共有を生む時代において、フィルターバブルは我々を引き裂く遠心力となる。
  • フィルターバブルは見えない フィルターバブルの内側からみたのでは、その情報がどれほど偏向しているのかまずわからないというのが現実である。
  • そこに入ることを我々が選んだわけではない

つまり、情報の共有が妨げられ、そしてそれが自覚しづらくなってしまうのだ。


民主主義にとってフィルタリングが問題な理由の一つに、「説得プロファイリング」というのがある。

買い物中毒でストレスを感じると買い物せずにいられないとか自己嫌悪に陥ると買い物に走る、あるいは飲むとつい買ってしまうといったことが知られていたらどうなるだろうか。肯定的な声援が好きな人に対し、説得プロファイリングで「やればできる」と声をかける機械が作れるのであれば、有権者一人一人の恐れや弱点を突いたアピールを政治家がすることも可能なはずだ。(p.149)

こういった現象をイーライは、「フィルターバブル政治」と名づけている。

ハイブリッド車プリウスを持っていると環境保護の広告が提示され、そういう広告が提示されるから環境保護に対する関心が強くなるといったことが起きる。そしてもし、私を説得するためには環境保護を訴えるのが一番だと判断できるなら、他の争点について語る手間など省いていいと候補者が考えてもおかしくないだろう。(p.188)

候補者が何をするか、何を考えているのかのチェックが甘くなる危険が高まるのだ。特定の政策のみを声高に訴え、他の政策がボロボロなのに当選してしまうケースは日本でも何度も目にしているが、そういったことが更に悪化する危険があるのだ。そして、当選後のその政治家の行動のチェックも甘くなる。
フィルタリングと説得プロファイリングによって、合理的意志決定は妨げられてしまうことになる。

創造性の危機

イーライは、あなたの創造性が妨げられるということも指摘している。
本書では、フィルタリングが創造力を妨げる3つの理由として

解法を探す範囲がフィルターバブルによって人工的に狭められる
次に、フィルターバブル内の情報環境は、創造性を刺激する特質が欠けたものになりがちだ。創造性というのは状況に強く依存する。新しいアイデアを思いつきやすい環境と思いつきにくい環境があり、フィルタリングから生まれる状況は創造的な思考に適していないのだ。
最後に、フィルターバブルは受動的な情報収集を推進するもので、発見に繋がるような探索と相性が悪いことが挙げられる。(p.115)

をあげている。確かに、あまり良いものではなさそうだ。


こういった環境は、「知らないということを知らない」という問題をもたらす。イーライは、「分からないことを示す地図記号がない」(p.129)という表現を使っているが、フィルタリングによって、自分の好みに合わせた世界が提示されてしまった場合、そこに「抜け」がある、「異論」がある、ことは非常に分かりにくくなる。
検索結果に異論が無ければ変に思うだろうというのは正しい理屈だが、問題はその異論がフィルターされた結果であることだ。世の中にある異論ではなく、「あなたが受け入れやすい異論」しか出てこなかったとしたら、あなたの発想は藁人形論法に陥ってしまう。
例えば、血液型性格診断の信者が「血液型 性格」で検索すればフィルターバブルの結果、「A型の性格はこうだ」という情報の他に「いや正確にはA型はこういう性格だ」という異論が出てくるかもしれない。しかしここには「性格を血液型から判断することはできない」という異論は出てこないだろう。そういう問題だ。


また、発想が狭まる現象として「極大問題」というのもある。これは、何かに関心を持ってクリックすると、それに合わせた情報が増やされ更にクリックする。というフィードバックの問題。やっかいなのは、人間の脳の特性に

脳は、認知的不協和というものをなんとも非合理的なやり方で解消しようとする。つまり、「もし自分がxをするような人間でないなら、なぜxをしたというのだろうか。だから、自分はxをする人間でなければならない」と考えるのだ。(pp.155-156)

という傾向があること。まさにタコツボにどんどん潜っていくことになる。

原題

本書の原題は「フィルターバブル」。個人を包むバブルが情報をフィルターしてしまうという意味である。その意味で、カバーは原書の方が良かったかなと思う。この表紙は何が起きているかをうまく表現している。

The Filter Bubble: What the Internet Is Hiding from You

The Filter Bubble: What the Internet Is Hiding from You

エンジニアは何ができるか

本書の第6章にも書かれているが、基本的にエンジニアは政治に関わるのを好まない。政治に関わっている暇があったらコードを書いている方が楽しいからだ。
これが課題だという著者の指摘はその通りだ(その意味で、はてブの「非表示機能」というのは、もう少しやりかたを考慮する必要があると思う。)が、そうやってエンジニアを非難したところで問題は解決しない。
ではどうするか?

一番良いのは、エンジニアリングの観点から解決すべき課題をきちんと示すことだ。
そうすればエンジニアはそれを解消しようとする。そして、程度の問題こそあれ、解決はできるはずだ。
(そうやってエンジニアが解決した問題を、政治家や拝金主義者が弾圧することはありえる。中共を見れば分かるとおりだが、それは別の問題である。)


以下に、幾つか示してみる。

ズームアウト機能(p.131)

これはGoogle+に入っている。全体で話題になっているものをどのくらい自分用のストリームに流し込むかという設定が可能。
これをもっと洗練させることはできるはずだ。

アイデンティティは一つという間違い(p.142)

会社で仕事をしている自分と、子供達に向けて親として振る舞っている自分と、趣味を楽しんでいる自分とは別であって当然だ。(いわゆる、ペルソナ) 気楽に愉しみたいときと真面目に考えたいときとも別のペルソナになる。
パーソナライズするなら、それぞれのペルソナに対して異なるパーソナライズができなくてはならないはずだ。

アマゾンお薦めの検証

アマゾンのお薦めは、「あなたが興味を持つかもしれないもの」を出してくる。もし、そのとき推薦エンジンがあなたのモデルをエンジン内に作っているのだとすれば、そのモデルが正しいことを検証するべきである。具体的には、「そのモデルからは、関心が無いと推測されるもの」を一定の率で提示し、ユーザから「興味ない」という返事を貰わなければモデルの正しさは示せない。
もちろん、いい加減に実装すればユーザの利便性を損なうだけだし、「興味ない」という返事をして貰うのは、難しい。
しかし、難しい問題こそ、エンジニアが取り組むべきものであるはずだ。

今の自分となりたい自分

今の自分のための情報は大事だ。本書中には同性愛問題に悩む人に「あなたは特殊ではない」という情報を伝えることの大事さが書かれていた。しかし、フィルターバブルは「過去+今の自分」に最適化されてしまうため、将来の自分のための情報は届かなくなってしまう。が、それを防ぐ技術的方法はあるはずだ。

梅田望夫は、「ロールモデルを探し、それを消費せよ」(ウェブ時代をゆく)と書いていた。ロールモデルを探すのもウェブを使えば容易だ。だから、とりあえず参考にしてみろ、と。ならば、そのロールモデル先のフィルターをカスタマイズして自分のフィルターに混ぜることもできるはずだ。その混ぜ方は「ズームアウト」を使えばよい。そしてブレンディングを可視化し、アマゾンのように「薦めた理由」を見せれば、無意識フィルターの弊害は抑制できる。

このロールモデル探しがフィルターバブルに妨げられる危険は勿論あるが、それは実は現在も変わらない。妄言を振りまいている、自称ジョブズや自称龍馬なんてフィルターバブルと関係なく掃いて捨てるほどいる。フィルターのブレンディングを可視化できれば、そういう連中を見分けることも可能になる。
そうすればロールモデル探しもより適切にできるようになり、「なりたい自分」へのパーソナライズができるようになるはずだ。


どうだろうか。私は、エンジニアはエンジニアとしての矜持から、フィルターバブル問題に対抗していけると信じる。政治に対する関心が薄いとしても、技術的な間違いはエンジニアにとって苦痛だからだ。

SFファンの目から

SFマガジンの2011年6月号に「ギャンブラー」(バチガルピ)という短編が掲載されていた。(私の感想はここ)。この短編では、真面目なニュース記者がPVを稼げず首になりかねないという状況が描かれていた。
これは小説だが、まさにそっくりな状況が始まっているということが本書で描かれている。
PVをダッシュボード的に管理している会社が既にあるのだ。(p.88のゴーカー・メディア社)


あるいは、有名どころでは「接続された女」。これは既に始まっているどころか、その先に進んでいる。こういう人に商品を持たせて宣伝すれば購入意欲が高まるという統計データに加えて、「特定の顧客は、このパターンで決断しやすい」というパーソナルデータが組み合わさり広告の効果が高まるというわけだ。(上述した「説得プロファイリング」)


両作品とも、その先を見ているのは面白いところ。フィルターバブル対策はSFの中にも見つかるだろう。