Facebookはタイムライン・アルゴリズムを公開すべき


さいきんFacebookのタイムラインがおかしい気がする。いや、まえからずいぶんおかしいのだけれど。このところわたしの挙動の変化はこうだ。「知り合い」を選択しているような「親しくない人」の投稿がよく表示されるようになった。

いったいどんな計算の結果で、このようなタイムラインになっているのか、一介のユーザには皆目わからない。Facebookはユーザのタイムラインを制御しているが、その内実は闇の中だ。Facebookは、2012年にユーザの感情操作実験を秘密裏に実施し、2014年に物議をかもしたことがあった。いまの違和感も、A/Bテストや秘密の心理実験の対象者になっているのが原因かもしれないと、疑心暗鬼にならざるをえない。

このところFacebookは、機会があるたびに「フィルター・バブル」を作り出していないと主張している。マーク・ザッカーバーグは、次のように弁解する。

「Facebook上の最大のフィルターは、ユーザーが意に沿わないコンテンツをクリックしないことだ。ニュースフィードには、意に沿わないコンテンツも流れるし、自分とは異なる考えや宗教を持つ友達もいる」、つまりフィルターバブルの中にも対立する考え方が入ってくるが、それをユーザーはクリックしないのだと主張しました。
このクリックしない率は相当高くてびっくりするぐらいで、「それをどうしたらいいか私にもまだ分からないが、何とかしなければならないと強く思っている」とのことです。
トランプ勝利で浮かび上がるSNSの問題点 – ITmedia PC USER

そうFacebookは、ユーザと異なる主義主張のコンテンツのエンゲージ(表示時間、いいね、コメント、シェア、クリック)率を計測している。それもきっと利用規約のうちだろう。リテラシーのある多くのユーザも承知のうちだ。だから異なる考えの主のリンクをクリックするなんて危険なことはやらない。うかつにクリックすると、自分のタイムラインが偏ってしまうかもしれないのだから。ユーザは、目に見えない管理者の挙動にびくびくしながら使っている。

それがいまのFacebook最大の脅威だ。Facebookは全体社会のビッグ・ブラザーになっている。

Facebookのタイムライン・アルゴリズムは複雑で、おそらく人間の目でみて理解できるものにはなっていないだろう。それでもFacebookはそのメカニズムを公開しユーザに説明するべきだろう。おそらく無数のA/Bテストが走っているのだろうが、そうした実験の対象者なのかどうかも明らかにしてほしい。それらができなくても、ナチュラルな(制御なしの)タイムラインの表示オプションがあれば、何もできないユーザとしては、かなり気分が落ちつくのだけれど。