レコメンデーションは、人間の可能性を拡げているのか?

2019/08/01
岡田 弘太郎

当たり前だと思っていたことを、もう一度疑ってみる。すると、今まで見えていなかった世界が見えてきます。既成概念の外に飛び出し、この世界のどこかで芽生えつつある新しい価値観を探る連載がスタート。第一弾はあまりにも身近になった「レコメンデーションエンジン」のあり方を問い直します。


「Netflixのレコメンドエンジンに2週間従ってみた」

そんな内容の記事を見かけ、思わずクリックしてしまった。『FastCompany』の記者JOE BERKOWITZ氏がNetflixの新しいアカウントをつくり、2週間レコメンドエンジンに従ったというユニークな実験だ

その結果、「Netflixのオリジナル作品」ばかりがレコメンドされたという。それは本当にユーザーが求めているのか、企業がビジネスの都合上、ユーザーに“観てほしい”と思っているコンテンツなのか。疑問が湧いてくる実験結果だ。

もちろん、ひとりのユーザーの実験であるし、これは科学的な調査ではない。正確に実験しようとしても、Netflixはそのアルゴリズムを一般公開しておらず、調査することは実質不可能と言ってもいい。

けれども、この実験はひとつの問いを突きつける。「果たしてレコメンデーションエンジンは、わたしたちの視聴体験を豊かにしてくれているのか?」と。

誰のためのレコメンデーション?

NetflixやSpotify、そしてAmazonなど、これらのサーヴィスはわたしたちの生活に欠かせない存在になった。そして「おすすめ」された映画やドラマを観たり、音楽を聴いたり、本を買ったり、そういう購買体験はもはや自然と言えるかもしれない。

しかしながら、そのレコメンデーションに対して批判の声も出ている。

前述のNetflixを利用した実験もそうだし、今年出版された『Spotify Teardown』という書籍はスウェーデンの社会科学研究が架空のレーベルを立ち上げ、Spotifyの明かされていないデータ流通の仕組みを解き明かした内容だった。
著者のひとりであるスニカーズ氏は『Rolling Stone』誌のインタビューで次のように答えている

「アルゴリズムを監査するという分野はもっと注目されるべきだと思います。YouTubeのレコメンド(おすすめ)機能のアルゴリズムがどんなものか、ちゃんと知っている人は誰もいません。それを理解するためには、サービス利用規約に違反するような調査もやむをえません。こういった学術研究や報道活動はそうあるべきだと僕たちは信じています。そうなれば、きっと大きな波紋を呼ぶでしょうね。」

「どんなコンテンツがおすすめされるか?」であれば、問題は起きにくい。だが、それが人生における大きな決断に関わるものだとすれば、どうだろうか?

日本の憲法学者・山本龍彦は編著『AIと憲法』にて、予測的アルゴリズムによるプロファイリングによって、人生の可能性が狭められる危険性を指摘する。また、その様相を「確率という名の牢獄」と表現し、痛烈に批判する学者もいる。

アルゴリズムを監査せよ

アルゴリズムを監査する動きも始まっている。『あなたを支配し、社会を破壊する、AI・ビッグデータの罠』の著者であるキャシー・オニールはアルゴリズムを監査する会社を立ち上げた。また、2014年にSpotifyに買収された音楽レコメンデーションエンジン「The Echo Nest」を開発していたブライアン・ウィットマン氏は、アルゴリズムのもつマイナス面に気づき、倫理的なレコメンドエンジンを開発する「Canopy」というスタートアップを立ち上げた。

「従来のレコメンデーションシステムには、わたしについてのデータを可能な限りすべてかき集め、それをブラックボックスに入れるプロセスがつきものです。そうしてレコメンドされた内容が自分に最適化されているのか、収益を上げるために最適化されているのか、国に操作されているのかはわからないのです」

ウィットマン氏は『WIRED』のインタビューにて、こう語っている。まだローンチはしていないが、Canopyが開発するのは「読んだり聴いたりするコンテンツを、毎日少数だけレコメンドするもの」だという。

人間の可能性をひらくアルゴリズムを

いつの時代もアートやクリエイションは時代の先鋭的な問いを立てる役割を果たしてきたが、メディアアートの国際的祭典アルスエレクトロニカは2018年のテーマに「ERROR – The Art of Imperfection」を掲げた。

アルゴリズムによる最適化が進み、収集されたデータによって個人がスコアリングされる社会では、そこから逸脱するものは切り捨てられる。しかし、わたしたちが生きていく上で重要なのは、寛容性や創造性だ。最適化された世界からはみ出すために「エラー」が有効な手段となるのではないかーー。最適化が進む社会を生きるわたしたちに対する痛烈なメッセージだった。

「レコメンデーションエンジン」はわたしたちに適したものをオススメする優れたツールとして捉えられてきた。しかし、インターネットやデジタルテクノロジーが、わたしたちの世界や選択肢を狭めているのだとしたら、それを肯定できない。いまこそ、倫理的なレコメンデーションエンジンのあり方を模索するときがやってきた。

この世界はもっと広いはずだ。そう思えるような「おすすめ」コンテンツが、いま求められている。


岡田弘太郎

編集者・DJ

『WIRED』日本版 Contributing Editor /『UNLEASH』編集者。PARTYパートナー。「ニュースタ!」の発信に編集者として関わる。関心は、文化、社会、デザイン、都市、人新世など。

ニュースレター

毎週配信!新しい価値(イミ)創造のためのTipsや
最新のTHINK TANKレポートをお届けします。詳しくはコチラ >

このシリーズをもっと読む

NEW STANDARDロゴ

私たちは
ミレニアルズ及びZ世代のスペシャリストとして、
新しい価値(イミ)創造を
“ユーザー起点”でアジャイルに実現する、
ブランドDXカンパニーです。