txt:曽我浩太郎(未来予報) 構成:編集部
前回の連載では、語りの種類を3タイプに分けて分析してきた。特に、多様な視点を盛り込むための手法として、ジャーナリスト同士や他業界の人、そして当事者コミュニティを巻き込みながら様々な視点を盛り込んだコラボレーティブ(協働)ジャーナリズムの概要とそれを支えるプラットフォームについて解説した。
では、果たして私たちは“ヒト以外”と、どのように協働して新しいストーリーを生み出すことができるのか?今回はその点について考えてみたい。
人工知能との協業に取り組むメディア業界とその課題
連載Vol.03でも少し取り上げたが、ニュースの現場で既に人工知能は活躍しだしている。しかし課題も見え始めているのも確かだ。
人々にとってニュースのチャンネルの一つとして役割を果たしているYouTubeも、フェイクニュースに対する対抗措置として、動画解析の人工知能を活用し、本当かどうか怪しい動画に対し「インフォメーションキュー」と呼ばれるWikipediaのリンクを貼るという機能を2018年のSXSWで発表して話題となった。
視聴者はバイアスのかかった陰謀論の動画を閲覧している際に、その項目についてのWikipediaの情報にすぐにアクセスすることで、その真偽を一歩踏みとどまって考えることができるという画期的な機能だった。
しかし2019年に入り、問題が起きる。4月に起こったノートルダム大聖堂の大火災の時だ。YouTubeに投稿された大聖堂の火災の動画に対し、インフォメーションキューは「911・NYのワールドトレードセンターのテロ事件」へのWikipediaへのリンクを付けてしまった。ツインタワーの火災と大聖堂の火災の動画がYouTubeのアルゴリズムで誤認されてしまったのだ(詳しくはこちらのCnetの翻訳記事を参照いただきたい)。
I'm so glad we let tech platforms eat the journalism industry.
— Ryan Broderick (@broderick) 2019年4月15日
Now, I can sit and watch a live stream of Notre Dame burning while YouTube's fake news widget tells me about 9/11 for some reason. pic.twitter.com/FhAtE4DqtB
フェイクニュースへの対策措置を目的に、テクノロジーを駆使して作られたYouTubeのインフォメーションキューが、逆にフェイクニュースに繋がるような情報を振りまく原因になってしまったと言えるだろう。この事件はこれからの時代の“語りの形とその責任”を考える上で一つの象徴的な事件となった。
MITが思索をめぐらせる“ヒト以外との協働作品”の未来
ドキュメンタリーの未来を考えるMITのプロジェクト MIT Open Documentary Labでは、今年の6月にCOLLECTIVE WISDOM:Co-Creating Media within Communities, across Disciplines and with Algorithmsというレポートを発行した。
協働(コ・クリエーティング)の定義や意義、効果や課題、そして未来への問いなど、非常に見どころが多いレポートである。
その中の“ヒト以外との協働”というレポート項目からいくつか引用をさせていただきながら、その兆しについて考えていきたい。
機械とともに作り上げるSougwen Chung氏のドローイング作品
レポートで紹介されているアーティストの一人として、Sougwen Chung氏がいる。彼女はロボットアームなどの機械とともにドローイングをしているアーティストだ。
ニューヨークの監視カメラの映像から人の動きを学習し、彼女の共同作業ができるようプログラミングされたロボットが、彼女と一緒にドローイングしていく。美しい線画やロボットとの共同作業に魅了されるとともに、その描かれた軌跡の背景となってるデータを想像すると監視社会像を思わされて、私は少しドキッとする感覚を持った。彼女はレポートのインタビューの中でこのような回答をしている。
[Collaboration] can be fraught with a lot of different tensions … especially between human collaborators, because there is this sense of authorship and control.
意訳:コラボレーションは異なる緊張を多く孕んでいる。特に人とのコラボレーションにおいてはコントロールと作家性についての感覚に対しての力学が働くのだ。-Sougwen Chung in PART6:MEDIA CO-CREATION WITH NON-HUMAN SYSTEMS
人工知能やドローンの技術進化により、今後は“ヒト以外”と一緒につくる映像というのが今以上に現れてくるであろう。果たしてその時の著作は誰になるのか?作家自身が自分の作品と呼べるためにはどのような経験が必要なのか?またどのようにオリジナリティを昇華すればいいのか?私は技術が進展しきる前にその試行錯誤をより重ねていく必要があるのではないかと考えている。
人と人工知能の相互的な学びでストーリーをつくる
もう一人、MITのレポートで紹介されているのがフェローであるShrine Allen氏の作品や考え方だ。
Shrine Allen氏が進めているMarrowプロジェクトの一つとして展示された「I’ve always been jealous of other people’s families(意訳:いつでも他人の家族は羨ましい)」というインスタレーション作品がある。
Come and visit this installation if you are in Amsterdam, open until 25 Nov as part of IDFA @DocLab: Humanoid Cookbook expo @ShirinMedia @IDFAindustry pic.twitter.com/syXtQ9tXbX
— IDFA DocLab (@DocLab) 2018年11月17日
参加者は4人で食卓に座って、“幸せな家族のビジュアルや状況を学習させた人工知能”が提示する役割をそれぞれ演じるというインスタレーションだ。参加者の様子はリアルタイムに「幸せな家族」としてその場でビジュアル化される。果たして参加者はその姿を「リアリティのある幸せ」と認識できるだろうか?
実際に私がやったら違和感を感じるのかもしれない。もし違和感を感じた場合、参加者の喋り方や振る舞いは人工知能にフィードバックされる仕組みになっている。そのため、ファンタジーとリアリティとの名言化されていないギャップについて、人間にも人工知能にも考える機会をあたえてくれる作品だ。
まさにこの作品は、ヒトと人工知能が相互的に学び合える環境を作っている実験的な映像作品だと言えるだろう。答えのない問いを、ヒトにも伝え、人工知能にもフィードバックをする。これはまさにこれから必要となってくる、テクノロジーと語りの未来であると感じた。
コンテンツ業界に“ヒト以外との協業”の試行錯誤ができる環境を
読者のような業界のプロフェッショナルの中でも、人工知能やテクノロジーに自分の仕事が置きかわるかもしれないという想いを抱えながら生活している人もいると思う。すぐに置きかわることはないが、技術は徐々に現場の中に入ってくる。その技術の中には今までの応用でうまく活用できるものもあれば、できないものも出てくるだろう。
では全く今までとは違った技術とはどう付き合えばいいのか?まずは試してみることが一番である。新しいビジネスを作る起業家、そしてそれを支援する投資家やインキュベーターが、実際のユーザーとなりえるクリエイターを広く巻き込んで試行錯誤ができる場がもっと増えれば、コンテンツ自体もアップデートにもつながり、より良いエコシステムになっていくのではないかと考えている。
SXSWのインタラクティブイノベーションアワードには、様々な実験的で革新的なプロジェクトが世界中から集まる。2007年にはTwitter、日本からは東大のロボット義足スタートアップBionicMが受賞したことで有名だが、このアワードの12のカテゴリーには、ビジュアルメディア体験やXR、スペキュラティブデザインなどもあり、スタートアップに限ったものではない。
ファイナリストは期間中にファイナリストだけを集めたショーケースで展示ができ、メディアからも多くの注目が集まる。是非多くの未開の領域に挑戦するコンテンツクリエイターに応募してほしい。それが多くの新たなスタイルのコンテンツクリエイターの育成や広がりとして使っていただければ幸いである。