3月3日に東海大学で行った「ジャーナリスト・エデュケーション・フォーラム2012」の報告。第十弾は、データジャーナリズムの田中幹人さん(早稲田大学ジャーナリズム・コース准教授)による「コンピュータ援用報道(C.A.R.)の理論と実践」のセッション。要録をJCEJ運営委員の赤倉優蔵がまとめました。
ネットでよく目にする「政府は情報を隠している」という論調ですが、実はそんなことはありません。
私は「サイエンスメディアセンター」で科学者とメディアを繋ぐ仕事をしていおり、震災直後、ジャーナリストと話をする機会がありました。そのとき、政府がホームページなどで公開しているデータの利用をお勧めしたのですが、メディアはどこも及び腰でした。文科省はきちんとデータは出していたにもかかわらず、日本のメディアはそれを活かせなかったのです。
一方、文科省が発表していたデータをジャーナリスティックに活用していたのはグリーンピースでした。彼らは文科省が発表するデータを分析し、「文科省のデータは正しい」と判断したうえで、さらにそのデータをもとに「こうすれば良いのではないか」と、政策の提言までしていたのです。
WIREDの記事 にも出ていますが、この間日本のメディアは、政府が発表する生データをそのまま右から左に報道するだけで、「政府は情報を隠している」との報道もありました。日本のメディアも、グリーピースがやっていたことぐらいのことはできたはずです。しかしできなかった。日本のメディアはデータを使った報道に慣れていなかったため、危機的な状況で使う事ができなかったのではないでしょうか。コンピューターを報道に活かすには、普段からの準備がとても大切なのです。
また、日本のテレビを見ていると、折れ線グラフのメモリや円グラフの面積があきらかにおかしいグラフが出されることがあります。こんなことやった瞬間、印象操作をしているとみなされ、ニュースの信ぴょう性はガタ落ちになるのですが、なぜこのようなことが起きるのでしょうか。
海外のテレビではこのようなことはまず起りません。それは社内あるいは、身近に統計の専門家がいるからです。ときどき「日本人は統計に弱い」と耳にしますが、統計に弱いのは日本人に限ったことではないのです。データに強いガーディアンやBBCの記者も同じです。データに弱い人が頼ることができる専門家をきちんと配置している、ただそれだけでこうしたことが起きないのです。
■コンピューター援用報道の歴史
コンピューター援用報道(C.A.R.)は、「コンピューターの力をかりて、生データから意味ある文脈を抽出し、報告し、ジャーナリズムの議題をつくりあげていくこと」あるいは「コンピューターを使ってデータを整理して報道すること」と言い換えることができます。
1952年の米国大統領選で米国のテレビ局CBSが統領選の結果予測にコンピューターを使ったことがC.A.R.のはじまりだと言われています。CBSは、世界初のコンピューター「ユニパック1」を使い、大統領選の結果を予測、コンピューターは1パーセントの誤差でアイゼンハワーが勝利するとの結果を出しました。しかしその結果は、CBSが同時に実施した出口調査の結果では対立候補の勝利だったこともあり、大統領選前には公開されませんでした。コンピューターに対して信頼を置けなかったのです。結果はコンピューターの勝利でした。そしてこの大統領選以降、米国三大ネットワークはコンピューターを使った結果予測をするようになりました。
ところで、C.A.R.で重要なのは可視化です。データを分析し、その結果得られたメッセージを過剰にすることなく、事実をありのままに報道することが重要になってきます。
1989年、Bill Dedmanというジャーナリストが、科学を使ってはじめてピューリッツアー賞を受賞しました。彼は足を使った取材で白人に比べて黒人が住宅融資を受けにくいことを感じ、調査を開始、11万件の融資データを地図にマッピング(可視化)したところ、実際に黒人の融資数が白人の融資数の5分の1であることをつきとめたのです。この報道で世の中の風潮が変わり、黒人に対する融資が増えました。しかしながらこのことがサブプライムローン問題という皮肉な結果にも繋がってしまいました。
以降、欧米のメディアでは、ウィキリークス事件などを経て、コンピューターを使った報道は主流となりました。最近では、「報道後にデータを公開し、読者に判断をゆだねる」ようになってきています。例えばイギリスのガーディアンやBBCなどでは、報道に使ったデータをAPIなどで公開し、「私たちが信用できない、あるいは私たち以上の分析ができるようであれば、私たちが使ったデータを元に調査・分析をしてください。新たな発見があれば謝礼を払います」と、読者を巻き込んだ報道を行っています。その結果、集合知とジャーナリズムのハイブリットが進んでいるのです。
一方、日本は遅れています。C.A.R.はそもそもオペレーションズ・リサーチ(Operations Reserch:OR)から発展してきたのですが、ORが軍事分野の学問だったこともあり、日本ではタブー視され、そのために遅れてしまったのではないか、と言われています。
■C.A.R.を実践するために必要なスキル
さて、どうすればC.A.R.を実践できるようになるのでしょうか。アーリーアダプターになれ!とまでは言いませんが、最低限パソコンは使える必要はあります。そしてエクセル。エクセルでかなりのことができます。問題意識ももちろん必要です。そして最後は統計的センス。
C.A.R.実践のポイントは次のようになります。
- データが勝手に集まってくるようにする。RSSやTwitterメールを利用。
- 検索演算子を使う事を習慣化すること。
- どこにデータがあるかを知っておく。相当量のデータがオープンになっている。観光庁のサイトは宝の山。
- 足も使え。その場に行くとあることが多い。
- 仮説を立てても、それを棄却することが大切。
- 視覚化が重要。エクセルやパワーポイントでも十分。
- 発信時、自分で述べるのが大切
重要なのは、言い切ることなく、検証を読者に預けることです。多くの人に参加してもらうことが、結果として議題構築(アジェンダセッティング)につながります。これまで議題構築はジャーナリストがやっていましたが、これからは今社会で何が問題か、人々がどのようなことを考えているのか、独りよがりではない「ねばならない」をどう構築するか、こうしたことが自然にあがってくるような仕組をつくっていくことが重要になってきます。
ネットでは視野がせまくなり、ほっとくと気持ち良くなる情報だけを摂取するようになることがあります。ネットメディアでは、反応の取り上げ方が恣意的な場合が散見されます。一部の意見が全体の意見であるとは限らないのではないでしょうか。ジャーナリズムである以上、反対意見を簡単に切り捨てないよう気を付けなければなりません。
C.A.R.はとにかく実践することが大事です。早稲田大学のJ-Schoolで学んでいただく、という手もあります。
■C.A.R.の未来
これからは地方からでも特ダネを見つけられるようになるのではないでしょうか。美味しいネタはたれこみに多く、タレこみ先は大きな新聞に集中し、これをめぐる競争は熾烈です。しかし、公開されたデータから隠された事実をみつけるのはどこからでもできます。これが「科学は優秀な記者をさらに優秀にする」と言われるゆえんです。これからは、「事故直後、事故現場近くのツイートをジオタグで検索、いち早く事故の目撃者を特定する」みたいなことができるようになるでしょう。
(報告:赤倉優蔵)
【セッション関連情報】
【参加者報告】
- 「データジャーナリズムは仕事の基本」(萩原雅之さんの「マーケティングリサーチの最新手法をジャーナリズムに活かす」)
- 空即是色=ブランド?「仏教用語をマネージメント用語に置き換える」(浄土真宗本願寺派光明寺僧侶の松本圭介さん)
- 「有意義なワークショップにするために大切な4つのこと」(石村源生さんの「参加者の相互支援ネットワーク構築のためのワークショップデザイン」)
- Googleがジャーナリズムへ参入?「データ・ジャーナリズムがもたらす4つの変化」(八田真行さんの「データ・ジャーナリズムの現在と未来:海外事例から学べること」)
- 「心のざわめきに耳を澄ませ〜ソーシャルイノベーションは私から始まる」(井上英之さんの「社会イノベーションのはじまり マイプロジェクト」)
- 「王道を疑え ソーシャルメディア時代の企業と個人のコミュニケーションとは」(熊村剛輔さんの「ソーシャル メディアの使い方なんて誰が決めた?」)
- 「ニュースほど有力なコンテンツはない」J-CASTニュース編集長が語る成功の条件(大森千明さんの「編集長生活15年〜新聞・雑誌・ネットと転身〜」)
- インターネットによる「現実」拡張を支える3つの要素(森正弥さんの「変化するウェブ、変化する我々自身」)
- 「建築物は対話をしながら作り上げるもの」(原田一朗さんの「コミュニケーションとものづくり」)