小生: ビッグデータは、本来は使用済みデータの廃棄物であるものをデータベース化して再利用すれば、色々な用途に使いたいという販売先が出てきて商品になる。そんな面がありますよね。
先方: でもね、自然に集まってくるごみのようなデータを使えば有益な情報が得られるというのはおかしいと思いますよ。何か確かめたいことが先にあって、それをデータと照らし合わせて検証する。科学的方法とはそういうものでしょう。何でもいいからデータを集めれば、何か大事なことがわかると考える方が間違っていますよ。
小生: 正にその点なんですよ。だから、今回の研修では最初にWired Magazineに掲載された"The End of Theory: Data Deluge Makes the Scientific Method Obsolete"をみんなに読んでもらったんです。要するに、エクサバイト級のビッグデータになると、データで確認される相関構造は、すべて有意であると。理論モデルがあろうとなかろうと、現実はそうなっているんだろう、と。いや、「だろう」じゃない、「そうなんだ」。そこまで言える。ということはもう、考えるより先にデータを見る。その方がはやいと。研究方法、というか研究の順番が全く違ってしまうということなんですね。
先方: そうやって何か新しいことが分かった事にはならないでしょ。そういうやり方は「漢方」と同じなんですよ。どうやらこの薬草がきくみたいだ。いや、きく。なんで効くかは分からんが、こういう症状があるときは、この薬草を飲ませよう。それ以上、どのようにしたら<進歩>するんですか?
そう。確かにビッグデータから多くのことが分かる。とはいえ、なぜこんなパターンが<必然的に>出てくるのか。やっぱり考えることは不可欠だ。考えることなく、観察されているからというだけで知識が形成されるのだとしたら、人間の知識は自らが経験したり、見たり聞いたりできる範囲から外には出られない。
現象があるだけで、メカニズムがない。予測にはそれで十分かもしれないが、予測が外れたときに、「いまはそういう時代ではない」と割り切って、頭の中をリセットするしかない。
ビッグデータは、科学なのか、技術なのか、技術だとしたらそれを支える学問は何か?いまだ、小生、ハッキリとわからない。
0 件のコメント:
コメントを投稿