2013年7月4日木曜日

ビッグデータの正体:ビクター・マイヤー・ショーンベルガー他

「ビッグデータの正体」 という本を読む。
かなり読み応えがあり、自分が今までしてきたことの延長線上にあることなので、興味深く読める。

ビッグデータとは、今まで なんでそうなるかを論理的に考えて
因果関係導き出して予測していたことが
大量のデーターの関連性や相似性から、因果関係を考えるプロセスをすっ飛ばして、
いきなり予測してしまうということのようだ。
その際には、関連性や相似性を数式で表現しそれをプログラムで置き換えるという作業が必要になる。

いま、勉強すべきなのは、英語でもプログラムでもなくて
数学、特に確率・統計といわれる分野だということになる。

高校の時、確率・統計といえばほとんど試験に出ない分野で
まじめに勉強したとは言いがたい状況であの偏差値の出し方もよくわからないままになっている。
確率・統計が試験に出ないのは、手計算では試験時間内に絶対終わらなからという
試験をする側の都合なんだろうけど、ここにきて一番重要な学問になりつつある。
つーことで、ぼくもなんかおもろい予測エンジンを作ってみようと思った。

そういう方向で。

0 件のコメント: