ビッグデータがはやり言葉となっています。ビッグデータはビジネスにおける課題の解決方法を根本的に変える可能性を秘めています。
課題解決の一般的方法
はじめに、一般的な課題解決の方法をおさらいしておきます。
課題構築
まず、解決すべき課題を見つけます。課題が見つからないことには話になりません。
その課題は、解決する価値のあるものでなければなりません。解決する意味のないものでは、解決のための時間も労力も無駄になります。
さらに、その課題は解決可能なものでなければなりません。ここが難しいところです。根本的に解決不可能なのか、解決不可能に見えているだけなのか、簡単には区別がつきません。
解決してみてはじめて、解決不可能に見えていただけだとわかる課題があります。しかし、解決不可能な課題と対決していては、膨大な時間を無駄にする可能性があります。
仮説設定
課題が決まったら、一般的には仮説を立てます。仮説を立てる理由は、あらゆる場合を試していては、時間がかかるからです。
直観に従って、課題を解決するための仮説を立てます。誰が立ててもそれしかないという仮説もありますが、ほとんどの人がそんなはずがないという仮説もあります。
一般相対性理論はニュートン力学を根本から覆すものでしたが、アインシュタインにとっては、ほかには考えられない仮説でした。
そのアインシュタインにとっても、不確定性原理は、「神はサイコロを振らない」と言って、死ぬまで納得できない仮説でした。
仮説検証
仮説を立てたならばそれを検証します。実験により、仮説が成り立つか、なり立たないかを検証していきます。
物理学の世界では、一般相対性理論も不確定性原理もその後の実験で検証されています。
光よりも早い粒子が見つかったという一般相対性理論を覆す実験結果が発表され、後からそれが間違いだったと報道されたニュースは、記憶に新しいものです。
ビッグデータでの課題解決
仮説を立て、それを実験により検証するという方法が、課題解決の一般的な方法です。あらゆる場合については、検証できないためです。
ところが、ビッグデータには、ある分野のあらゆるデータが含まれます。すると仮説を立てずに、すべてのデータを調べることができます。
ビッグデータ中のすべてのデータから相関関係の高いデータを抜き出します。それがなぜ相関関係が高いのかを考えるところから理論を組み立てることができます。
仮の理論を仮説として立て、それを証明するためのデータを集めて検証する方法とは、まさに逆の方法です。
相関関係が高いことがわかれば、その理由はわからなくても、その事実を利用することもできます。
まとめ
コンピュータの高速化、大容量化がビッグデータの解析を可能にしました。ひとむかし前であれば何年もかかっていた計算が、数分でできるようになりました。
あらゆる場合をもれなく調べるということは、コンピュータが得意とすることです。
今現在では、現実的な時間内で計算できないため、コンピュータが役に立たない領域でも、数年後には、短時間で計算可能になります。
ビッグデータからは、現在では予想もできない理論が生み出される可能性があります。