これも、大きな誤解がある。
ビッグデータをビジネスに、、、、
などの、文言が並んでいるが、
ビッグデータを活用するためには、そのデータを解析して、傾向を読み取るための専門知識と、技術が必要である。
ツールで、可視化をしても、それから、何を読み取るかは、別の分野の専門家の知識が必要
幸い、僕の、卒論は、35年間(5年ごと)蓄積された過疎集落(2000集落)の185項目データを、解析して、動態モデルをつくり、過疎化を引き起こした原因の時系列的な因果関係解析。
185項目 x 2000集落 x 7 = 2,590,00
また、一部上場企業を対象にした組織のイノベーションマネジメントの研究では、
200項目 x 10,000人 = 2,000,000
のデータを扱って、イノベーションマネジメントの研究をして、
メソッド化をするとともに、ビジネス化した。
両者のような、大量のデータ解析をして思う事は、
1)統計処理は、コンピュータで行い可視化はできる。
2)動的なモデルを構成するための、要素の候補は、統計データから選ぶことはできる。
3)最後に、モデルを構築して、データ自身に、意味づけをすることは、解析者の能力
簡単に言うと、エクセルを使って、グラフ化などはできる。
でも、そのデータを読み取り、モデル化するのは、エクセルでなく、人の能力。
ビッグデータ処理についても、解析可能な人の為のツールでしかないのに、、、、
しかし、解析をできる人は、日常さまざまな解析をしているので、Methodを持っている。
結局、ビッグデータを、その裏付けに使っているだけ。。。
その現状が理解されていない。
その理由は簡単、ツールを研究している人や、ツールを開発している人の仕事がなくなるから、
段々、コンピュータの分野も、本質的な部分から離れた、つxらないお祭りが増えてきた。
peace.
0 件のコメント:
コメントを投稿