データマイニング

Data mining
大量データ網羅的分析手法

様々な手段を用いて収集、蓄積された情報を、統計学パターン認識などの解析を網羅的に実施し、有用な情報を抽出する技術のこと。
日本語で無理に言うより、「データマイニング」で通用するので、覚えておいて損はない。

人類の歴史の中で、組織が生まれると、組織の拡大に伴い組織が管理する情報は必然的に増大してきた。
近代以前は、基本的にその情報を捌いて利用し、問題発生の際は情報を解析して、解決案を模索し、それを実現するのは「人間」だった。
だから、情報量が人間の手に負えなくなると、組織はそこで拡大が停滞し、それを仕方がないと受け入れるしかなかった。

しかし、1960年代を境に、計算機技術が飛躍的進歩を始めると、様相が変わる。
膨大な情報を分析することを、人間(個人)が行う必要がなくなったからだ。
特に1980年代、パソコンが普及し始めると、組織の末端ですら情報処理を簡単に実施することができるようになった。
(組織で仕事をしたことがある人なら、Excelを使えない職場でいったい何ができるか考えてみるといい。)
パソコンの表計算だって、立派なデータマイニングなのである。

組織の末端で既に情報処理が電子化されれば、その集積や蓄積を分析する技術も計算機にやらせるのは当たり前の成り行きである。
計算機技術におけるデータマイニングも1960年代から研究が始まった。
計算機の力を借りると、人間個人では手に負えない量の情報も管理し、利用できるようになっていった。

しかし、極最近になって、"big data"の規模が指数関数的に増大するようになって、従来の技術ではその管理が危機を迎えた。

そこで、統計、パターン認識を数理学的に研究し、これを実施させるのに非常に適した技術があることを発見した。
これが、"AI"と呼ばれる。
次回、"AI"に続く。