AI

Artificial Intelligence
人工知能

私見であるが、"AI"は、発明されたのではなく発見されたと認識するのが正しい。
なぜなら、"AI"というのは、最近誕生した考え方ではなく、17世紀にまで遡ることができるからだ。(当時はそれを人工知能とは呼ばなかったが)

そしてこれは、ある意味、人間の脳の仕組みを追求する学問でもあった。
人間は、いったいどのように情報を処理して、判断を決定しているのか、それがわかれば、それを計算機にやらせることで、人間が楽をできるのではないか、と考えたのである。

"AI"(人工知能)という言葉が生まれたのは1950年代なのだが、研究が始まっても、人間の脳が行っていることを計算機に実行させるのは全く不可能なことに思えた。
有り体に言えば、色々試したのだが全く役に立たず、人間の仕事の肩代わりなど夢物語だったのだ。

ところが、1990年代になって、脳神経機能の研究進展と計算機の処理速度の飛躍的に向上により、人間の脳の仕組みとは厳密には同じではないにしろ、「人工知能」というものが使い物になり始めた。(人間が何年もかかるような作業を計算機は瞬時にやってのけるようになったのだ。)

20世紀が終わる頃、人間の脳をモデルとした「ファジー(あいまい)理論」「ニューラルネットワーク(神経網)理論」を経て、純数理工学で発展していた「ディープ・ラーニング(深層学習)」が加わって、新しい"Ai"(人工知能)が誕生した。
それまでの機械学習は、対象の「特徴」が何であるかを人間が与えていたが、ディープラーニングは、予め「特徴」を教えていなくとも。多量の対象データから自分で特徴量を見つけ出すという特性を持っていた。

この「与える情報が多いほど、学習効果が向上する」という利点は、時期を同じくして登場した「人間」の手に負えない巨大情報("big data")を扱う上で適任だった。
つまり、発展途上の"AI"が、"IoT"から発生する"big data"を利用するのに最適な技術であることが発見されたのだ。

ここに、"IoT" → "big data" → "AI" という連鎖が生まれた。(この三つが現ITの三本柱である。)

ところが、自己学習という特技は、"big data"の解析に画期的効果を上げたかわりに、困った問題も引き起こした。
"AI"が分析した結果の「根拠」が人間にわからない、ということだ。

"AI"はこれこれと分析しているが、その結論はいったいどうやって出てきたんだ? という問題である。

これは、非常に近い将来、"big data"を解析した結果を人間が利用するとき、その妥当性を人間が判断できないことを意味する。
ゆゆしき事態だ、と心配する人がいるだろう。
次回、アルゴリズムに続く。