人工知能の簡単な歴史

人工知能の初期の頃、コンピューター科学者はコンピューターで人間の精神の側面を再現しようとしました。これは空想科学小説のような知性のタイプであり、多かれ少なかれ私たちのように考える機械です。このタイプのインテリジェンスは、当然のことながら、了解度と呼ばれます。了解度のあるコンピューターを使用して、精神的行動を推論、学習、判断、知覚、および実行する方法を探ることができます。

了解度に関する初期の研究は、コンピューターで現実世界の一部と(認知科学者の領域からの)精神をモデル化することに焦点を当てていました。これらの実験が60年近く前に行われたことを考えると注目に値します。

インテリジェンスの初期のモデルは、結論に到達するための演繹的推論に焦点を合わせていました。このタイプの最も初期の最もよく知られているAIプログラムの1つは、人間の問題解決スキルを模倣するために1956年に書かれた論理理論家でした。論理理論家はすぐに、Principia Mathematicaの第2章で最初の52の定理のうち38を証明し、実際にその過程で1つの定理を改善しました。初めて、マシンが、この時点まで、知性と創造性を必要とすると考えられていたタスクを実行できることが明確に実証されました。

すぐに、研究は別のタイプの思考、帰納的推論に向けられました。帰納的推論は、科学者がデータを調べてそれを説明するための仮説を立てようとするときに使用するものです。帰納的推論を研究するために、研究者はNASAの研究室で働いている科学者に基づいて認知モデルを作成し、有機化学の知識を使用して有機分子を特定するのを支援しました。 Dendralプログラムは、人工知能、手段、帰納的推論タスク、この場合は分子の識別を達成するための一連の技術またはアルゴリズムの2番目の機能の最初の実際の例でした。

Dendralは、認知モデルと一緒に使用する最初の知識ベース、つまり科学者の知識をキャプチャした一連のif / thenルールも含まれているという点でユニークでした。この形式の知識は、後にエキスパートシステムと呼ばれ ます。単一のプログラムで両方の種類の「インテリジェンス」を利用できるようにすることで、コンピューター科学者は次のように尋ねることができました。彼らは優れた認知スキルを持っていますか、それともより優れた知識を持っていますか?」

1960年代後半までに、その答えは明確になりました。Dendralのパフォーマンスは、ほぼ完全に、専門家から得られた知識の量と質の関数でした。認知モデルは、パフォーマンスの改善とはわずかにしか関連していませんでした。

この認識は、人工知能コミュニティに大きなパラダイムシフトをもたらしました。知識工学は、エキスパートシステムを使用して人間の専門知識の特定の領域をモデル化するための分野として登場しました。そして、彼らが作成したエキスパートシステムは、多くの場合、単一の人間の意思決定者のパフォーマンスを上回りました。この目覚ましい成功は、人工知能コミュニティ、軍隊、業界、投資家、そして人気のある報道機関内のエキスパートシステムに対する大きな熱意を引き起こしました。

エキスパートシステムが商業的に成功するにつれ、研究者はこれらのシステムをモデル化し、問題領域全体でより柔軟にするための技術に注意を向けました。オブジェクト指向設計と階層的オントロジーがAIコミュニティによって開発され、コンピューターコミュニティの他の部分で採用されたのは、この時期でした。今日、階層的オントロジーは知識グラフの中心にあり、近年復活しています。

研究者は、一階述語論理の形式である「生産ルール」として知られる知識表現の形式に落ち着くと、システムが自動的に学習できることを発見しました。つまり、システムは、追加のデータに基づいてパフォーマンスを向上させるために、ルール自体を書き込みまたは書き換えます。Dendralが変更され、実験からの経験的データに基づいて質量分析のルールを学習できるようになりました。

これらのエキスパートシステムは優れていましたが、制限がありました。それらは一般に特定の問題領域に限定されており、複数のもっともらしい代替案と区別したり、構造や統計的相関に関する知識を利用したりすることはできませんでした。これらの問題のいくつかに対処するために、研究者は確実性の要因、つまり特定の事実が真実である可能性を示す数値を追加しました。

AIの2番目のパラダイムシフトの始まりは、研究者が確実性の要因を統計モデルにラップできることに気付いたときに発生しました。統計とベイズ推定を使用して、経験的データからドメインの専門知識をモデル化できます。この時点から、人工知能はますます機械学習によって支配されるようになるでしょう。

ただし、問題があります。ランダムフォレスト、ニューラルネットワーク、GBT(勾配ブーストツリー)などの機械学習手法は正確な結果を生成しますが、それらはほとんど侵入で​​きないブラックボックスです。わかりやすい出力がなければ、機械学習モデルはいくつかの点で従来のモデルよりも有用性が低くなります。たとえば、従来のAIモデルでは、開業医は次のように尋ねる場合があります。

  • モデルがこの間違いを犯したのはなぜですか?
  • モデルに偏りがありますか?
  • 規制順守を実証できますか?
  • モデルがドメインエキスパートと一致しないのはなぜですか?

了解度の欠如は、トレーニングにも影響を及ぼします。モデルが壊れて理由を説明できない場合、修正がより困難になります。さらに例を追加しますか?どんな例?了解度と引き換えに精度の低い予測を受け入れるなど、暫定的に行うことができるいくつかの単純なトレードオフがありますが、機械学習モデルを説明する機能は、AIで達成される次の大きなマイルストーンの1つとして浮上しています。

彼らは歴史が繰り返されると言います。今日のような初期のAI研究は、人間の推論と認知モデルのモデリングに焦点を合わせていました。初期のAI研究者が直面している3つの主要な問題である知識、説明、柔軟性も、機械学習システムに関する現代の議論の中心であり続けています。

知識は現在データの形をとっており、柔軟性の必要性は、データのわずかな摂動が劇的に異なる結果を生み出すニューラルネットワークの脆弱性に見られます。説明性もAI研究者にとって最優先事項として浮上しています。60年後、人間の思考を再現しようとすることから、機械に彼らの考え方を尋ねることに移行したのは、いくぶん皮肉なことです。