United Statesからアクセスされていますが、言語設定をEnglishに切り替えますか?
Switch to English site
Skip to main content

昨今、ほぼ毎日何かしら人工知能 (AI) に関連したニュースが取り上げられています。こうしたニュースの記者は、何か特別な期待、ある種の畏敬の念、また恐怖の対象として、AIを捉えているように見えます。この分野の、特にここ10年での目覚ましい発展は、いくら強調してもし過ぎることはないでしょう。

しかし、すべてのテクノロジーには欠点や限界があり、実使用上で、コスト効率の高いソリューションにするために、技術者はある程度の妥協を受け入れなくてはいけません。そしてそれはAIも例外ではありません。

この記事では、AIの成功物語の裏側を調べ、AI技術の限界領域を探ります。それにより、最終的には単なる計算ツールにすぎない、いわゆる「AIソリューション」を、より客観的に評価する視点を得ることができるでしょう。

AIの起源

「人工知能」という言葉、厳密には何を意味しているのでしょうか?このニュアンスを理解するには、少し過去を振り返る必要があります。(ひと昔前の低予算SF映画で過去を回想する時のような画面揺れエフェクトを想像し、過去を回想してみましょう。)

それは1956 年の夏、ここは米国ニューハンプシャー州のダートマス大学です。とある研究棟、数学科のある最上階にて、数学者とコンピューター学者のグループが何かの討論をしています。

「原理的に言えば、学習やその他のあらゆる知能を、非常に正確に記述できる。ゆえに機械でもそれをシミュレートすることが出来る」

そう訴えるのは若いジョン・マッカーシー教授。彼のこの命題についての議論が展開されているようです。

Dartmouth Conference Participants 1956

1956年8月のダートマス会議参加者
左から右: Oliver Selfridge、Nathaniel Rochester、Ray Solomonoff、Marvin Minsky、Trenchard More、John McCarthy、Claude Shannon

8週間の議論と深い考察により、現在私たちが知るAIの大まかな概念が生まれました。その後の数年間で、2つの主要な研究領域が誕生しました。

1つ目は「エキスパートシステム」アプローチ。これは「推論エンジン」を使用して、システムが実行するように設計されたタスクに関するデータプール (「知識ベース」と呼ばれる) にシンボルベースの論理的推論のヒューリスティック(いつも正解するとは限らないが、おおむね正解するという直感的な思考方法)を実現します。

2つ目は、人工ニューラルネットワークを使用して生物の脳の動作をエミュレートしようとしました。 

エキスパートシステム

Expert systemsは、「エキスパートシステムの父」Edward Feigenbaum.の主導で、1965年にStanford Heuristic Programming Projectで初めて大きな成功を遂げました。

その最初期、2つの別々のエキスパートシステムが構築されました。一つは化学薬品の分析と識別に特化した「Dendral」で、世界初のエキスパートシステムだと考えられています。そしてもう一つ、「MYCIN」は Dendral から派生したもので、感染を引き起こす細菌を特定し、適切な抗生物質を推奨するために使用されました。限られた (しかし深い) 知識の基盤に焦点を当てることで、これらは AI ソフトウェアの最初の成功した応用例となりました。

エキスパートシステムの絶頂期は1980年代に訪れました。フォーチュン500の企業の3分の2が何らかの形でエキスパートシステムを使用していました。エキスパートシステムへの関心は国際的に高まり、世界中で多くの研究資金が投入されました。しかし、知識ベースの管理と維持、およびエキスパートの知識を適切に活用するルール作りには困難が伴いました。最終的に、その宣伝文句の誇大化とは裏腹に、より一般的用途へのAI活用の明確な方法が確立できずに、その期待を裏切り続けたエキスパートシステムの研究は、1990年代初頭までに下火に。いわゆる「AIの冬」に突入することになりました。

人工ニューラルネットワーク

人工ニューラルネットワーク陣営では、1958年7月に米国海軍研究曲が最初の活用事例を発表しました。コーネル大学の心理学者フランク ローゼンブラットは、米国海軍からの資金援助でパーセプトロンを開発しました。彼はこれを「パターン認識装置」と表現しました。重量約5トンのこの機械には、網膜として機能する 400 個の光センサーがあり、約1,000個の「ニューロン」にデータを送信して処理を行い、単一の出力を生成します。しかし、ローゼンブラットの野望は当時のコンピューティング処理能力の貧弱さによって阻まれ、すぐに行き詰まってしまいました。彼は就任論文で「ネットワークの接続数が増えると、従来のデジタル コンピューターの負荷はすぐに過剰になります」と認めています。

Frank Rosenblatt with the perceptron

1958年、Frank Rosenblattとパーセプトロン

1960年代、AIに対する楽観的な見方が広がり、米国と英国の政府機関は投機的な研究に資金を投入しました。しかし1970年代には AI 研究が十分な期待に応えられず、このトレンドは消え去りました。そしてAIは最初の冬を迎えていました。

第三の波

30年にわたるムーアの法則の結果、コンピュータが1秒間に実行できる計算の数はおよそ1,000万倍に増加しました。2000年代初頭、この余分な処理能力はすべて、SLAM(地図作成および自己位置推定) 等のアプリケーションで記号推論をの新アルゴリズム用に活用され始めました。  これは、移動ロボットは周囲を探索しながら、(ロボットが位置を特定できる) マップを段階的に構築するものです。

その後の10年間でさらに勢いが増し、大規模なデータセットから学習する新しいDNN:ディープ ニューラルネットワークが登場しました。誇大広告とともに、いくつかの驚くべき成果がありました。  そのハイライトは次のとおりです。  2005年、スタンフォード大学のチームが、リハーサルなしのオフロード トレイルで211kmを自律走行してDARPAグランド チャレンジで優勝しました。  2011年には、IBMのWatsonがクイズ番組「Jeopardy!」で優勝しました。  2015年、Google DeepMind社の囲碁AI「Alphago」は囲碁の世界チャンピオンに勝利しました。  その後、DeepMindは オンラインゲームStarCraft IIで人間に勝利する一方で、別のチームがタンパク質の構造予測し、医療面の優れた成果をあげています。

DeepMind's AlphaGo beating world champion Lee Sedol

囲碁世界チャンピオンのLee Sedolに勝利するDeepMindの囲碁AI「AlphaGo」

これらの輝かしい成功にも関わらず、AI業界の地平線には暗雲が立ち込めており、近い将来 AIは再び ガートナーのハイプサイクルの谷底に陥る可能性があり、その深刻さによっては、また冬の時代が来るかもしれません。

迫り来る暗雲

AI業界に影を落とすものは何でしょうか? 近い将来、AI研究を深刻に悩ませる 2つの主要なベクトルが出会うと思います。

1つ目のベクトルは、ディープラーニングの現実的な適用範囲の限界点です。

2つ目は、改善効果減少による演算コストの高騰です。

これらの問題をさらに悪化させているのは、「上昇するしかない」という大衆の過剰な期待です。

境界線

期待に鼻息を荒くするジャーナリストがほぼ漏れなく見落としているAI の重要な課題の1つは、AIの成功事例の要因は次の2つのいずれか:

失敗時のコストが十分に低く、誰も気にしない程度である」

「AI制御のどこかしらに人間が関与している」

のどちらかです。

例えば、ロボットの芝刈り機や掃除機が地面の一部を刈り損ねても、それはちょっとしたイライラで済みます。 Webページの広告表示AIシステムが、あなたの興味の範囲をはるかに超えたものを表示しても、これも大した問題ではありません。

しかし、何か問題が発生した場合に生命や手足が危険にさらされるケースの場合、人間がループに参加する必要があります。このため、量産車に導入されている自動運転システムはすべて(マーケティングの誇大宣伝にもかかわらず)レベル2(運転手の監視下で動作)であり、人間のドライバーはハンドルから手を離さず十分に注意しながら、システム故障の場合にはすぐに運転を引き継ぐ必要があります。そして、システム故障時にうまく運転を引継げずに死亡事故に繋がるケースも複数発生しています。

つまり、今後もシステム故障は起こるものであり、AIの普及が進むにつれて、一つの故障が何百万人もの人々に悪影響を及ぼす可能性があるということです。 AI技術コミュニティーが、これらの故障事例を収集し、それらの潜在的なリスクを露わにすることは、十分に懸念されることです。

AIの故障を公言される事は当然恥ずかしいものですし、法的問題に発展する可能性もあります。しかし、あらゆるAI技術に対するユーザの信頼を失墜する脅威に比べれば、故障事例を正直に公開した方が、AI業界にとってメリットが大きいと言えます。

大きな問題の1つは、ほとんどのAIのニューラル ネットワーク技術が原因をわかりにくくするような方法で失敗することが多く、そのため研究者にとって失敗モードが謎のままになってしまうことです。それを念頭に置いて、確認された失敗ケースをいくつか整理してみましょう。

バイアス(偏見や思い込み)

自由を訴える活動的な市民がAIに対して抱く疑念は、重要な決定、例えば、誰に大金の権利があるか?、誰が刑務所に入るべきか?誰が医療を受けることができるか?といった判断をAIに委ねてしまうケースが増えていることです。これらの決定におけるバイアスは、多数の人々に深刻な社会的影響を及ぼす可能性があります。

おそらく最も明確化されているバイアスの1つは、肌の色が濃い人に対して顔認識システムの精度が低いことです。これは非常に現実的な悪影響につながる可能性があります。

医療においても、患者に関する誤った見解・人種的偏見により、黒人患者は重症度の低い白人患者に比べて集中治療プログラムを受けられなくなっています。 このアルゴリズムは、医療コストが高い人々が最も病気の重い患者であり、そのため最も治療を必要としている患者であると仮定しています。しかし、アルゴリズムの外の大前提として、黒人患者は保険料が少ない傾向にあり、高額な費用を蓄積する可能性は低い。

このバイアスの背後に悪意のある意図があることは非常に珍しいことですが、その影響は非常に広範なものになり、UC Berkelyは、政府、企業、その他のグループが使用するAIソフトウェアのバイアスを検出し、修正するために取り組むことができるいくつかの基本的なステップを示すプレイブックを作成しました。

破滅的忘却

破滅的忘却 (別名、破滅的忘却) とは、AIが新しい学習を行うと、既学習済み情報を完全に忘れてしまう事象の事です。つまり、基本的にAIは、古い知識が新しい学習によって上書きされてしまいます。

手っ取り早い解決策としては、何か新しいことを学ぶときに古いデータも含め再トレーニング(リプレイ)することです。このリプレイにより破滅的忘却をある程度解決できますが、以前に学習したタスクを都度都度再トレーニングするのは非常に非効率的であり、保存されるデータの量は管理不能なレベルになります。

AIの「継続学習」を実現する上で、この破壊的忘却問題のスマートなソリューションが求められています。

脆弱性

ニューラルネットワークが正しく識別できるオブジェクト (車や子猫など) の画像を90度回転させ、その画像をAIで再度認識させてみましょう。これを行ったある研究では、97パーセントの確率でAIはオブジェクトを認識できなかったことがわかりました。3歳児でも理解できそうな回転識別ですが、AIでは明示的に教えられなければ、認識させる事が出来ません。これはAIの脆弱性の一例であり、既知タスクで優れた成績を収めるAIですが、未知の領域 (敵対的入力と呼ばれる) に入ると、予期しない方法で壊れます。

脆弱性は、非常に小さな変更 (海外コミュニティでは「perturbation(摂動:せつどう)」とも呼ばれる) によって引き起こされる可能性があり、画像上の 1 つのピクセルを変更すると、AI が船を車と認識したり、馬をカエルと認識したりすることがあります。これが問題になり得る分野として医療画像が考えられます。  ディープラーニングの精度がいかに高いかは多くの報道がなされてきましたが、スキャン画像に人間の目には見えないほどのわずかな変更を加えると、100%の確率でがん誤診につながる可能性があります。

不明瞭

AIが患者の病名を”がん”と誤診したり、誰かの犯罪を誤告発する理由を説明すると、多くの法的、医学的、その他の歪みからもたらされた可能性があります。前述のように、期待通り機能するAIでも、その結論に至る方法はブラックボックスです。この事は、一般の人々にとってのAIに対する信頼性に大きく影響する可能性があります。そこで、ボックスの中身を明らかにしようとする試みが進行中です。

計算コスト

フランク・ローゼンブラット氏のように、今日のディープラーニング研究者は、収穫逓減(投資の増分にリターンが追い付かない状態)を追い求めながら、ツールが達成できる限界に近づいているのかもしれません。一例として、2012年に、GPUによるディープラーニングで画像認識システムのトレーニングを実際に示してくれた最初のモデルである AlexNetは、2つの GPUを使用して5日間トレーニングされました。2018年までに、別のモデルである NASNet-Aは AlexNetのエラー率を半分に削減しましたが、そのために 1,000 倍以上の計算能力を使用しました。

ディープラーニングモデルは過剰にパラメータ化される傾向があり、つまり、トレーニング用のデータ ポイントよりも多くのパラメータがあります。ディープラーニングは、パラメータをランダムに初期化し、その後、確率的勾配降下法と呼ばれる方法を使用して、データに適合するようにパラメータのセットを反復的に調整することで、データの過剰適合を回避します。これにより、作成されたモデルが適切に一般化されます。残念ながら、この柔軟性は計算コストがかかります。

このコストの理由の一部は、すべての統計モデルに当てはまります。つまり、パフォーマンスを k倍向上させるには、少なくとも kの2乗倍超のデータポイントを使用してモデルをトレーニングする必要があります。この時、この計算コストの大部分は、過剰なパラメータ化によるものです。計算すると、これは改善のための計算コストが少なくとも kの4乗倍であることを意味します。この指数は非常に高価です。10倍の改善には、少なくとも 10,000倍の計算量の増加が必要です。

ムーアの法則はここでは機能しません。AlexNetとNASNet-A で使用されるコンピューティングの 1,000 倍の違いを実現するには、ハードウェアの改善によってもたらされた改善は 6 倍のみであり、残りはより多くのプロセッサを使用し、それらをより長く実行することでもたらされました。

これを金銭的に置換えて考えると、OpenAIGPT-3と呼ばれる高度なディープラーニング言語システムを400万ドル以上のコストでトレーニングしたことを考慮してください。システムを実装したときに間違いを犯したとわかっていたにもかかわらず、彼らはそれを修正しませんでした

次に、Google の子会社である DeepMind がありました。彼らが 囲碁AI「AlphaGo」をトレーニングしたとき、3,500万ドルのコストがかかったと推定されています。このような漸進的な改善にかかるコストは、一般的に企業にとって簡単に負担できるものではありません。

最終的にどうなる?

AI業界の多くの人は、現在の軌道がラインの終端のバッファーで急速に進んでいるという理由だけでも、状況が変わる必要があることを知っています。これはすでに、より効率的なアルゴリズムと異なるアプローチの研究につながっています。

たとえば、ディープラーニングは驚異的な進歩を遂げ、エキスパート システムのアプローチを完全に打ち負かしているように見えますが、実際には結果はそれほど単純ではありません。

ルービックキューブを操作して解くことで話題になった OpenAIのロボットハンドを考えてみましょう。このロボットはニューラルネットとシンボリックAIを使用しました。これは、ニューラルネットを知覚に、シンボリックAIを推論に使用する新しいタイプのニューロシンボリックシステムの 1 つであり、効率性と説明可能性の両方でメリットをもたらす可能性のあるハイブリッドアプローチです。

そして振り子は元に戻ります。将来のAIシステムは、破滅的忘却の対策で、あらかじめ何を学習すべきか、結局、専門家に再度頼る事になるかもしれません。

将来、より効率的な新しい手法が開発されると私は確信しています。ただ問題は、その手法の発見が、次の「AIの冬」よりも十分早い時期であるかどうかです。その答えは、私たちが見ている間に明らかになるでしょう。

Mark completed his Electronic Engineering degree in 1991 and worked in real-time digital signal processing applications engineering for a number of years, before moving into technical marketing.

コメント