United Statesからアクセスされていますが、言語設定をEnglishに切り替えますか?
Switch to English site
Skip to main content

AIってそんなに素晴らしいの?

近年、過剰に加熱した人工知能についての論調がひと段落しつつあります。最も注目度高いAI自動運転の世界を見ても、メーカー発表の夢物語に疑問を抱く人が増えてきました。ある程度の高齢者なら、「あー、また大風呂敷を」と感じているかもしれません。

Atlas the running robot二足歩行ランニングロボットのAtlas(アトラス)
画像: ボストンダイナミクス社

ハイプサイクル(誇大広告サイクル)

他の新技術とは異なり、「人工知能」や「ロボット工学」は過去に何度かの「誇大広告サイクル」を経験しています。つまりその技術の可能性に対する過剰な期待、急速な開発投資、それに続く現実とのギャップ、そして次の「ブレークスルー」までの失望期 (英語では「AIの冬」と言われています) です。

例えば「飛行機の発明」の場合、飛行技術の確立時期は成功から始まります。ライト兄弟の飛行成功でその技術の流行が幕を開けました。さほど遠くには飛びませんでしたが、技術者が描いていた夢が現実的な形となり、一般大衆に感銘を与えました。そして先見の明のある人達が、飛行機による長距離大量輸送が切り開く夢のような世界を語り始めました。当初は、多少誇大広告のような言説もあったかもしれませんが、その間も、飛行機開発の技術は目覚ましく発展し、現代の超音速コンコルドや垂直離着陸機(VTOL)の軍用機までに至りました。「通信技術」も同様です。1950年代の簡素な音声通話ネットワークから、僅か50年足らずでスマートフォンとインターネットに移行しました。

しかしAIについてはどうでしょう?1920年代に想像された機能を備えたAIロボットはまだ登場していません。

ロボットの知能の過去と現在

英国最初のヒューマノイドロボットは1928年のロボット「Eric(エリック)」と言われています。残念ながら、オリジナルのEricは既に残存しておらず、数年前にロンドン科学博物館向けに作られたレプリカのビデオがあるだけです:

レプリカ版ではEricが何を行えるかをデモする事を目的にしているため、オリジナルのモーター、滑車、クラッチ機構は、現代の電子機器とサーボモーターに置き換えられました。当然ですが、オリジナル版には動画のような電子頭脳も音声合成装置もありませんでした。Ericは歩くことさえできませんでした。

ではヒューマノイドロボットはどこまで進歩したのでしょうか? 次のビデオは、2020年末に動作しているBoston Dynamics社製ロボット「Atlas(アトラス)」 とその仲間たちです:

如何でしょう?アトラスは明らかにEricよりも大幅に進歩しています。この動き。とても…人間的です。残念ながら、これは人工知能で動いているわけではありません。これらのダンスの振付けは全て人間のプログラミングによるものです。だからといって、ここにコンピュータ処理能力が利用されていないかというと、そうではありません。ロボットは一般に、各関節のセンサーやモーター制御をコンピューターを使って駆動させます。おそらくPIDアルゴリズムを使用します。センサーは、基本的なシャフト回転 (直交) エンコーダーの場合もあれば、手足の動きを直接監視するための慣性計測ユニット (IMU) と呼ばれる3軸加速度計/ジャイロスコープ デバイスである場合もあります。

アトラスは 28 個の関節を持ち、油圧モーターを使用してその重い体をスムーズかつ正確に動かすことができます。しかし、その自然な動きを実現するには、非常に洗練された運動学アルゴリズムと、もちろん、より強力なコンピューターが必要です。もちろん、すべてリアルタイムで動作します。アトラスが環境と「対話」できるように、カメラと Lidar も取り付けられています。

アトラスがエリックよりもはるかに進んでいることは明らかですが、もしアトラスを1928年にタイムスリップさせ、エリックの聴衆達に見せつけたら、彼らはロボット工学の100年超の進歩に圧倒されるでしょうか? むしろ大して驚かず、しばらく見た後「それで?」と言うのではないでしょうか?

人工知能(AI:Artificial Intelligence)

私たち人間は、「ロボット」という概念に対していくぶん非論理的で感情的な反応をとることがあります。アトラスのダンスを見たほとんどの人は、「素晴らしい動きだけど、ターミネーターには程遠いないなぁ」と感じます。

が、その一方で「人工知能」「AI搭載」などの言葉が加わると、突然、来年あたりには運転手ロボットが私達の乗った車を安全に運転してくれると感じてしまいます。

AIは、少なくとも過去1世紀にわたって、素人から科学者至るまで様々な非現実的な期待に屈してきた技術トレンドと言えます。 おそらく、「人口知能」という響きに、「私たちと同等のものを人工的に作る」という概念が含まれているからでしょう。

1930年代、核物理学や原子核分裂について知っている人はほんの一握りでした。このニッチな技術が10年以内に原子爆弾という大規模な破壊力を持つ兵器になると予見できていた人は、もっと極々少数でした。が、その少数がイメージした通りに世界は変わっていきました。ロボットのエリックが登場して以来、機械化人間を作ることは誰もが望んでいること(あるいは恐れていること)で、そんなに大した事はないだろう、と思われてきました。しかしその結果は散々で、人間自身の自然な脳の働きについて、私たちの無知さを自覚され続けました。自然な知能のような複雑なものを人工的に作る事、そもそもそれがどのように機能するかをほとんど理解せずに作ろうとする試みは、最終的には失敗する運命にあります。 

第1のサイクル

1932年、米国コロンビア大学の心理学者エドワード・ソーンダイクは、人間の学習は脳内のニューロン間の接続の未知の特性から成り立っていると示唆しました。 その後、1949年に、別の心理学者であるドナルド・ヘブは、学習とは、関連する接続間で誘発されるニューロン発火の確率(重み)を増やすことによって、特定の神経活動パターンを強化することと特に関係していると仮定しました。 そのため、今では人工脳技術に関わる研究者は、ハードウェアで模倣可能な人間バージョンのモデルがあると信じていました。このニューラルネットワークに基づく AIへのアプローチはコネクショニズムとして知られるようになり、「ボトムアップ」方式などとも呼ばれます。

脳の働きを説明する別の「トップダウン」アプローチも、同時期に注目を集めました。心の計算理論 (CTM:Computational theory of mind) として知られるこの理論は、人間の心が本質的には複雑なコンピュータプログラムであるとする理論で、心の状態は単なる情報処理の結果であり、脳はコンピュータによってモデル化できる物理的なシステムであるとされています。1936年、アラン・チューリングは「チューリングマシン」を発明しました。  これは、あらゆる計算を実行できる物理デバイスの数学モデルです。計算論者は、これを自然知能の見解をサポートするプラットフォームとして使用しました。  チューリングは、これを人工知能を実現する方法と見なしていました。

1950年代を通じて、CTM に関する多くの研究が行われました。これは主に、理論上の計算機械が実用的なハードウェア (コンピューター) に進化し、その上で最初の「インテリジェント」プログラムを実行できるようになったためです。最初の「AI」プログラムは、1951 年にマンチェスター大学の Ferranti Mark 1 で実行されました。最終的には、ボードゲームの「チェッカー」で人間と同等なペースで対戦できる程度にまでなりました。人間の対戦相手とゲームをプレイすることは、コンピューターの「知能」の進歩を示す一般的で標準的な方法になりました。 1996年にはIBMが開発したチェス専用AI「Deep Blue」が世界チャンピオンと同等の対戦を演じ、最近では2015年には 囲碁AI「AlphaGo」が世界チャンピオンに勝利しました。

一方、このすべての計算活動が行われている間、コネクショニズムは 1956年の「パーセプトロン」の発明に注目するようになりました。「パーセプトロン」は人工ニューロンやニューラルネットワークに基づく概念で、AIの誇大広告はこの頃から本格的に始まりました。私が以前投稿したDSPの記事では、単一のパーセプトロン ニューロンの簡単な実装について紹介しています。これは、入力されたバイナリパターンが、以前に「学習」したパターンと一致する場合にTrueを出力をするため、「線形二値分類器」として知られています。そのパターンは、入力の「重み」の値として保持されます。スマートなビットは、デバイスが自ら教えることができることです。つまり、入力に最初に望ましいパターンを適用すると、重量値を導き出すことができます。エラー信号 (期待される出力と実際の出力の差) は、エラーがゼロになるまで重みを調整するために使用されます。

パーセプトロンマシンの主な活用事例は、光学文字認識 (OCR) です。マシンには、アルファベットの各文字の認識用に1個ずつ合計で26個と、数字を認識するためにさらに10個のニューロンが必要です。光学スキャナは、フォトトランジスタの 8 x 8 マトリックスで構成でき、各ニューロンに合計64個の重み付き入力が必要です。これは絶好のDSPプロジェクトと言えます。

この期間から1970年代初頭まで、政府資金によるAI研究は言語処理に重点が置かれていました。パーセプトロンネットワークは、自動言語翻訳の最善の方法と見なされていたからです。。しかし言語は想像以上に複雑で、画像パターン認識程度で到底カバーできるものでないとわかるまでに、膨大な資金が費やされました。そのため、最初の「AIの冬」は1980年代まで続き、コネクショニストのAIへの期待は薄れていくことになりました。

2番目のサイクル

次のハイプサイクルは、たとえば人間の医師の診断能力をエミュレートするように、従来のコンピューターをプログラミングして「エキスパートシステム」として動作させるアプローチの試みでした。このプログラムは、「病気やその他の病状に関連する症状などのすべての事実、アサーション、ルールを含む知識ベース」と、「患者のデータを取り込んでデータベースを照会する推論エンジン」の 2 つの部分で構成されています。従来の手続き型コードとはまったく異なるアプローチで動作するこれらのエキスパートシステムの作成のために、プログラミング言語「LISP」と 「Prolog」が新規に開発されました。ホームPC「Sinclair Spectrum」版のPrologさえありました。

エキスパートシステムまたは知識ベースシステムの開発は1990年代まで続きましたが、人間の専門知識を「知識ベース」に転送する事の困難さと膨大な時間のため、人工知能には程遠いと、商業利用への期待は次第に減少していきました。知識ベースは、メモリ空間の点では膨大なサイズであるにもかかわらず、狭い主題領域に限定されており、地元の開業医に代わる様なRoboGP(バーチャル町医者)は登場しませんでした。その上、知識ベースの管理の面でも問題がありました。  自動的に「学習」されてしまった誤情報や怪しいルールを除去するには、慎重な監査が必要でした。そして再び「AIの冬」が訪れ、それは2000年代半ばまで続くことになりました。

第3のサイクル

1970年代に、人工ニューロンの単一の「層」では、各オブジェクトが明確に定義され、各活性化関数の前のニューロン出力が一意であることを確認するためにチェックされた、少数の単純なオブジェクトしか分類できないことが認識されました。別の「隠れた」ニューロン層を追加することで、はるかに複雑な分類が可能になりました。実際、多くの層を使用でき、活性化関数は最終出力にのみ適用されます。複数の層を持つニューラルネットワークは、現在「ディープラーニング」(DL) と呼ばれているもののプラットフォームにあたります。ついに、誰もが(再び)人間の脳の複雑さを持つ機械、知覚力のあるロボットなどを作ることができると考えました。新世代のマルチコアプロセッサをベースに、ますます大規模なネットワークが構築されています。コネクショニズムが再び流行しだしました。

しかしハードウェア技術のあらゆる改善にもかかわらず、2000年代半ばまでに、ディープラーニングでは「考える」ロボットを作るのにまだ不十分であることが明らかになり、いつもの「AIの冬」の幻滅感が漂い始めました。それは、まだまだ汎用人工知能にはほど遠いものでした。しかし、DARPA Grand Challenge of 2007で自動運転車のプロトタイプのデモンストレーションが成功したため、生産ドライバレス車の開発に大量の研究資金が用意されました。ロボットカーの重要な部分は、物体を「見て」、リアルタイムで正しく分類するような視覚システムです。ディープラーニングに基づく人工ニューラル ネットワーク (ANN) の高度な物体認識および分類機能が求められるのは明らかです。

「冬がまた来る」

2015年頃から、自動車メーカー各社は「今後1,2年以内に」自動運転車を導入すると宣言してきました。本記事執筆は2021年ですが、大した事は起きていません。自動運転プロジェクトは最初のハードルで失敗しました。  それは、車外の物体を99%の精度で正しく分類できるコンピュータービジョンシステムの開発です。これは明確な安全要件です。 現在、視覚用のDLネットワークは、車、歩行者、自転車など、撮影された物体が何であるかをタグ付けした膨大な量の画像を使用して「トレーニング」されています。このトレーニングプログラムの出力ファイルには、ネットワーク内のすべてのニューロン接続のすべての重みが含まれています。

通常、このネットワークは全く異なる画像セットから物体を分類するテストを『ラボ内で』行います。多くの場合、95 %の成功率が記録されるため、ビデオカメラからのライブ画像フィードでシステムを通過します。どうなると思いますか?数分内の分類成功率は50%を下回っていまいます。

これは当然です。トレーニングアルゴリズムは、画像圧縮アルゴリズムのように、あらゆる角度や距離から見たあらゆる色のあらゆる車を認識するために必要な最小限の情報だけを抽出してコード化しようとします。しかし、これではいけません。車の窓から見える景色は無限に多様であり、100%に近い分類精度を達成するには、トレーニングデータセットにほぼ無限の数の画像を含める必要があると言うが、偽ざる現実です。ディープラーニングAIコンピューターは、囲碁などのゲームで人間のエキスパートに勝つようなピンポイントな用途では非常に印象的かもしれませんが、それからちょっとでも逸れた事はできません。もっと言えば、ボードゲームをプレイしているマシンである自覚もありません。ああ、また少し肌寒くなってきました...

いったい、AIロボットの脳に欠けているものは何なんだろう?それは常識

人間の脳は、その時点で感知したものに反応するだけではありません。センサー情報は、以前に得た知識、つまりいわゆる経験と組み合わされて、次に何をすべきかを決定します。常識とは何か、誰もが知っています。沸かしたてのやかんに触るとやけどしてしまいますよね。学校の前を運転しているときは、スピードを落としますよね。実際、記憶にはこうした知恵が詰まっており、自動的に取り出されています。

どうすればコンピューターに「常識」を与えることができるでしょうか。

極々自然な常識の一部は、遺伝的継承によって誕生時に組み込まれていることは間違いありません。機械にはすでに類似したものがあります。  電源投入時にブートロードされるオペレーティングシステムがそれです。

しかし、経験は試行錯誤のプロセスによって時間をかけて蓄積(学習)されます。新しい自動運転車が現実世界の運転条件に対処する方法を苦労して学ぶのを待つことはできません。車が道路上で常識を獲得しなければならない場合、正しいことを学習するようにするにはどうすればよいでしょうか。人間と同じように、悪い運転習慣を身につけてしまったりしないでしょうか?おそらく答えは、新しく作られた自動運転の脳に、シミュレーションとそれに続く運転テストで生涯の運転経験を与えることかもしれません。問題は、それが現在DL画像システムのトレーニング方法だということです。そして、それが十分ではないことはわかっています。人工常識の問題は多くの研究活動の対象であり、成功すれば、DL と組み合わせることで、次の「AIの夏」に進むことができるかもしれません。

「ニューロモルフィック・コンピューティング」と「スパイク・ニューラルネットワーク」

現在AI技術者の間で、人間の脳の働きの仕組みを調べ、AIに応用できそうなものがないかを調べるプロジェクトを進行しています。その1つが、自然のニューロンが互いに通信する方法です。メッセージは電流パルスまたは「スパイク」で構成され、スパイク間の時間間隔が情報を伝達するようです。この原理に基づいて構築された「ニューロモルフィックコンピューター」には、「通常の」デジタル コンピューターとはまったく異なるプログラミング方法が必要です。そう、バイナリ デジタル ロジックに代わる新しいアナログ コンポーネントが復活します。重要なコンポーネントは、入力の電流パルス シーケンスのタイミングによって出力抵抗が変わる電子部品「メモリスタ」である可能性があります。不揮発性メモリも備えています。人工ニューロンが自然のニューロンのように見え、動作し始めると、従来のフォン ノイマン アーキテクチャのデジタル コンピューターに比べて処理パフォーマンスと消費電力が大幅に向上するはずです。このようなマシンの物理的サイズとパフォーマンスの比率も、人間の自然な脳に匹敵するようになるはずです。その時期が来るまで、SpiNNaker のようなプロトタイプを使用して、シミュレートされたスパイキング ニューロンを使用して、新しい世代の AI をプログラミングする方法 (これが正しい言葉であれば) を検討することができます。

SpiNNaker is a 1 million neuron Spiking Neural Network Computer
SpiNNaker: 従来の ARM9 プロセッサ コアでエミュレートされた人工スパイキング ニューロンに基づく、100 万ニューロンのスパイキング ニューラル ネットワーク コンピューター。
画像提供: マンチェスター大学

結局AI活用に適したアプリケーションはあるの?

もちろんあります。しかし、「ロボットがすべての人の仕事を奪う」「世界を制覇する」または「優れた頭脳による素早い思考力で私たちのライフスタイルを急速に改善するアイデアの発想」みたいな誇大広告の文句は一旦忘れてください。もし出来たとしても、それはずっと遠い未来の話です。

実は小規模なAIが、一見些細な設計上の問題を何年も解決してきました。たとえば、手に取ると起動するスマートフォンは、小さなトレーニング済みニューラルネットワークを使用して、オンボードの加速度計とジャイロスコープから送られてくる、そのような動きを示す一連のデータを認識します。「示す」という単語に注目してください。スマートフォンはセンサーデータから何が起こっているかを推測しています。稀に、手に取ってもメインプロセッサがオンにならない場合があります。おそらく 20回に1回程度ほど。そのエラー率は低く、失敗したとしても、おそらく気付かないでしょう。

AIは、不特定の様々な形式の値の可能性がある「あいまいな」入力データに基づいて「はい/いいえ」の決定を下すのに最適です。例えとして、1980年代初頭のアプリケーションを思い出しました。ロンドン地下鉄用に設計されたこのアプリケーションは、ホームに沿って撮影された駅のカメラの動画信号を受け取り、ホームの状態を「渋滞」「ほどほど」「空いてる」で判定していました。このネットワークは、おそらく3つのパーセプトロン型ニューロンで構成されていました。出力が何を制御したのかはわかりませんが、駅の改札かもしれません。3つのホームの状態のそれぞれについて、AI が柔軟な「判断」を下す様子がわかります。空と表示されているプラ​​ットフォームに数人がいても、反対にプラットフォームがあまり満員でなくても、実際には問題ではありません。

これらの例は、IoTアプリケーションが AI の恩恵を受ける可能性があることを示唆しています。実際、明らかな安全上の問題がないものなら何でも構いません。危険な動作をする可能性のある無人車両は、明らかにまだAI搭載は現実的ではありません。小規模なAIは、かなり控えめなコンピュータープラットフォームに実装でき、市場には手頃な価格のシステムが多数あります。例えば、RSコンポーネンツでは、NVIDIA Jetson Nano (204-9968) やBeagleBone AI (190-1825) が購入できます。またAdafruit Industriesは、「BrainCraft Machine Learning HAT」というRaspberry Pi 4用拡張ボードをリリースしました。

直近の追加情報:自社設計のデュアル Cortex M0+ コア マイクロコントローラを搭載した Raspberry Pi Pico が、1000円未満で発売されました (212-2162) TensorFlow Liteのポーティングにも対応しています。

小規模プラットフォームで機械学習するコンセプトを「TinyML」といい、エッジアプリケーションを開発するエンジニアの間で人気が高まっています。

カエノラブディティス・エレガンス (C.Elegans)

C.Elegansは、温帯の土壌環境に生息する長さ約 1 mm の透明な線虫です。この取るに足らない生物は、その「脳」と神経系全体が、細胞系譜の面でもゲノム配列の面でも完全に解明されているため、AI 科学者から非常に注目されています。正確に959個の細胞で構成され、そのうち302個はニューロンやその他の神経細胞です。これは、コンピューターでシミュレートできる完全な実験材料生物です。このC.エレガンスの302個の神経細胞をコンピュータシミュレーション上で再現しようとするオープンソースプロジェクト「OpenWorm」が、2011年に設立されました。これはまだ進行中のプロジェクトであり、OpenWormのウェブサイトを通じて誰でも参加できます。1,000億個のニューロンを持つ人間の脳の再現はいつ頃になるのでしょうか?

最後に

ディープラーニングの限界が明らかになるにつれて、私たちは再び「AIの冬」を迎えようとしているのかもしれません。脳の働きに関する理解が飛躍的に向上すれば、おそらくそれを回避できるかもしれません。例えその知識が間もなく得られるとしても、現在の半導体技術はその実現に十分なパフォーマンスなのでしょうか?その答えは量子力学の世界にあるかもしれません。もしそうなら、豪州のロボット研究社 ロドニー・ブルックス氏の予測ブログ的な表現で言い表すなら、NIML (Not In My Lifetime - 生きてるうちには無理) です。

さらに詳しい文献

AI とロボット工学のパイオニアの1人 ロドニー・ブルックス氏は、チュートリアルのようなブログ投稿を掲載した非常に有益な Webサイトを運営しています。特に、2018年の彼の技術予測についての投稿に定期的な更新がついています。これ、誇大広告に惑わされないための非常に有効な視点になります。 

アラン・チューリングが1948年に発表したインテリジェントマシンに関する予言的な論文。

現在の機械学習アプリケーションのセキュリティ、信頼性、脆弱性の問題に関する有用なレビュー。堅牢な機械学習システム: 課題、現在の傾向、展望、今後の道筋。 (2021年)

そこまで読む気のない方は、 Twitterで私の投稿をフォローしておく事をお薦めします。新しい電子機器や関連技術に関する興味深い記事へのリンクを貼ったり、ロボット、宇宙探査、その他の問題に関する投稿を見つけたらリツイートしたりしています。

Engineer, PhD, lecturer, freelance technical writer, blogger & tweeter interested in robots, AI, planetary explorers and all things electronic. STEM ambassador. Designed, built and programmed my first microcomputer in 1976. Still learning, still building, still coding today.

コメント