こちらの記事について、内容・翻訳・視点・長さなど、皆様のご意見をお送りください。今後の記事製作の参考にしたいと思います。
Thank you! Your feedback has been received.
There was a problem submitting your feedback, please try again later.
こちらの記事の感想をお聞かせください。
画像クレジット: Alexa Steinbrück / Better Images of AI / Explainable AI / CC-BY 4.0
私たちはAIによる新時代の到来を目の当たりにすることでしょう。現在のディープラーニング技術(Limited-Memory AI)ではまだ人工汎用知能(AGI: Artificial General Intelligence)を実現できていませんが、突如、生成AIが私たちの仕事をすべて奪い、人間が思考する必要がなくなるでしょう。AIオタクではない一般的な人々は、人工知能分野における最新の「進歩」、通常は「Ground-breaking」と呼ばれるものが学術的ではないメディアで発表された後、すぐに興味を無くしてしまうのではないかと思います。複雑な質問に対する明確な答えを提供可能な一種のインターネット検索ツールであるChatGPTが大々的に発表されるまでは、「コンピュータがチェスのグランドマスターに勝った」や、最近では「コンピュータが囲碁で世界チャンピオンに勝った」といった見出しの記事で、AIの発展が一般的に報道されていました。
Limited-Memory AI
近年、輸送(無人車両)や工場(Industry 4.0)の完全なオートメーションを実現するために、AIシステムを「十分に賢く」するべく、研究が盛んに行われています。人間のオペレーターや監督者が不要になる十分なレベルのオートメーションを実現するための鍵は、センサシステム(通常は撮影システム)と、見たものに特徴づけし、対象に応じて反応できる「脳」の開発にあります。ニューラルネットワークは、関連する限られた範囲のオブジェクトを認識するように「学習」され、この情報を従来のコンピュータシステムに送信することで、制御動作が可能になります。この形態のAIは「ディープラーニング(深層学習)」などと呼ばれていて、基本的には功を奏したパターン認識システムです。このタイプのAIは学習した後は新しいものを何も学ばず、創造的ではないため、人類存続の脅威になることはほとんどありません。このAIは、データの中からパターンを見つけるだけ、つまり、認識するように教えられたオブジェクトを見つけることのみが可能です。大きな問題は、「実行時」に認識エラーが発生した場合、その原因となった訓練済みデータセットの弱点を突き止めることが不可能である点です。例えば、自動運転車のビジョンシステムが常に動く視点とともに、リアルタイムで道路上のあらゆるものを識別しようとする際など、無限の可能性が考えられる環境で作業する際に、100%の信頼性が確保できません。意思決定を導くための「スキル」、「常識」、「ラテラルシンキング」の経験がなく、突発的な状況に対処する能力がありません。このAIが人類を撲滅させてしまう力があると思いますか?その可能性は低いといえます。
生成AI
大規模言語モデル(LLM: Large-Language Model)の開発は、 何年もの間、水面下でひっそりと続けられてきました。この目的は、自然言語を理解するという概念を機械化することあり、発音が悪く、強い訛りがあるトレーニングを受けていないスタッフによって、ロボットに口頭でタスクを実行するように指示することができるようにすることです。それに対し、ロボットはロボットとわからない、人間のような話し方ができるようにする必要があります。これをより進歩させると、機械が感情の状態を識別し、それに応じて反応することができるようになるかもしれません。また、他の用途としては、ある言語から別の言語への信頼性の高い即時翻訳が挙げられます。この基本構造はLimited-Memory AIと同様で、Wikipediaなどのデータベースから収集された膨大なテキストによって学習された、巨大なニューラルネットワークで構成されています。単語全体、単語の一部、フレーズも数値に変換(トークン化)され、その後の処理を高速化し、大容量ストレージの要件を管理可能なレベルに抑えます。このタイプのAIが強力なのは、トークン化された単語には、学習段階で計算された大量のパラメータデータが各トークンに付加されている点です。このデータは、トークンがデータセットに出現する頻度や、その他の単語がペアで出現する頻度などの統計データで構成されています。ChatGPTは、これらのデータすべてを使用して、質問や「プロンプト」、さらには完全なエッセイに対する完璧な答えを出力します。基本的なアルゴリズムは非常にシンプルで、トークンごとに文を構築し、毎回「次にどのような単語がくるべきか?」という質問をしています。もちろん、実際にはそれほど単純ではありませんが、これが基本的な原理です。この初期バージョンでは、入力された質問の単語とこれまでに作成された文を調べ、次にくる可能性が最も高い単語を膨大なデータセットをから探し出します。その後、最も確率の高いトークンが選択される、といったサイクルが繰り返されていました。その結果、かなりフラットで刺激的ではない言葉を使いながら、正確で「安全」な答えを得ることができました。同様の質問をなげかければ、同じ結果が得られます。検索エンジンの結果としては最適ではありますが、あまり「創造的」であるとは言えません。また、あまり「自然」ではありません。このソリューションはシンプルで、天才的な一撃と呼べるものでしたが、結果的には「魔神を瓶から出す(let the genie out of the bottle)」や「パンドラの箱を開く」と言えるものになってしまいました。ただ、AIが常に最も高い確率のトークンを選択するのではなく、低い確率のトークンも選択するようになることで、退屈で繰り返しの多い出力はなくなりました。この機能を慎重に調整していくことで、ロボット的でない、より心地よい文章を作ることができ 、 読者を新鮮な思考へと導いてくれるかもしれません。しかし、AIは何も理解しておらず、アイデアを持っていないということを覚えておいてください。読者であるあなたは人間であり、見えているものをどう解釈するかは、あなた次第です。
ChatGPTは、Generative Pre-trained Transformer 4 (GPT-4)と、マルチモーダル(文字と画像の両方を処理可能)大規模言語モデルに基づいています。GPT-4の詳しい動作について知りたい場合は、Stephen Wolframの本[1]が初めの一歩に最適です。しかし、あなたの自然な脳をクラッシュさせないよう、AI技術と統計数学の基本的な知識から持っておくべきです。また、このAIについて話していくにはいくつか疑問が挙がります。なぜ、このAIが学者や政治家を混乱させ、AIアプリケーションを法律で厳しく規制することを要求したのでしょうか。
良いもの、悪いもの、醜いもの
インターネット上のコンテンツは、大まかに次の3つのカテゴリーに分けられます。教育的ではないにせよ無害で娯楽性を持つ有用な事実データを含む「良いもの」、誤りによるもの、もしくは意図的に誤った情報を含んでいて、理解に悪影響を与える「悪いもの」、不用心な人を欺いたり、騙されやすい人の心を毒したり、現代社会には容認されない犯罪的衝動を満たすために設計された「醜いもの」の3つです。生成AIアプリケーションへの無制限アクセスがウェブ上での有害なコンテンツの大幅に増加させてしまうという大きな懸念があります。それだけではなく、著作物の違法利用やプライバシー、セキュリティの侵害が常態化してしまうでしょう。こういった懸念点から、イーロン・マスク氏などの「技術会のボス」が、世界各国の政府に対して公開書簡に署名し、さらなるAI開発の一時停止を求めています。ディープラーニングのパイオニアであるジェフリー・ヒントンでさえ、将来の懸念点を述べています。
私たちは(再び)絶望的な運命にある
新しいAIの「ブレークスルー」が起こるたびに、メディアを席巻する破滅的な叫びはいつも同じです。
- 大量の雇用が失われ、
- 人工知能はすぐに人類を超え、「彼ら」はもはや私たちを必要としなくなるでしょう…
新技術の創造者が、自分の発見が悪用されることを懸念したのは、このケースが初めてではありません。アルフレッド・ノーベルのダイナマイトや、ロバート・オッペンハイマーの原子爆弾を覚えていますか?しかし、GPT-4を発表した会社であるOpenAIのトップであるサム・アルトマンのような現代のクリエーターが、自社製品に対して政府の規制を要求するのは初めてのことに違いありません。
ヒューマンファクタ
生成AIが非常に面白く、また恐ろしいのは、ロボットに対する考え方にもよりますが、独創的な思考を示しているように見えるためです。これは問題で、今までは一般的に、人間の脳だけが新しい「アイデア」を持つことができると仮定できていましたが、現代ではGPT-4がいくつかの新しい動作を示しました。一部は予想されたものでしたが、多くはそうではありませんでした。もしも、検索エンジンと組み合わせた場合、求める情報が含まれる可能性のあるURLのリストだけではなく、入力に対する回答も得られます。もちろん、これは意図された動作であり、適切に機能し、明確な説明とともに正確な答えを提供できれば素晴しいものだと言えます。また、適切なプロンプトが入力できていれば、ソースコードを書いたり 、あらゆるテーマについてのエッセイを作成したりすることも可能になります。また、ChatGPTの応答は、明るく、自然で、自信に満ちたスタイルのため、非常に 説得力があります。プロの詐欺師がそうであるように、懐疑的な見方ができなくなり、それが真実だと思いたくなります。特に、数回のキー入力だけで、使えるものがすべて付属した答えに到達すると、通常の検索エンジンを使う作業時間を節約できます。ただし、ChatGPTは詐欺師と同様に、「答えがわからない」という応答はできません。その代わりに、答えを「作り上げて」しまうようです。まるで正しいかのように回答が作られていますが、事実上はゴミ同然のものです。開発者はこの効果を「ハルシネーション」と呼び、この大問題であるソフトウェア障害を、人間味がある、という一言で片づけようとしています。これには、「嘘つき」という言葉がお似合いかもしれませんね。 ChatGPTの結果を無批判に受け入れている良い例として、法廷において、馬鹿げた損害賠償請求を正当化しようとする、弁護士への屈辱が挙げられます。ここでの教訓は、コンピュータから出力されたゴミを受け入れてしまうことを避けるために、ユーザーが本当の答えのことを十分に知っておく必要があるということです。理想は、このツールを、すでに心の中にある事実を確認するためだけに使用することです。
大学教授などにとっての大きな懸念点は、学生がこれらのツールを使って事実を調べるだけでなく、エッセイや宿題を「ささっと」作ってしまうことです。内容を理解することを避け、その結果、そもそも学ぶことを避けてしまうことになりかねません。多くの大学では、これが問題にならないとしていますが、指導教員が最新の技術に明るくない場合、どのようにしてChatGPTを使用している生徒を探し出せば良いのでしょうか?最近、とある大学の授業において、学生にエッセイを書かせた際、正確性と関連性を評価するためにChatGPTを使用してもらいました。その結果は非常に面白く、すべてのエッセイに「ハルシネーション」と不正確さが多数含まれていました。偽の文書はもちろん悪用される可能性があり問題ですが、このタイプのソフトウェアは、偽の画像や偽の動画を生成することも可能です。ディープフェイク技術はすでに脅迫者の手に落ちており、ビデオ通話で友人や親戚を装い、お金を引き出すものも出てきました。インターネット上で見たり聞いたり読んだりするものを、誰も信用しない時代が来るのは目に見えます。もし、そんな時代が来た場合、私たちはどうしているのでしょうか?
ここでの結論はシンプルです。生成AIは創造的で、素晴らしいアートや、詩、フィクションを生み出すことができます。しかし、事実を扱う際、最後は人間の脳で判断しなければなりません。これは、自動運転技術の現状に似ています。自動運転のスイッチをオンにしても、手はハンドルの近くにあり、目は前方の道路を見ています。人間という存在は、まだ方程式の一部にいる必要があります。
まとめ
人間社会において、われわれの運命のコントロールを、はるかに優れた知能を持つ機械に委ね続けることになるターニングポイントが訪れるのでしょうか?私たちの持つ既存の技術を徐々に改善していくだけでは、本当の突破を遂げたとは言えません。アルバート・アインシュタインは、古典的な方程式である E=mc2 の考案者でした。これは、核エネルギーの平和的な使用と破壊的な使用の両方の開発に直接つながり、この点が真の突破点と言えます。彼は残りの人生を一般相対性理論に捧げましたが、「あらゆるものへの理論」の追求にはほとんど成功しませんでした。AI分野においては、メモリ制限のあるニューラルネットワークを用いて、誤りのないビジョンシステムを構築しようとしていました。現在では、人間の創造性と思考を不要にする、あらゆる知識の源泉を作ろうとしています。機械が善意的であると仮定すると、このアイデアは魅力的に見えるかもしれませんが、実際そんなことはなく、過去の人間の考えや行動、良いこと、悪いこと、醜いことといった非常に不完全なデータベースに基づいています。ただ、どのような結果になるのかは誰もが予想できているでしょう。この間に、企業は生成AIを完璧にする試みを続け、チャットボットによる攻撃的な出力(人種差別、性差別など)や危険な出力(爆弾の作り方、ナパーム弾の作り方など)を出さないような機能を追加していますが、成功しないでしょう。生成AIの場合、開発者は発見や発明を有益なアプリケーションから最終的に破壊的なものに変える可能性を秘めていますが、未来は私たちの手の内にあります。予期しない振る舞いをする可能性があるソフトウェアを、気軽にインターネット上に公開することは、解毒剤のないウイルスを実験室から流出させるようなものです。難しいことは考えないようにしましょう。
参考文献
[1] 「ChatGPTは何をして、なぜ機能しているのか?」, スティーブン・ウルフラム. (コードのリンク付きのブログ記事としてオンラインでも読むことができます。https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/)
壁にぶつかった場合、ツイッター(X)で私の投稿を見てみてください。新しい電子機器や関連技術に関する興味深い記事のリンクを共有したり、ロボット、宇宙探査、その他の問題についての投稿をリツイートしたりしています。私が投稿した最近のDesignSparkブログ記事を見るには、上の検索ボックスに「billsblog」と入力してください。
コメント