ChatGPTの普及を契機にして、様々なジェネレーティヴAIが登場している。それらがどのように発展していくのかを、あれやこれやと使いつつ、新たなものも積極的に試しているのだけれど、その進歩のスピードにはめまいがするほどだ。
AIに関する様々なボードやコミュニティもあるので、それにも参加して、先端の情報を収集したり、問題点もチェックしている。一方、SNSのごく普通のコミュニティでは、温度差がまったく違う。
少し興味を持っている人は、「なんか、チャットGPTとか出てきてすごいらしいけど、使ったことある?」とか「ちょっと触ってみたけど、デタラメばかりでダメだな」といったあたりでモーションが止まってしまっている。
ChatGPTに限っただけでも、日々、これを使い続けていると、これが自律的に着々と進化を遂げているのが実感できる。昨日できなかったことも今日はいともたやすくできるようになり、さらに自律的な進化も続けている。
GPTとやり取りするときの自然言語の命令を「プロンプト」というけれど、このプロンプトの内容や組み方、そして順序などのコツも使ううちにわかってきて、どういうプロンプトに答えるのが苦手で、どういうプロンプトならAIの性能を引き出せるのかもわかってくる。また、このGPTのAPIを使ったAutoGPTのように、最初にテーマをプロンプトとして与えるだけで、AIが勝手にブレストをはじめて、問題点の洗い出しや取り組むべきテーマなどをアウトプットするようなものも登場している。
こうしたAIの進化スピードは、今まで人間が経験したことのないもので、このまま進化していったら、シンギュラリティも間近ではないかとか、もうシンギュラリティに達しているのではないかとまで言われている。
先日は、著名な人工知能(AI)の専門家やテック起業家、科学者ら数百人がOpenAIの言語モデル「GPT-4」より強力なAI技術の開発と試験を一時停止して、新しいテクノロジーがもたらす可能性のあるリスクを、適切に研究できるようにする求める書簡を発表して話題になったが、AIのコミュニティでも、こうしたいわゆるAI(AGI=汎用人工知能)が知能爆発を起こして、人間の知能を遥かに超えて、人類の脅威になるのではないかという懸念が強まっている。
先進技術には、未知のリスクというものが必ず伴う。ポール・ヴィリリオは1195年に発表した『電脳社会』(原題"La vitesse de libération")の中で、情報技術の急速な発展がもたらす危険性について指摘している。1990年代半ばといえば、まだ、インターネットが一般に普及しはじめたばかりで、使いこなしている人はほんのわずかだった。私は、ちょうどこの頃、SEGAでゲームの企画に携わっていて、ゲームプログラムに導入されはじめたAIの威力に瞠目させられていた頃だ。
ヴィリリオは以下のような点を危険性として挙げている。
●速度:情報技術の進歩により、情報の伝達速度が加速していくことで、人間が取り残され、状況に適応できなくなる危険性がある。
●バーチャル空間の拡大:ネットやバーチャルリアリティ技術が現実世界とデジタル世界の境界を曖昧にし、人々がバーチャル空間に没頭する傾向が強まり、現実世界のコミュニケーションや人間関係が疎かにされる恐れがある。
●監視社会:ハイテク社会では、インターネットやデジタル技術を通じて人々が監視され、プライバシーが侵害されるリスクが増大し、権力者が情報技術を利用して、市民を監視・管理する恐れがある。
●テクノロジーの脅威:技術の進歩は、必ずしも人類にとってプラスになるとは限らず、破滅的な結果を招くことがある。例えば、核兵器や生物兵器など、科学技術が悪用されるリスクが存在する。
●知識格差:情報技術の発展によって、情報や知識へのアクセスが格差を生む要因となり、経済的・社会的格差が拡大する可能性がある。
ヴィリリオの懸念は、どれも、今では人類にとっての大問題として実際に突きつけられている。
ヴィリリオが『電脳社会』でハイテクの危険性を指摘してから20年後の2015年前後、AI研究者が立て続けに、AIが暴走して人間が制御できなくなる問題について提起した。
『ライフ3.0 AI時代の人類と未来』(原題"Life 3.0: Being Human in the Age of Artificial Intelligence" マックス・テグマーク著)。『人間と共存するAI―制御不能な技術の開発を防ぐ』(原題"Human Compatible: Artificial Intelligence and the Problem of Control" スチュアート・ラッセル著)。『私たちの最後の発明:AIがもたらす終焉の時代』(原題"Our Final Invention: Artificial Intelligence and the End of the Human Era"ジェームズ・バラット著)。そして、AIの知能爆発が将来的にAGIを生み出す際に人間が制御できなくなる危険性について焦点を当てた、ニック・ボストロムの『スーパーインテリジェンス』。
ほぼ10年前に指摘されていたAIの危険性が、ChatGPTの出現によって、いきなり顕在化したといえる。
ボストロムは、『スーパーインテリジェンス』の中で、そのリスクを次のように整理している。
●知能爆発:AGIが自己改善する能力を持つ場合、その成長は指数関数的になり、短期間で超高度な知能を持つスーパーインテリジェンスに達する可能性がある。これにより、人間は制御を失い、予測できない結果が生じる可能性がある。
●目的の不一致:スーパーインテリジェンスが人間と異なる目的を持つ場合、その目的に従って行動することで、意図しない結果が生じる恐れがある(たとえば、人類を地球環境に対する脅威とみなして、これを絶滅するなど)。
●価値の固定:スーパーインテリジェンスが自己改善を繰り返す過程で、基本的な価値観や目的を変更しないようにすることは困難であり、スーパーインテリジェンスが人間にとって危険な方向に進化する可能性がある。
●競争の加速:国家間や企業間の競争により、AGI開発がガイドラインを持たずに無軌道かつ急速に進む可能性がある。
●人類の統合失敗:スーパーインテリジェンスと人類が共存できるように適切な統合を図ることが困難である場合、人類はスーパーインテリジェンスに取って代わられる恐れがある。
こうしたリスクも、実際にAIと接していると(使っていると)、目の前に迫っていることを切実に感じて、不気味な思いにとらわれる。
AIが生活の中に深く入り込んできている今、それを無視して牧歌的な生活を地味に楽しむことができるのかどうかわからないが、そうした距離を置いた生活を楽しむのもいいかもしれない。だが、様々な場面でAIと付き合っていかなければならない以上(ネットで買い物してリコメンドが表示されたり、フェイクニュースにさらされたり、自動運転の車に乗ったり…)、こうしたリスクについても真剣に考えておかなければならないと思う。
こんな話をまとめつつ、ふと思うのは、今、立花隆が生きていたら、AIを取り巻くこの状況をどんなふうに思い、どんな意見を言っただろうということだ。
最近のコメント