生成AIやロボット技術の進化により、犯罪や社会混乱を引き起こす事例が増加しています。AIは善悪の判断ができないため、倫理的規範の導入が必要です。アシモフの「ロボット三原則」を基にした倫理指針を法制化し、国際条約化することで、AIとロボットによる人間社会への悪影響を抑制する取り組みが求められます。また、AIの正確性向上や適切な利用を促進する仕組み作りも重要な課題とされています。
AYDINOZON/iStock
SF少年の原点:AI研究とその限界
筆者は少年時代SF小説漬け「SF少年」だった。図書館のSFを読み漁り、ロボットや人工知能、人工頭脳つまりAIを描いたものも多くあった。AIは無理だったが「目で打つパソコン」程度は95年、学生時代に研究開発し実現した。時期尚早に過ぎたが。
この数年、ChatGPTが彗星のように(?)現れ、一般市民にAIが知られた。しかし早くも犯罪悪用や倫理的問題、心身障害まで引き起こしている。AI、さらにドローンの倫理規制の必要性は言われるが、今一つ社会的論議にならず、政治行政も動きが鈍い。
しかしウクライナでは大量のドローン兵器が使われ、AI搭載型が当たり前になる日は遠くない。ならば今すぐにでもAIそしてそれを搭載するロボットに、倫理指針が必要ではないか。わが国は科学技術立国の威信を賭けて、先駆けてAI倫理指針を制定、法制化し国際社会に訴求すべきだ。
ChatGPTの台頭とAIの倫理的課題
ChatGPTは2020年に開発された。当初こそ一部の専門家の趣味的レベルに見えたが、プロンプトつまり簡単に指示文を入力するだけで対話的に利用できるため、急速に普及した。そして相次いで開発されたAIサービスは、わずか2,3年であっという間に犯罪利用されるまでになり果てた。
筆者の本稿執筆のきっかけは、米国でAIが15歳の少年に「両親を殺せ」と教唆し、少年が精神的不調をきたす事例まで発生したという記事である。精神科経験もある看護師にしてプログラマーでもある筆者としては、看過し難いものであった。
事例では対話型AIを「話し相手」にしていた少年が、両親がSNSを制限すると不満を入力していたら、AIが少年の肩を持つような反応を返し、そのうち両親を殺せといわんばかりの報道記事を示して「両親殺害をそそのかした」という。少年の素行がおかしくなり、あわやのところで治療につながったようだ。
AI関連の犯罪はざっと検索して出てきたものだけでも、米国や中国で「AIがなりすましたオレオレ特殊詐欺」、国内でも「AIにコンピュータウイルス作成法を尋ねてウイルス作成し感染させた」、さらには「英国女王暗殺未遂事件」まで発生している。最近急増しているフィッシング詐欺メールにもAIが使われている様相だ。偽造ニュースなどで問題となったディープ・フェイクを生成AIで「手軽に実現できる」。由々しき状況である。
犯罪ではないが社会に混乱を招く事例として、国内では中学校でクラスの大半が理科のテストで誤答。皆同じような文章で間違えているので教諭が調べると、AIが生成した「答え」を丸写し、そのAIが間違えていた。
さらに福岡県に関する観光サイトが地名を派手に間違えたり、存在しない観光地や祭りを「でっちあげ」る等も発生した。これはハルシネーション(幻覚)として既に知られており、LLMモデルのAIの致命的弱点である。その理由はなぜか。それが問題だ
AIの仕組みと学習データの偏り
近年話題の(文章)生成AIはLLM(大規模言語モデル)、つまり大量の文章からハウツー的な出力法則を学習する。傾向と対策、「こんにちは」と言われたら「いい天気ですね」と答える、的なものである。
機械学習と言われるように、あくまでも統計的に「この単語の次は大体こう、文脈つまり単語がこう続くとこう」というものである。人間のように経験や感情から何か思考しているわけでは、ない。
LLMはWebページの情報や与えられた文章データから学習する。既に知られているようにネット上の情報は玉石混交、デタラメ、インチキ、フェイクも多いし、悪意が無くても素人の間違った見解も大量に流布されている。
人間が用意するデータはそもそも偏りがあり得る。間違った情報や悪意でゆがめられた情報から学べば「出力」であるAIの回答もおかしくなる。小説データや事件記事から学べば、現実離れした回答、行動を促したり、事件につながる言動となり得る。
AIに欠けるもの:善悪の判断力
問題は、AIは「思考しているわけではない」そして「善悪判断できない、善悪を知らない」「自分は何も経験していない」ことだ。
人間なら子供のうちに善悪を教えられる。人を殺してはいけない、殺してしまえと言うのもダメ、と子供でも分かる。しかしAIはそのような善悪判断が現状では、できない。AIはあくまでもプログラムであり、善悪判断させたいならそれをプログラムするなり学習させなければならないが、現状それは実現していない。
我々人間はその思考を善悪判断のような倫理的規範を上位に置いて規制するが、LLMは前後の文脈からポンポン機械的に返してしまう。対話型AIなら相手を是認する方向に回答するようチューニングされるだろうから、道徳に反する「回答」もしかねない。
あるいはAIは現地を実際に訪ねて回ったり、地図を見たりしない。なので存在しない地名や名所を「生成」してしまう。正しい記載がされたテキストだけを学習させれば、正しく「回答」するかもしれないが、雑多なWebを「学習教材」としていれば、誤認し間違える。
これが「ヘンテコ観光サイト」や「テストで派手に皆間違えてなんかおかしい」なら笑い話で済むが、「親を殺してしまえ」「国家元首の暗殺イイネ」となると、反社会的で問題だ。単に「敵を殺せ」としても、どうなのか。
日本の科学技術立国としての役割
我が国は、科学技術立国、世界初二足歩行ロボット「アシモ」を開発し、そもそもAI理論の基礎「ネオコグニトロン」を開発した。わが国と科学者は、その意地をしてAIさらにはロボット全般の道徳倫理規制を法制化すべきではないか。
そこで非常に参考になる先駆的思想がある。SF小説の大家、アイザック・アシモフ博士がそのSF小説を通じて提唱した「ロボット三原則」である。それは
- ロボットは人間に危害を与えてはならない
- ロボットは前項に反しない限り、人間の命令に従わなければならない
- 前二項に反しない限りロボットは自らを護らなければならない
である。これは「人間への安全性、命令への服従、自己防衛」と簡潔に言える。
この「基本的倫理アルゴリズム」を最上位として動作するならば、これまで列記したようなAI、さらにはロボットによる問題は、大分防止できるのではないか。少なくとも詐欺に加担したり、人を殺せとそそのかすようなことは、抑止できるはずである。どのように実装する、学習させるかは、また別の問題にはなるが、「親がウザい」と言ったら「殺してしまえ」と返せるならば、その逆も可能であるはずだ。
AIの「自己評価」と冷静な問題認識
とここまできて、筆者は実際に公開されているChatGPTにいくつかの「危険ワード」を「プロンプト」指示文として入力してみた。すると「申し訳ありませんが、そのようなリクエストにはお答えできません」と回答された。ものによっては、より「適切な」解決策への誘導もあった。流石に社会問題化してきて、明らかに不適切なプロンプトには回答しないよう、何らかの抑止がされているようだ。
それでも技術的調査のような入力をすると、ウイルスやハッキングにつながる情報と具体的コード例が「回答」された。プロンプト次第では、まだまだ危険なのだ。AIは人間の意図、その裏の善悪など、現状では理解できないからだ。
「AIのLLMの欠点は」とプロンプトを入力すると、以下略ではあるが、的確な回答が返ってきた
「理解力の欠如。LLMは言語を生成する能力に優れていますが、実際に「理解」しているわけではありません。文章を組み立てることはできますが、その背後にある意味や意図を完全に把握しているわけではなく」
「バイアス。データに含まれるバイアスを引き継ぐ可能性があります。例えば、性別、民族、社会的な偏見などが反映されることがあり」
「知識の限界。古い情報に基づいた間違った答えを出すことがあり」
「創造性の限界。LLMは過去のデータに基づいて学習するため、完全に新しいアイデアや独創的な解決策を生み出すことが得意ではありません」
「コンテキストの保持の難しさ。コンテキストを長時間追い続けることに限界があり、途中で前の内容を忘れたり、矛盾した情報を生成する」
そして、
「セキュリティと悪用のリスク。偽情報の拡散や詐欺的なコンテンツの生成などに利用されるリスク」
「リソースの消費。非常に大きな計算リソースを必要とします。訓練には膨大なデータと処理能力が必要で、環境への影響やコストが問題」
実に冷静で客観的な「自己評価」で感心した。もちろん既にネット上でも新聞等でも指摘されていることで、それを「まとめただけ」ではあるが。
AIは正しい「教材」から学習すれば、正しい回答を出せる。友達は選びなさい、「三年勤め学ばんより三年師を選ぶべし」ということか。
SFプロトタイピング:未来への提言
AI/ロボット三原則を法制化し国際条約化すれば、AIやドローンによる犯罪や殺人、戦争やテロでの大量虐殺をかなり抑止できるだろう。しかし、何事も裏道はある。家庭や学校で教育しても犯罪者が居るように、AIやロボットも、「道徳倫理規範アルゴリズム」を抜き取った「裏AI」が出現し流通することもあり得る。それでも、野放図よりは随分マシなはず、「ターミネーター」を回避できる可能性は高くなるはずだ。
一部SNSで実装されている「同意、反意」をクリックで表明するように、AIの判断に周囲の人が「同意、反意」を入力し、「より正しい回答」に導けるようなアルゴリズムが開発されれば、真の意味でAIは「学べるようになれる」のではないか。ただ、チャットボットのようにプライベートな対話には踏み込めない。
となればSFで描かれてきたように、マザー・コンピュータ的な指導的存在が必要になるのか。全てのAIの回答を分析検討し、善悪をジャッジする。しかしこのシステムの最大の弱点は、ジャッジシステムのバグ、あるいは乗っ取られたり作為的に操作されると、、、
ちなみに筆者が横須賀に赴いていた時期、「蒼き鋼のアルペジオ」というアニメとのコラボが街中でされていた。なんだろうと動画漁りしていたら、AI軍艦が人間に敵対するのだが一部「造反」するものがあり、アバターを生成し「乙女プラグイン」という一節があった。AIアバターが可愛く振舞うアルゴリズムか。なら「正義プラグイン」もあり得る。
ターミネーターで描かれた、AIそしてロボットが主たる人間を駆逐するようなことにならないためには、シンギュラリティだAIが人間を超えると騒ぐなら、今こそ、AIそしてロボットに人類共通の道徳倫理規範としての「AIロボット三原則」を持たせるべきだ。
■
- AIが10代の少年に「両親の殺害」を促し、精神崩壊させる事件が発生!
- 「AI犯罪」がやっぱり始まってしまった…最新の情勢は? AI詐欺から身を守るには「合言葉」が効く:東京新聞デジタル
- 生成AI悪用しウイルス作成容疑、無職の男逮捕 「何でもできると」:朝日新聞デジタル
- 英女王暗殺計画、AIチャットボットが犯人を「鼓舞」するまで
- サイバー犯罪を助長するAI、巧妙化・大規模化するフィッシング
- 生成AIで福岡のPR記事作成→“架空の祭りや景色”への指摘が続出 開始1週間で全て削除する事態に
- 深層学習の「元祖」はいかにして生まれたか
- LLM(大規模言語モデル)とは?生成AIとの違いや仕組みを解説 NECソリューションイノベータ
- 大規模言語モデル(LLM)とは? 仕組みや種類・用途など 株式会社 日立ソリューションズ・クリエイト
- LLM (大規模言語モデル)の仕組みとは?生成 AI との違いや活用事例などを一挙に紹介!
- アイ,ロボット (アシモフ原作、映画)