AIは方言から人種差別をする?

metamorworks/iStock

3月13日号のNature誌に「Chatbot AI makes racist judgements on the basis of dialect」というタイトルの記事が出ている。直訳すると「チャットボットAIが方言(なまり)に基づいて人種差別的な判断をする」となる。

最近、LLM(Large Language Model=大規模言語モデル)という言葉がよくつかわれるが、この大規模なモデルと高速コンピュータによって、生成AIはこれまでよりももっと円滑にチャットなどの会話が可能となってきた。オープンAI社のChat-GPTやグーグル社のBertなどがこれらの代表例だ。

しかし、今回のNature誌で指摘されたのは、このようなAIが人種差別的な反応をする可能性がある点だ。大規模なデータが集積され、計算速度も速くなったため、コンピュータが瞬時に判断することが可能になったのだが、その大規模データにバイアスがあれば、当然ながら、偏った判断をしてしまう。

かつて、ナチスに賛同する対応をしたり、アフリカ系の人の顔写真にゴリラと判定したケースなど、AIが好ましくない反応をしたことが報告されていたが、集まったデータに偏りがあれば、間違った答えを導くことになってしまう。

問題点の指摘によって、修正されていくとは思うが、意図的に悪意を持ってデータを操作する危険は残るのだ。日本は相も変わらず、どうなっているのか暗闇の中だ。

キックバックの問題も、和歌山県連の馬鹿な会合問題も重要だが、政治が機能しなければ、行政も機能しない。もっと国として議論すべき大きな問題が置き去りにされている。何をしているのか、この国は?


編集部より:この記事は、医学者、中村祐輔氏のブログ「中村祐輔のこれでいいのか日本の医療」2024年3月17日の記事を転載させていただきました。オリジナル原稿をお読みになりたい方は、こちらをご覧ください。