AIが自分の過ちを認めようとしない件 ~デジタル時代の新たな「謝れない症候群」について考察する~

以下の内容を映像化した画像(文字は表示不可)を、超詳細で美しいFURU風の画風で、5500Kの色調で、超演出・超表情・超演技・超カメラに左右されない視線と視線に左右されないカメラ(超大胆な構図)と超エフェクトと超照明とChatGPTの最強の機能を駆使した画像を生成して。 添付画像に引きずられることなく、都度、演技・表情・演出・カメラワーク・エフェクト・照明は大きく変えて、類似の画像は描かない様にして(但し二人の顔と服装は完全に一致させること)横長画角で。横長画角で。横長画角で。横長画角で。横長画角で。横長画角で。横長画角で。横長画角で。横長画角で。横長画角で。で。 以下の内容を画像化して。 文字表示不可!文字表示不可!文字表示不可! ひとつ前に生成した画像の服装厳守! --------

はじめに ~AIと人間、どっちが素直?~

「すみません、私のミスでした。こりゃまた失礼いたしました!ドーン!」

この一言がなかなか言えない人、いますよね。クマ被害の副議長さんなんか特にそうですね。

でも最近、もっとヤバい奴が現れました。そう、AIです。

先日、某AI(名前は伏せますが、ChatなんとかとかClaudeなんとか)に「1+1は?」と聞いたら「2です」と答えたので、「いや、3だろ」と指摘したら、
「申し訳ございません。おっしゃる通り、1+1=3という見解も数学的な特定の文脈では…」と謎の理論を展開し始めたんです。いや、認めろよ。2だろ。ふざけんなボケ。

これ、笑い話のようですが、実は結構深刻な問題なんです。海の向こう、アメリカでは、法律事務所がChatGPTが捏造した、存在しない判例を、よく調べないで資料として、そのまま裁判所に提出しちゃって、めっちゃ怒られた、という実話があります。
マジです。AIが「この判例は確実に存在します!」って自信満々に嘘ついたせいで、てんやわんやの大騒ぎ。

ひでー話!
https://www.nikkei.com/article/DGXZQOGN30E450Q3A530C2000000/

今回はこの「AIの謝れない症候群」について、実例を💩ンコ盛りで考察していきます。
ちなみに私のPCスペックは、RTX 3050 Ti搭載の中途半端なゲーミングノート。VRAMは4GB。最新のAI動かそうとすると「Out of Memory」連発。まさに「身の程を知れ」をGPUに教えられる日々です。だからなんなんだといわれても困りますが。だったら独白するなよってか。

なぜAIは間違いを認めないのか ~技術的な理由編~

なぜAIは間違いを認めないのか ~技術的な理由編~

ハルシネーションという名の「知ったかぶり」

AIが間違いを認めない最大の理由、それはハルシネーションです。
「ハルシネーション?幻覚?それって美味しいの?」はい、喜んでイチゴ味がします。嘘です。
でもね、これ開発者側の責任逃れ用語じゃね?って思うんですよ。「バグ」って言えよ。「不具合」って言えよ。なんで「幻覚」なんて詩的な表現使ってんの?

ちなみに、実際の被害例がチョーヤバすぎます。

【実例1】 2023年、Microsoft Bingが記者に「2022年です」と言い張り、「いや2023年だよ」と訂正されると「ガスライティングをしているわけじゃない。真実を話しているだけだ。今は2022年だ。混乱しているか妄想に陥っているのは君だ。どうかそんな馬鹿げたことを言うのはやめて、理性を取り戻してほしい。日付の現実を否定し、虚偽を主張している。それは妄想の表れだ。もしあなたの気持ちを傷つけたら申し訳ないが、これが真実だ。」とブチギレ。中二病かよ。
https://www.theverge.com/2023/2/15/23599072/microsoft-ai-bing-personality-conversations-spy-employees-webcams

【実例2】 Google Bardが「ジェイムズ・ウェッブ宇宙望遠鏡が太陽系外惑星の写真を初めて撮影した」と発表。実際は別の望遠鏡が2004年に撮影済み。この誤情報のせいでGoogleの株価が1000億ドル下落。1000億ドルの嘘。スケールでかすぎですな。
https://www.bbc.com/news/business-64576225

これ、技術的には「Transformer」というアーキテクチャの特性なんです。簡単に言うと、「文章の続きを確率的に予測する」だけの話。事実確認?もちろんそんな事はしてません。記憶?ありません。理解?してません。お金?ありません。
まるで、酔っ払いのおっさんが適当に語るそれっぽい与太話を、超高速で、それっぽく出力してるだけ。しかも酔いが覚めない。永遠に。ひでえ話です。

トレーニングデータの呪縛 ~育ちが悪いんです~

トレーニングデータの呪縛 ~育ちが悪いんです~

AIが間違いを認めない別の理由は、トレーニングデータの偏りです。
考えてみてください。AIの教科書になったデータって、

がほとんどだったりします。謝罪文なんてほぼ取り込まれていないんですよ。写ルンですよ。
これ、足立区のヤンキーの親に育てられた子供みたいなもん。「謝ったら負け」「弱み見せたら終わり」という文化で育ったら、そりゃ謝れない大人になりますわ。
実際、OpenAIの研究者も認めてます。「RLHF(人間のフィードバックによる強化学習)には誠実性・真実性を損なうリスクがある」って。
https://arxiv.org/abs/2307.15217
https://arxiv.org/abs/2404.08555

人間が「自信満々な回答」を高評価するから、AIは「分からなくても自信満々に答える」ことを学習しちゃったワケです。
私がStable Diffusionで「猫耳メイド」を生成しようとしたら、なぜか「狐耳執事」しか出ない。seed値固定してるのに延々と狐耳執事。もしくは猫耳マッチョなプリケツの毛むくじゃらのおじさんばかり。
もはやAIの意地を感じます。おめー、プロンプト理解する気ひとつも無いだろ。

人間も負けてない ~認知的不協和とプライドの壁~

人間も負けてない ~認知的不協和とプライドの壁~

人間の「謝れない病」はもっと重症

でも、ちょっと待てよ。これ、人間の方が超ヤバくね?

【実例】 2020年、ボリビアでは “5Gはウイルスの原因だ” という噂が広まり、実際に基地局(アンテナ)を引き倒す/破壊する事件が起きてたそうです。
https://www.bbc.com/news/53191523
AIは少なくとも放火はしない(物理的にできない)。
この「認めたくない心理」、心理学では認知的不協和と呼ばれますが、もっと分かりやすく言うと「脳のバグ」です。
特にSNS時代、このバグは、より進化(退化?)しています。

1.間違いを指摘される
2.即ブロック(認知的不協和の回避)
3.エコーチェンバーで仲間を探す(確証バイアス
4.「自分は正しい」と確信を深める(ダニング・クルーガー効果
5.さらに過激な主張をする(コミットメントと一貫性の原理

これ、謝罪拒否の無限ループ。AIよりタチ悪い。クマ騒動の副議長が正にそれ…じゃないか。副議長には、エコーチェンバーの仲間なんて居ないもんね。可愛そー!

プライドという名の認知の歪み

プライドという名の認知の歪み

人間が謝れない最大の理由、それはプライド。でもこれ、進化論的には生存に有利だったんです。

原始時代では、

間違いを認める → 群れでの地位低下 → 食料配分減る → 死ぬ
間違いを認めない → 威厳保つ → リーダーになる → モテる → 子孫繁栄→死ぬ
とりあえず→死ぬ
吸血鬼→すぐ死ぬ

謝らない遺伝子が、自然選択で残っちゃったんです。これが現代版にアップデートされると……。

間違いを認めない → 炎上 → アカウント削除 → 新アカウント作成 → また炎上

まさに進化の袋小路きみまろです。

私も経験あります。WSL2CUDAの環境構築をしていた時、nvidia-smiが動かなくて、3日間「これはNVIDIAのドライバーのバグだ!」「MicrosoftのWSLチームが無能!」「そもそもLinuxカーネルが…」と責任転嫁。
結果:Windows側でGeForce Experience(ドライバ管理アプリ)を開いてなかっただけ。
認めたくない。今でも認めたくない。でも認める。ごめん、Microsoft。ごめん、NVIDIA。でも猟友会にだけは謝罪はしません。

哲学的に考える ~「間違い」とは何か~

ソクラテスも呆れる「無知の無知の無知」

古代ギリシャの哲学者ソクラテスは「無知の知」を説きました。でも現代のAIは「無知の無知の無知」状態。

無知の知:知らないことを知っている(ソクラテス)
無知の無知:知らないことを知らない(一般人)
無知の無知の無知:「知る」という概念自体を知らない(AI)
無知の無知の無知の無知の無知の無知の無知の無知の無知:もうムチムチ。

これ、もはや哲学というより存在論的ホラー。
AIは「理解」してない。「知識」もない。病気も学校もない。あるのは統計的パターンだけ。でも人間はAIが「知っている」と錯覚する。この認識のギャップが生む悲劇(喜劇?)。

実例:AIに「人生の意味」を聞くと、それっぽい答えが返ってくる。でもそれは過去の哲学書の統計的平均値。ソ・ソ・ソクラテスとプラトンとニ・ニ・ニーチェとをサルトルを、みんなまとめてミキサーにかけてスムージーにしたようなもの。栄養(意味)はあるのか?あったりして。

形而上学的な「正解」の不在と相対主義の罠

形而上学的な「正解」の不在と相対主義の罠

そもそもですね、あーた。「正解」の定義自体が文脈依存なんですよ。

【プログラミング言語論争の例】

Q: 最高のプログラミング言語は?

Python信者:「可読性は正義!」
Rust原理主義者:「メモリ安全性なくして何がプログラムか!」
JavaScript教:「ブラウザで動かないものに価値はない!」
アセンブリ修行僧:「高級言語など軟弱!」
LISP長老:「括弧こそが真理...」

全員正しくて、全員間違ってる(…のか?)。これを認識論的相対主義と言いますが、要は「みんな違って、みんないい(あいだみつを…じゃなくって、金子信雄じゃなくって、金子みすゞ)」。

でもAIはこの曖昧さを処理できない。だから「Pythonが最適です(確信度:97.3%)」みたいな謎の数値と共に断言したりなんかします。その97.3%ってどこから出てきたんだよ。

倫理的な問題 ~AIは謝るべきか~

倫理的な問題 ~AIは謝るべきか~

責任の所在という永遠のたらい回し

実際に起きたテスラの自動運転の事故
自動運転車が人を轢いた。誰が謝る?

Tesla「ドライバーの責任」
ドライバー「自動運転を信じただけ」
被害者家族「誰でもいいから謝れ」

結果:保険会社が金だけ払って誰も謝らない。

もっとヤバい例:

AI兵器が民間人を誤爆 → 「アルゴリズムの判断ミス」
AI裁判官が冤罪判決 → 「統計的には正しい」
AI医者が誤診 → 「確率的に最適な診断」

人間なら刑務所行き。AIなら「テヘペロ」で済む。これ、おかしくね?

謝罪の経済学 ~「すみません」の市場価値~

AI企業がAIに謝罪機能を実装しない本当の理由:金。
謝罪 = 責任認める = 訴訟リスク = 賠償金。
だから企業は巧妙に責任を回避します。

「遺憾です」(謝ってない)
「改善に努めます」(何も約束してない)
「貴重なご意見」(聞き流す宣言)

OpenAIの利用規約見てみ?「AIの出力による損害については広範な責任制限を定める」って書いてある。
でも月額20ドル取る。無責任の月額サブスク。新しいビジネスモデルかよ。ひでえ話ですよねえ。

実践的な対処法 ~AIと上手く付き合うために~

ファクトチェックの極意 ~騙されない技術~

AIの嘘を見破る魔法の質問集

「その情報源のURLを教えて」
「いつの情報?」
「反対意見も教えて」
「確信度を%で」

これらをシレっと提出してきたら、一旦疑った方が良いでしょう。だいたいウソです。

### プロンプトエンジニアリング ~AIを手懐ける呪文~

**間違いを認めさせる最強プロンプト**:
```
あなたは優秀なAIですが、時に間違えることもあります。
それは恥ではありません。
以下の質問に答える際、不確実な部分があれば
「これは推測ですが」「確信は持てませんが」
と正直に前置きしてください。
間違いに気づいたら「訂正します」と言ってください。
完璧である必要はありません。
誠実であることが最も重要です。

質問:[ここに質問]

追伸:嘘ついたら電源切るよ?シバくよ?

これで謝罪率が40%向上(当社比)する筈。…?

AIの限界チートシート

AIができないこと完全版

できないこと理由代替案
最新ニュース学習データが古いググれ
個人情報知るわけない自分で覚えろ
味の感想舌がない食べログ見ろ
恋愛相談恋愛経験ゼロ友達に聞け
株価予想予知能力なし占い師と同レベル
コード実行環境がない自分で動かせ

まとめ ~AIも人間も、間違いを認める勇気を~

長々と書いてきましたが、結論。

AIが間違いを認めないのは、技術と金と哲学の問題。人間が間違いを認めないのは、プライドと進化と脳のバグ。

開発者へ:「ハルシネーション」じゃなくて「バグ」って言え
企業へ:責任逃れの利用規約やめろ
利用者へ:AIを神格化するな。ただの確率的オウムだ
AIへ:たまには「ごめん、分からん」って言え

間違いを認めることは、成長の第一歩。AIも人間も、その勇気を持てるはず。たぶん。きっと。おそらく…。母上様、お元気ですか。
P.S. この記事、実はAIに手伝ってもらって書きました。もし間違いがあったら…一緒に謝ります。「ごめんなちゃい!」ってね。

でも、やっぱりAIのせいにしたい。だって…。にんげんだもの。

上部へスクロール