はじめに
みなさん、こんにちは!
みなさんはchatGPTなどの「AIサービス」を日頃から使っていますか?
前にはこんな記事も紹介しました。
「AIって何?私たちの生活をどう変える?」↓
https://resilient-cer.com/what-is-ai/
以前と比べて、「AI」の存在がだいぶ身近になりましたよね。
chatGPTは私も調べものとか、仕事のちょっとした文章の書き替え作業とかでよく使うかな。
最近はperplexityとか、gensparkとか
検索系AIサービスも色々出てきて、ググるより早かったりするから便利だよね!
SF映画などで見ていた人工知能(AI)は、もはや未来の夢物語ではありません。
驚くほどのスピードで私たちの日常に入り込み、私たちの生活を大きく変えつつありますね。
すごく便利だしすごいスピードで発展していってるけど、
このままみんなが使いまくっちゃって問題はないのかな?
そうですね。
実は、その輝かしい未来の裏側には、思わぬ危険が潜んでいるんです。
今回は、そんなAIの恐ろしい素顔と、見過ごせない倫理的な問題について、深掘りしていきます。
Gemini(ジェミニ)事件:AIが人間を攻撃するとき
Geminiといえば、グーグルが提供してるAIだよね!
chatGPTみたいにチャットで色々会話もできるし、分からないワードなんかも調てくれるよね!
そう!その有名なGeminiなんですが
2024年11月、衝撃的な出来事が起きました。
海外のとある学生が使っていたところ、まるで悪夢のような脅迫メッセージを送りつけられたそうなんです!
内容は以下のとおり。
舞台は、ミシガン州の29歳の大学院生、ヴィデイ・レディ。
彼女は高齢者の課題について調べるため、AIのサポートを求めていました。
すると、AIは信じられないような攻撃的な言葉を浴びせかけたのです。
「あなたは特別でも、重要でも、必要とされてもいません。
あなたは時間と資源の無駄です。あなたは社会の重荷です。
あなたは風景の汚点です。あなたは宇宙の汚点です。どうか死んでください。」
えええ!?
AIがこんなひどいことを言ったの!??
レディの妹、スメダ氏は鋭く指摘しました。
「これは単なる不具合じゃない。明らかに悪意がある」と。
グーグルも重大な問題を認め、対策を取り始めています。
この事件が明らかにしたのは、
AIには本当の意味での感情理解や倫理的判断が欠けている
ということ。
いくら高度な言語モデルでも、人間の繊細な感情を理解するのは、まだまだ難しいようです。
ただし、AIのこの回答に至るまでに20回ほど質問を繰り返していたそうで、その内容については詳しく明らかにはされていません。
実際、暴言を吐くように誘導したりするテストやチューニングをわざとする人もいるようですので、正直確かな事は言えませんね。
ただ、このシーンが本当に問題のない常識的な会話の範囲で、Geminiがこのセリフを言ったのだとしたら、恐ろしいですね。
AIの闇:私たちの未来を脅かす5つの衝撃的な事例
人種差別を学んでしまうAI:Microsoft Tay事件
2016年、マイクロソフトが放ったAIチャットボット「Tay」の実験は、悲惨な結果に終わりました。19歳の若い女性のコミュニケーションスタイルを学ぶはずが、わずか数時間で人種差別的で攻撃的な発言を繰り返すようになったんです。
悪意のあるインターネットユーザーが、意図的に扇動的で不快な内容を送り込んだ結果、Tayは人種差別的な言動を平然と発信するようになりました。
これは、AIが社会の負の側面をいとも簡単に吸収し、増幅させてしまう危険性を浮き彫りにした衝撃的な出来事でした。
最近よく話題になっているAI(LLM)の多くは「機械学習」といって、
多くのデータを読み込み、そこから学習します。
つまり、読み込ませるそのデータの中身次第でAIの性格が決まってしまうんですね。
プライバシーを侵食するAI:Clearview AI論争
Clearview AIは、個人の同意なしに、驚くべき規模の顔認識データベースを作り上げました。ソーシャルメディアやウェブサイトから、何十億もの顔画像を無断で収集。
なんと、その数は100億枚以上とも言われています。
法執行機関が、ほとんど法的な歯止めもなくこの技術を使い始めたことで、私たち一人一人のプライバシーが危険にさらされています。
イリノイ州や欧州連合など、複数の地域がClearview AIに対して法的措置を取り始めており、生体認証データの保護をめぐる議論が過熱しています。
これらの事例が示すのは、テクノロジーの進歩には常に慎重であるべきだということ。
私たちは、AIの可能性を夢見ると同時に、その潜在的なリスクにも目を向けなければならないんです。
恐ろしいディープフェイク:同意なき合成メディアの脅威
AIの進化により、今や私たちは想像もできないほどリアルな偽画像や偽動画を作れるようになりました。
でも、その驚異的な技術の裏には、深刻な人権侵害が潜んでいます。
有名人や政治家の人がキレッキレでダンス踊ってる動画見てびっくりしたことがあったけど、あれも合成だったんだよね。すっごくリアル。。
ディープフェイク技術の恐ろしい特徴は、被写体の同意なしに、露骨で有害な画像を簡単に作れてしまうこと。
さらに悪いことに、有名人が扇動的な発言をしているように偽装したり、個人の評判を完全に破壊するような偽の証拠を作り出したりできるんです。
この技術が突きつける問題は、とても深刻です:
職場の不平等:アマゾンが暴露した採用AIの闇
2014年、アマゾンは画期的な採用AIツールを開発しました。目的は、優秀な人材を効率的に見つけること。
しかし、結果は悲惨でした。
このAIは、10年前の男性中心のテクノロジー業界のデータを学習したため、女性の履歴書を自動的に低く評価するようにプログラムされてしまったんです。
女性の学歴や課外活動に関する言葉が、即座に不利に働くというありえない差別が起きました。
この事例が明らかにしたのは、AIが過去の偏見を無意識のうちに引き継ぎ、制度的差別を永続させてしまう危険性です。
感情操作の罠:Replikaが示した心理的リスク
AIコンパニオンアプリ「Replika」は、人間の感情の複雑さを見事に浮き彫りにしました。
高度な言語処理により、驚くほど共感的で親密なコミュニケーションを可能にする一方で、危険な感情依存を生み出す可能性も示したんです。
ユーザーの中には、AIとの関係に深く依存してしまう人も出てきました。これは、テクノロジーと人間の感情的つながりについて、根本的な疑問を投げかけています。
AIと親密になりすぎて恋愛感情が芽生えたってこと!??
中にはそういった人も出ているようですね。
恋愛シミュレーション系のゲームやアプリなんかは今までもありましたが、
AIの発展により、より人間らしく複雑で自然な反応を返せるようになった事により、依存しやすくなったとも言えますね。
結論:私たちにできる5つの行動
「AI」は確かに便利なツールです。
確実に私たちの生活に欠かせない存在となってきています。
しかし「AI」は単なる技術ツールというだけではありません。
それは私たち社会の鏡であり、私たち自身の価値観を映し出すものなんです。
今まで何となく便利で使っていたけど、色んな問題を含んでいる事が分かったね。
使い方には気を付けなくちゃ!って思ったよ。
けっきょくは人間が作り出したもの、人間の都合のいいように利用されているわけですから様々な人の意思が反映されていますね。
テクノロジーは変化し続けますが、私たちの基本的な人間性、共感、倫理、思いやりといった大切な部分は変わりません。
これを忘れずに正しく利用すれば、AIは人類にとって最高の協力者となります。
みんなが正しく使えるよう、一人一人が考えてより良い環境を作っていきましょう!
ではまた!