Microsoftの従業員が「Copilotは暴力的で性的な画像を作っている」と告発、一体どんな画像が生成されてしまったのか?

Microsoftの従業員が「Copilotは暴力的で性的な画像を作っている」と告発、一体どんな画像が生成されてしまったのか?

Microsoftの従業員が「Copilotは暴力的で性的な画像を作っている」と告発、一体どんな画像が生成されてしまったのか?

Microsoftの生成AIであるCopilotに、有害な画像を生成する不具合があることが判明しましたが、Microsoftに問題を報告しても十分な対策が取られなかったとして、同社のエンジニアがこの問題を規制当局とメディアに告発しました。告発を受けて、Microsoftは一部のプロンプトをブロックしましたが、著作権を侵害する形で喫煙や暴力に関連する画像を生成する問題は残っていることが報じられています。

続きを読む…

続きを見る

おもしろカテゴリの最新記事