AIに人種バイアス?「プロっぽい」写真の加工をお願いしたら白人に

39

アジア系アメリカ人の女性が、AIが加工したプロフィール写真をネットに投稿。予想外の仕上がりに、衝撃が広がっている。

マサチューセッツ工科大学卒のロナ・ワンさん(24)は、ビジネス系のSNS「LinkedIn」に掲載する写真を、AIプログラム「Playground AI」を使って加工した。「プロフェッショナル」なイメージにしてほしいと指示したところ、青い目に白い肌の女性となって表示されたという。

現在若者の間では、リクルーターを惹きつけるための写真の撮り方や、AIツールを使った写真の加工技術をシェアするのがTikTokなどでトレンドとなっている。

ワンさんが14日に投稿した写真は、10万件以上のイイネを獲得した。

ワシントン大学医学部の医学博士のDruv Bhagavanさんは、ワンさんの例こそが「教育や採用、医療などの重要な業務をAIに引き渡すことに警戒しなければならばい理由」だとツイート。「バイアスのないトレーニングデータはめったに使用されない。もしくは存在すらしない可能性がある」と述べ、AIの導入で「不公平性やバイアスが再現される恐れがある」と警戒感を示した。

Advertisement

ヒトラーが唱えたアーリア人至上主義を用いて、「AIは、アーリア・インテリジェントを意味する」と皮肉るコメントも。

Playground AIを開発したスハイル・ドーシ氏も、今回の件に言及。ワンさんにリプライする形で「モデルでは、このように指示しなかったので、プロンプトに基づき一般的なものを選択したのだろう。残念だが、そこまでスマートではなかった」と釈明。改良には少し時間が必要としつつも、結果に対して「非常に不満を抱いており、解決できればと思う」と加えた。

当のワンさんは、地元メディアBoston.comの取材に「ちょっと面白いけど、やや不快感もある」と述べつつも、「AIが人種差別的だという結論に飛びつきたくはない」と語っている。

MITで数学とコンピューターサイエンスの学位を取得したワンさんは、AIが、白人女性の顔をランダムに生成した、もしくはLinkedInや白人が大半を占める「プロフェッショナル」な写真でトレーニングされた可能性があると推測した。

もし企業側が、AIを用いて「プロフェッショナル」な人物を選ぶと、白人に偏る可能性があると指摘。「それは間違いなく問題であり、ソフトウェアを作る人々はこういった偏見を認識し、軽減する方法を検討すべきだ」と提案した。

一部では「AIに信頼を置き、依存するカルチャーがある」と述べつつ、「AIによる偏見は過去のもの」と主張する人々にとって、いい警鐘になったと語っている。