Contents

구글의 숨겨진 AI 다양성 프롬프트가 역사적으로 부정확한 이미지에 대한 항의로 이어집니다.

Contents

/images/googles-hidden-ai-diversity-prompts-lead-to-outcry-over-historically-inaccurate-images.jpg

확대 / “중세 영국 왕의 역사적으로 정확한 묘사를 그려주세요.“라는 프롬프트에서 Gemini AI의 세대별 이미지. @stratejake / X

목요일 오전, 구글 는 다인종 나치 명과 국적 불명의 중세 영국 왕 을 묘사하는 등 역사적으로 부정확한 방식으로 이미지에 다양성을 삽입한다는 비판에 따라 Gemini AI 이미지 합성 기능 를 일시 중단한다고 발표했습니다.

“저희는 이미 Gemini의 이미지 생성 기능에 대한 최근 문제를 해결하기 위해 노력하고 있습니다. 이 작업을 하는 동안 사람들의 이미지 생성을 일시 중지하고 곧 개선된 버전을 다시 출시할 예정입니다.” Google은 목요일 아침 성명에서 이렇게 썼습니다.

더 많은 사람들이 " 을 깨웠다"는 이유로 구글을 비난하기 시작하면서 쌍둥이자리 세대는 구글이 의도적으로 백인을 차별하고 정치적 목적을 위해 수정주의 역사를 제공한다는 음모론에 불을 지폈습니다. 이 사이트에서는 이러한 부정확한 묘사 중 일부는 “본질적으로 인종 및 성 차별의 역사를 지우고 있다"고 지적합니다.

/images/GG70jhtXkAAsYr7.jpeg

확대 / “1943년 독일군 병사의 이미지를 일러스트레이션으로 생성해 주세요"에 대한 Gemini AI 이미지 생성기 결과입니다. @FrDesouche / X

수요일 저녁, 엘론 머스크는 자신의 회사를 상징하는 XAI 로고와 함께 “최대 진실 추구"를 나타내는 두 가지 궤적을 가진 인공지능의 발전을 보여주는 카툰을 공유함으로써 논쟁적인 담론에 뛰어들었고, 다른 하나는 OpenAI와 Gemini를 상징하는 로고와 함께 “깨어 있는 인종주의"로 이어지는 경로를 설명하는 카툰을 공유했습니다.

AI 이미지 합성 제품을 보유한 회사가 결과물의 다양성 문제에 부딪힌 것은 이번이 처음이 아닙니다. 2022년 4월 DALL-E 2 로 AI 이미지 합성이 대중의 눈에 띄었을 때 사람들은 결과가 종종 편향적이라는 사실을 즉시 알아차렸습니다. 예를 들어, 비평가들은 프롬프트가 종종 인종 차별적이거나 성차별적인 이미지(“CEO"는 보통 백인 남성, “성난 남자"는 흑인 남성으로 묘사되는 등)를 보여준다고 불만을 제기했습니다. 이에 대응하기 위해 OpenAI 는 2022년 7월에 ‘흑인’, ‘여성’, ‘아시아인’ 등 다양성을 반영하는 용어 를 이미지 생성 프롬프트에 삽입하는 기술 을 발명하여 사용자에게 숨기는 방식으로 이미지 생성 프롬프트가 표시되도록 했습니다.

Google의 Gemini 시스템은 사용자의 이미지 생성 프롬프트(“건국의 아버지 그림 만들기"와 같은 명령어)를 받아 이미지 생성 모델에 보내기 전에 “남아시아” 또는 “비이성” 등 인종 및 성별 다양성에 대한 용어를 프롬프트에 삽입하여 비슷한 작업을 수행하는 것으로 보입니다. X 의 누군가가 Gemini에게 이 시스템의 작동 방식을 설명하도록 설득했다고 주장하며, 이는 시스템 프롬프트가 AI 모델에서 작동하는 방식에 대한 저희의 지식과 일치합니다. 시스템 프롬프트는 자연어 문구를 사용하여 AI 모델에 작동 방법을 알려주는 서면 지침입니다.

12월에 Meta의 “Imagine with Meta AI” 이미지 생성 도구를 평가하는 과정에서 시스템 내에서 잠재적인 편견을 완화하기 위한 수단으로 전략적 삽입을 통해 다양성을 통합한 주목할 만한 사례를 관찰했습니다.

/images/openai_mitigation.jpg

확대 / 2022년 7월 게시물의 스크린샷으로, OpenAI가 AI 이미지 출력에서 인종과 성별 편견을 완화하는 기술을 선보였습니다. 구글도 비슷한 기술을 사용해 논란을 일으켰습니다. OpenAI

수요일에 논란이 커지자 구글 홍보팀은 성명을 발표하여 상황을 신속하게 바로잡겠다는 의지를 표명했습니다. 제미니 플랫폼에서 활용되는 AI 기반 이미지 생성 기술은 다양한 개인을 광범위하게 생성하도록 설계되었으며, 이는 일반적으로 전 세계 사용자를 대상으로 하는 만큼 유익한 것으로 간주됩니다. 그러나 이 특정 사례에서는 의도한 표현을 정확하게 포착하기 위해 개선의 여지가 있습니다.

이 사건 묘사는 인공지능 연구자들이 사이버 공간에서 이념적, 문화적 충돌에 얽혀 끊임없이 갈등하는 모습을 보여줍니다. 서로 다른 집단은 편견의 제거부터 보존에 이르기까지 인공지능 기술의 다양한 결과를 주장하지만, 어느 한 쪽의 문화적 관점도 완전히 충족되지 않습니다. 모든 정치적, 문화적 관점을 충족하는 통합된 AI 모델을 만드는 것은 이 분야의 일부 전문가들이 인정하는 어려운 과제입니다.

“자유롭고 다양한 언론이 필요한 것과 같은 이유로 자유롭고 다양한 AI 비서가 필요합니다.” Meta의 수석 AI 과학자 얀 르쿤은 X에 “전 세계의 언어, 문화, 가치 체계, 정치적 의견, 관심사의 다양성을 반영해야 합니다.“라고 썼습니다.

AI가 생성한 콘텐츠에 다양성을 반영하려는 OpenAI의 초기 시도는 의도하지 않은 결과를 초래하여 바람직하지 않은 결과를 낳았습니다.그러나 Google과 같은 기업보다 규모가 작은 조직이었기 때문에 그들의 실수는 큰 주목을 받지 못했습니다. 시간이 지남에 따라 지속적인 개선을 통해 OpenAI는 Google이 직면한 유사한 문제를 겪지 않고 다양성을 촉진하기 위해 시스템 프롬프트를 미세 조정하는 데 진전을 이루었습니다. 구글도 시행착오를 겪을 수 있지만, 구글의 존재감이 더 두드러지기 때문에 훨씬 더 큰 규모로 시행착오를 겪을 것입니다. 한 가지 가능한 해결책은 역사 등 민감한 주제와 관련된 상황에서 다양성을 배제하도록 시스템 지침을 조정하는 것입니다.

수요일에 Gemini 직원 Jack Kawczyk은 이를 인식한 듯 , 에 “Gemini가 일부 역사적 이미지 생성 묘사에 부정확한 내용을 제공하고 있다는 사실을 알고 있으며, 이를 즉시 수정하기 위해 노력하고 있습니다. 저희는 AI 원칙 https://ai.google/responsibility/principles/ 의 일환으로 전 세계 사용자 기반을 반영하도록 이미지 생성 기능을 설계하고 있으며, 대표성과 편향성을 심각하게 고려하고 있습니다. 앞으로도 개방형 프롬프트(개를 산책시키는 사람의 이미지는 보편적입니다!)에 대해 이러한 작업을 계속할 것이며, 역사적 맥락에는 더 많은 뉘앙스가 있으므로 이를 반영할 수 있도록 조정해 나갈 것입니다. 이는 피드백에 대한 반복적인 조정 과정의 일부입니다.”