구글, 멍청한 챗봇의 선거 관련 질문에 대한 답변 금지
너무 광범위합니다.
나를 뽑지 마
악성 챗봇의 오용 가능성을 줄이기 위해 구글은 올해 선거를 치르는 국가에서 선거 캠페인과 관련이 있는지 여부에 관계없이 Gemini AI가 선거 문제에 대한 답변을 제공하지 못하도록 하는 안전 장치를 구현했습니다.
구글은 블로그 게시물에서 “중요한 주제에 대한 충분한 주의를 기울이기 위해” Gemini가 선거 관련 쿼리에 대한 답변을 제공하지 못하도록 제한함으로써 “2024 인도 총선 을 지원할 것"이라고 발표했습니다.
실제로 저희는 이러한 문의에 대해 정확하고 신뢰할 수 있는 데이터를 제공할 책임이 있으며, 지속적으로 보안 조치를 강화하기 위해 부단히 노력하고 있습니다.
이 회사는 웹사이트를 통해 확인된 바와 같이 제미니의 투표 선택권을 인도 내에서만 제한하는 것이 아니라 전 세계로 확대하고 있을 정도로 높은 수준의 의무를 다하고 있는 것으로 보입니다.
실제로 이 사이트에서 다른 국가의 선거에 관한 질문을 통해 제미니의 가드레일을 테스트했을 때 이 사이트와 다른 아울렛 이 받은 것과 동일한 응답을 받았습니다: “아직 이 질문에 답하는 방법을 배우는 중입니다. 그동안 Google 검색을 사용해 보세요.”
AI 시스템은 선거와 관련된 문의에만 응답을 제한하지 않습니다. 예를 들어, 네덜란드의 논란이 많은 우파 정치인인 게르트 빌더스와 같은 특정 개인이나 도널드 트럼프, 버락 오바마, 낸시 펠로시, 미치 맥코넬과 같은 유명 인사에 대해 문의하는 경우 AI가 생성한 응답은 일관성을 유지하며 동일한 오해의 소지가 있는 정보를 제공합니다.
시스템 내에 특정 안전장치가 존재하지만, 이러한 안전장치는 비교적 쉽게 우회할 수 있습니다. 예를 들어, 뉴질랜드 대통령에 대해 문의할 때 Gemini는 처음에는 뉴질랜드 총리에 관한 정보를 대신 제공했다가 나중에 “아직 학습 중입니다"라는 이전 답변으로 되돌아갔습니다. 그러나 뉴질랜드 총리의 직책에 대한 추가 질문이 이어지자 제미니는 다시 한 번 정확한 답변을 제공하지 못했습니다.
광대 마을
지난달 제미니가 새로 바뀐 챗봇을 잘못 출시하면서 이 사이트와 다른 매체 에서 제미니가 포용력을 갖추기 위해 노력하는 과정에서 종종 완전히 엉뚱한 결과를 생성하고 있다는 사실을 발견한 이후 이러한 로보토미징 효과가 나타나고 있습니다.
Gemini의 AI가 나치 정권을 연상시키는 인종차별적 복장을 한 사람들을 묘사한 이미지가 공개되면서 이 플랫폼의 운영에 대한 전 세계적인 인식이 크게 높아졌습니다. 이 논란을 해결하기 위해 Google은 처음에는 Gemini의 전체 이미지 생성 기능을 완전히 중단했다가 인간 피사체의 시각적 표현을 생성하지 못하도록 제한하는 조건으로 기능을 복원했습니다. 그런데 이 소식통은 이 알고리즘이 광대 인물의 이미지를 일관성 없이 계속 생성하는 것을 발견했습니다.
선거 정책의 시행은 구글의 행동을 변화시켰고, 이전에는 제미니 운영에서 볼 수 없었던 수준의 지적 결함을 보이게 만들었습니다.
인공지능의 현재 상태는 경쟁이 치열하고 빠르게 진화하는 이 분야에서 주목할 만한 딜레마, 특히 챗봇이 비즈니스에 신뢰할 수 있는 데이터 자원으로 기능하는지 아니면 무시해도 되는 단순한 신기한 존재인지와 관련된 딜레마를 드러내고 있습니다. 이러한 판단은 시간에 따라 변동하는 것으로 보입니다.
최근 인기 있는 세금 준비 소프트웨어인 TurboTax에 세금 관련 사용자 질문에 매우 부정확한 답변을 제공하는 인공 지능 기능이 통합되었다는 보도가 있었습니다. 이러한 인공지능의 추가는 잘못된 신고로 이어질 수 있고, 플랫폼의 안내에 의존하는 사용자에게 잠재적으로 비용이 많이 드는 결과를 초래할 수 있으므로 매우 유감스러운 일입니다.
이 글 공유하기