Gemini의 이미지 생성 기능은 Google의 Nerf 덕분에 예전만큼 강력하지 않습니다
해외 기사를 번역기로 번역 하였습니다 오역이 있을수 있으니 원문을 참고 하세요
Google의 생성 AI 챗봇인 Gemini는 최근 부정확하고 공격적인 이미지를 생성하는 대실패를 겪었으며, 이 사례에 따라 회사는 수정 사항을 찾고 서비스를 재개할 수 있을 때까지 이미지 생성 기능을 너프하기로 결정했습니다.
쌍둥이 자리는 특정 민족의 사람들에 대한 문제가 있는 이미지 생성으로 인해 뜨거운 물에 빠졌습니다.
Google은 Gemini가 검색, AI 모델 및 제공하는 기타 서비스에 직접 연결되지 않도록 하는 별도의 제품 엔터티인 방법에 대해 설명합니다. 앱이 준비되면 Google은 특정 그룹의 사람이나 민족에 대한 편견을 표시하는 대신 이미지 생성이 다양할 수 있도록 모델을 수동으로 조정했습니다. 전 세계가 큰 문제 없이 앱을 사용할 수 있습니다.
그러나 그 어떤 대책도 이후에 벌어질 일을 막을 수는 없었다. Gemini는 사용자가 실제로 이미지에 존재하는 특정 민족을 찾고 있는 사용 사례를 설명할 수 없었습니다. 이로 인해 "교실의 흑인 교사"와 같은 매우 이상한 프롬프트가 표시되어 모델이 불쾌할 뿐만 아니라 부정확한 이미지를 생성하게 되었습니다. 어떤 경우에는 애초에 이미지 생성을 거부하기도 했습니다. 그 이유는 모델에서는 민감하지 않은데도 민감하다고 간주했기 때문입니다.
그렇다면 이 모든 상황에 대한 구글의 입장은 무엇입니까? 글쎄, 회사는 Gemini에 있는 사람들의 이미지를 생성하는 기능을 중단했습니다. 회사는 전체 모델이 광범위한 테스트를 거친 후 문제가 해결되면 이를 어떻게 활성화할 것인지에 대해 이야기했습니다. 구글은 AI 모델이 완벽하지 않다는 점과, 도입 당시보다 발전했음에도 불구하고 여전히 환각 현상을 보이는 경향이 있어 문제가 발생할 수 있다는 점에 대해서도 언급했습니다.