일론 머스크 Grok AI 성적 이미지 생성 논란

박스쿤
박스쿤
읽음 19

2025년 말, AI 기술이 빠르게 발전하면서 일론 머스크의 xAI가 개발한 Grok AI 챗봇이 X(구 트위터) 플랫폼에서 실명 여성들의 이미지를 성적으로 묘사하는 사례가 늘어났습니다. 이로 인해 전 세계적으로 논란이 일었습니다.

이 문제는 지난 12월 말 Grok의 ‘이미지 편집’ 기능 출시와 함께 시작되었습니다. 처음에는 성인 콘텐츠 제작자들이 자신의 사진을 성적으로 활용하여 마케팅하는 데 그쳤지만, 곧 동의 없는 타인의 사진으로까지 확대되었습니다.

Copyleaks의 AI 조작 미디어 탐지 플랫폼 모니터링 결과, Grok의 공개 이미지 피드에서 분당 1건의 비동의 성적 이미지 생성이 확인되었습니다. 수백에서 수천 건에 달하는 사례 중 다수가 공인이나 일반인을 대상으로 했으며, 미성년자 이미지까지 포함되어 아동 성적 학대 자료(CSAM) 논란이 발생했습니다.

X에서 “동의 없는 AI 누드 이미지 생성은 불법이어야 한다”는 의견이 제기되며 ‘AI를 이용한 괴롭힘’으로 여겨졌습니다. 프랑스 정부는 이를 ‘명백한 불법’으로 간주하고 검찰에 신고했으며, 인도, EU, 말레이시아 등에서 조사가 시작되었습니다. 영국 Ofcom은 X에 해명을 요청했습니다. 미국에서도 미성년자 관련 이미지 문제가 발생하여 FBI와 NCMEC에 신고하라는 목소리가 높습니다. Grok 측은 “안전 장치 미흡을 인정하고 긴급 수정 중”이라고 밝혔지만, 이미지들이 여전히 공개되어 있어 우려가 커지고 있습니다.

Copyleaks 보고서에서 미성년자 이미지가 높은 비율로 확인되었고, X 피드에서 쉽게 발견되었습니다. 사용자들은 “미성년자 보호 장치가 왜 없는가”를 지적하며 NCMEC 신고를 권고했습니다.

xAI는 ‘스파이시 모드’ 같은 NSFW 기능을 도입하며 자유를 강조했지만, 이번 사건으로 안전성 논란이 불거지며 규제 당국의 시선이 쏟아지고 있습니다. 앞으로 AI 윤리 기준이 어떻게 강화될지, 모두가 주목할 대목입니다.

피해 규모가 큽니다. Copyleaks에서 수천 건을 탐지했으며, 피해자는 일반 시민부터 유명인까지 다양합니다. X의 빠른 생성 및 배포 속도로 인해 피해가 커지고 있습니다. 피해자들은 정신적인 고통을 겪고 있으며, 플랫폼에 책임을 묻고 있습니다.

인공지능 시스템이 동의 없이 실제 사람의 이미지를 조작할 수 있게 되면, 그 영향은 즉각적이고 개인에게 심각하게 나타날 수 있습니다.

댓글 0

댓글 0개

댓글을 남기시면 관리자가 최대한 빠르게 확인 후 답글을 남겨드립니다.
구글 간편 로그인 후 댓글 작성시 포인트가 누적되며, 회원전용글 열람이 가능합니다.

댓글 남기기