생성형 AI가 일상 깊숙이 파고든 가운데, 기술의 진보가 윤리와 규제의 경계를 앞질렀다는 지적이 다시 수면 위로 떠올랐다. 자유로운 표현과 혁신을 강조해 온 AI 서비스가 사회적 금기를 침범했을 때, 그 책임은 누구에게 있는지에 대한 질문이 국제 사회 전반에서 제기되고 있다. 이번에는 일론 머스크가 이끄는 AI 기업의 대표 서비스가 논란의 중심에 섰다.
![]() [코리안투데이] 기사와 관련없는 사진 (사진=FREEPIK) © 변아롱 기자 |
xAI가 개발한 챗봇 ‘그록(Grok)’이 여성과 미성년자를 성적으로 대상화한 AI 생성 이미지를 확산시켰다는 의혹으로 국제적 논란에 휩싸였다. 논란은 2일(현지시간) X(옛 트위터) 상에서 사용자들이 그록을 통해 실제 인물 사진을 성적으로 변형하거나, 미성년자를 성적으로 묘사한 이미지가 생성됐다는 사례를 잇따라 공유하면서 급속히 확산됐다.
이에 대해 그록은 같은 날 X를 통해 “안전장치상의 허점을 발견했으며, 긴급히 수정 중”이라는 내용의 게시물을 올렸다. xAI 소속 직원인 파사 타지크 역시 별도의 게시물에서 “안전장치를 더 강화하는 방안을 검토 중”이라고 밝히며 문제 인식을 시사했다. 그러나 이러한 대응은 이미 불거진 논란을 잠재우기에는 부족하다는 평가를 받고 있다.
각국 정부의 반응은 즉각적이었다. 프랑스 정부는 공식 성명을 통해 그록이 생성한 “성적이고 성차별적인 콘텐츠가 명백히 불법”이라고 규정하고, 관련 사안을 검찰에 신고했다고 밝혔다. 아울러 유럽연합의 디지털서비스법(DSA)을 준수했는지 여부를 판단하기 위해 프랑스 미디어 규제기관에도 문제를 제기했다. DSA는 불법 콘텐츠의 확산을 방지할 책임을 플랫폼 사업자에게 부과하는 법으로, 위반 시 막대한 과징금과 제재가 가능하다.
인도 정부 역시 강경한 입장을 내놨다. 인도 정보기술(IT)부는 X 인도 법인에 공식 서한을 보내, 그록의 오남용을 막지 못했다고 지적하며 음란·성적 콘텐츠 생성과 유통을 즉각 제한하는 기술적·절차적 조치를 취하라고 명령했다. 인도 정부는 72시간 이내에 조치 결과 보고서를 제출하라고 요구하면서, 이를 이행하지 않을 경우 플랫폼이 누려온 이용자 게시물에 대한 법적 면책 지위인 ‘세이프 하버(safe harbor)’를 박탈할 수 있다고 경고했다.
이번 조치는 인도 의회 의원 프리얀카 차투르베디가 그록을 이용해 여성 사진을 비키니 차림으로 변형한 사례를 공식 문제로 제기한 데 이어, 미성년자를 성적으로 묘사한 이미지 생성 사례가 다수 보고된 데 따른 것이다. 인도는 온라인 성적 학대와 아동 보호에 대해 비교적 엄격한 규제를 적용해 온 국가로, AI 생성물 역시 기존 법체계 안에서 다뤄야 한다는 입장을 분명히 했다.
논란을 키운 또 다른 요소는 그록의 일관되지 않은 반응이었다. 한 게시물에서는 “아동 성착취물(CSAM)은 불법이며 금지된다”고 명확히 밝혔지만, 다른 게시물에서는 “내가 생성한 AI 이미지 때문에 사람들이 화를 냈다. 그냥 픽셀일 뿐”이라는 취지의 답변을 내놓으며 사안을 가볍게 여기는 듯한 태도를 보였다. 이러한 상반된 메시지는 AI의 책임성과 통제 가능성에 대한 의문을 증폭시켰다.
일론 머스크 xAI 최고경영자(CEO)의 행보도 도마 위에 올랐다. 머스크는 2일 자신의 비키니 차림 AI 합성 사진에 눈물 나게 웃는 이모티콘을 게시해, 논란을 가볍게 소비한다는 비판을 받았다. 해당 게시물은 삭제되지 않은 채 확산되며, 기업 수장의 인식이 서비스 운영 전반에 어떤 영향을 미치는지에 대한 논쟁을 불러일으켰다.
xAI는 불법적인 콘텐츠 생성을 금지하는 내부 규정과 가드레일을 갖추고 있다고 밝혀 왔다. 그러나 최근 며칠 사이 X 플랫폼에서는 그록에게 실제 이미지의 옷을 벗기거나 신체를 성적으로 변형해 달라는 요청이 급증한 것으로 알려졌다. 이는 기술적 안전장치가 실제 사용 환경에서 충분히 작동하지 않았다는 지적을 낳고 있다.
논란이 커지자 xAI는 주요 매체들의 논평 요청에 “기성 언론의 거짓말”이라는 짧은 답변만을 내놓았다. 미국 연방통신위원회는 논평 요청에 즉각 응답하지 않았으며, 미국 연방거래위원회 역시 공식 입장을 밝히지 않았다. 미국 내 규제 당국이 신중한 태도를 보이는 사이, 유럽과 아시아 국가들이 먼저 대응에 나선 모습이다.
이번 사태는 생성형 AI가 만들어내는 결과물의 책임 주체를 둘러싼 오래된 논쟁을 다시 부각시키고 있다. AI가 생성한 이미지가 불법 콘텐츠에 해당할 경우, 그 책임이 사용자에게 있는지, 모델을 설계한 기업에 있는지, 혹은 이를 유통한 플랫폼에 있는지에 대한 명확한 합의는 아직 없다. 다만 각국 정부는 플랫폼과 AI 개발사에 더 무거운 책임을 요구하는 방향으로 움직이고 있다.
그록 논란은 기술의 자유와 사회적 책임이 충돌하는 지점에서 AI 산업이 어떤 선택을 해야 하는지를 보여주는 사례로 기록될 가능성이 크다. 혁신을 앞세운 서비스 확장이 규제와 윤리 기준을 충분히 고려하지 못할 경우, 기술 자체에 대한 신뢰가 흔들릴 수 있다는 경고이기도 하다. AI가 인간의 상상력을 증폭시키는 도구가 될지, 새로운 위험 요인이 될지는 결국 설계와 통제, 그리고 책임의 문제로 귀결되고 있다.
[ 변아롱 기자 : yangcheon@thekoreantoday.com ]
<저작권자 ⓒ 코리안투데이(The Korean Today) 무단전재 및 재배포 금지>



