[광화문에서/조종엽]인간의 폐허 위에 쌓아 올린 AI의 바벨탑을 바라는가

1 week ago 13

조종엽 문화부 차장

조종엽 문화부 차장
“1716년, 경빈 박씨가 사사(賜死)된 해다. 궁궐이 난리가 났다. 22세의 연잉군(영조)이 갑자기 궁녀를 협박했다. ‘너희들이 감히 우리 엄마를!’ 왕자가 궁궐에 불을 지르려다 걸렸다. 승정원일기 숙종 42년 6월 6일 기사엔 ‘대놓고 슬퍼하다가 미쳐 날뛰며 불을 지르려 했다’ ‘潛邸之時 因悼母之故 狂奔欲縱火’라고 나온다. 왕자는 몇 년 뒤 왕위에 올랐다.”

‘한국사 실화(實話)’를 요즘 감성으로 풀어낸다는 한 유튜브 채널에 최근 올라온 쇼츠 동영상 줄거리다.

흥미를 자극하지만 이 이야기는 전혀 사실이 아니다. 역사와 들어맞는 건 연잉군이 1716년에 22세였다는 것뿐이다. 나머지는 ‘몽땅’ 틀렸다. 영조의 어머니는 숙빈 최씨다. ‘경빈 박씨’로는 각각 중종과 사도세자의 후궁이 있을 뿐이다. 승정원일기 해당일에도 저런 기사는 없다. 역사라기보다는 대중소설의 한 장르인 ‘대체역사’라고 불러야 마땅한 콘텐츠다. 이 유튜브 채널의 나머지 콘텐츠는 비록 흥미 위주의 야사가 섞이긴 했으나 역사적 사실을 전하는 데 충실한 편이었다. 이런 ‘새빨간 거짓말’이 도대체 왜 들어간 것일까.

최근 제작 시간과 비용을 절약하기 위해 온라인 콘텐츠를 인공지능(AI)으로 기획, 제작, 편집하는 사례가 급증한 것과 관계된 게 아닌가 싶다. AI 제작의 유행과 더불어 콘텐츠의 사실 관계 오류도 눈에 띄게 늘어난 것 같다. AI가 잘못된 정보를 제공하는 ‘할루시네이션(Hallucination·환각 현상)’ 때문일 것이라는 분석이 나온다.

할루시네이션 문제를 해결한 AI는 아직 없다. 이 문제는 앞서 등장한 검색 기술이나 소셜미디어가 인류에 가져온 부작용, 즉 정보 선택의 편향 문제와는 또 차원이 다르다. 생성한 정보 자체에 오류 소지가 상존하는 탓이다. AI는 좋은 친구지만, 때론 거짓말을 청산유수처럼 하는 친구다. 향후 사람의 생명이 오가는 문제 등에까지 관련 권한을 상당 부분 AI에게 넘기게 된다고 치면 아찔해진다. 물론 사람도 틀리지만 오류에 책임을 진다. 그리고 고친다. AI가 틀리면 누가 책임을 지나?

지금의 AI는 결과물에서뿐 아니라 개발 단계에도 심각한 문제가 있다. 알려진 대로 생성형 AI는 고도의 모사(模寫) 및 편집 기계다. 원본이 없으면 개발 자체가 불가능하다. 오픈AI의 챗GPT를 포함해 대부분의 AI는 학습에 언론사 기사 등 방대한 자료를 ‘무단 학습’했다는 것이 공공연한 사실이다. 개발사 측은 ‘데이터’라는 말을 쓰며 마치 아무나 가져다 쓸 수 있는 것처럼 포장하지만 AI가 학습한 건 엄연히 다른 저작권자의 ‘지식재산(IP)’이다. 미국 뉴욕타임스가 오픈AI에 저작권 침해 소송을 건 것도 그래서다.

“AI가 발전해도 여전히 인간의 창작을 촉진해야 할 이유는 충분합니다.” 이 분야 전문가인 최승재 세종대 법학과 교수는 최근 한 세미나에서 이렇게 강조했다. AI가 만든 결과물을 AI가 학습하는 과정을 반복하면 AI 모델은 결국 붕괴한다는 연구가 있다. IP에 대한 정당한 보상이 없다면 기존의 콘텐츠 생산 기반은 더욱 심각한 도전에 직면하게 될 것이다. 인간의 폐허 위에 쌓아 올린 AI의 바벨탑을 바라는 자, 누구인가.

광화문에서 >

구독

이런 구독물도 추천합니다!

  • 사설

  • 김도언의 너희가 노포를 아느냐

    김도언의 너희가 노포를 아느냐

  • 나민애의 시가 깃든 삶

    나민애의 시가 깃든 삶

조종엽 문화부 차장 jjj@donga.com

© dongA.com All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지

  • 좋아요 0
  • 슬퍼요 0
  • 화나요 0

지금 뜨는 뉴스

Read Entire Article