글로벌 칼럼 | 생성형 AI의 한계…점점 멍청해지는 인공지능의 미래

3 weeks ago 35

생성형 AI 도구가 유용하기를 정말 바라는 입장이지만 현실은 그렇지 않다. 챗GPT, 메타 AI, 제미나이 등 프로그램을 계속 만져 본다. 잘 모르면 유용해 보인다. AI의 대답은 그럴듯하게 들린다. 하지만 자세히 살펴보면 AI의 환각, 즉 거짓말은 차치하더라도 AI가 내놓는 답변이 틀렸다는 것을 너무 자주 알 수 있다.
 

ⓒ Getty Images Bank

예를 들어 고등학생 수준의 리포트 수준이라면 생성형 AI의 답변도 괜찮다. 하지만 한 주제를 깊이 파고든다면 얘기가 달라진다.

필자는 리눅스나 오픈소스 소프트웨어와 같은 주제에 대해 평균적인 대형 언어 모델(LLM)보다 더 많은 것을 알고 있다. 생성형 AI가 이러한 주제에 대해 알려줄 것이 없지는 않은 것 같지만, 세부적으로 깊이 들어갈수록 정보가 빈약해진다.

실제로 너무 자주, 최종 결과는 짜증나고 불쾌할 정도로 틀린 경우가 많다. 더 나쁜 것은 비정상적으로 틀린 경우이다. 답변이 평범하지만 적당히 정확하다고 믿을 수 있다면 해결책을 찾을 수 있겠지만 그러기는 어렵다.

개인만의 생각이 아니다. 비즈니스위크는 진지한 GPT-4 사용자들은 점점 더 “더 게으르고” “더 멍청해졌다”라고 느끼고 있다고 보도했다. 다른 사람들도 동의한다. 최근 레딧에는 “1년 전 프로에 가입했을 때보다지금의 챗GPT 3, 4는 훨씬 덜 효과적이고 도움이 되지 않는다”라고 말한 사람도 있다. 맞는 말이다.

최고의 생성형 AI 챗봇인 퍼플렉시티(Perplexity)조차도 내리막길을 걷고 있는 것 같다. 퍼플렉시티를 좋아한 것은 관찰에 대한 소스를 제공하기 때문이었다. 퍼플렉시티는 터보 검색 엔진이라고 생각될 만큼 유용했다. 하지만 지난 며칠 동안은 점점 불안정해져서 더 이상 리패키징한 정보를 어디서 찾은 것인지 믿을 수 없게 되었다.

왜 이런 일이 발생하는 걸까? 필자는 AI 개발자는 아니지만, 이 분야를 주의 깊게 살펴본 결과 적어도 두 가지 주요한 이유가 있는 것으로 보인다.

첫 번째는 주요 LLM을 만드는 데 사용되는 콘텐츠의 품질이 그다지 좋지 않다는 것이다. 트위터, 레딧, 4챈과 같은 웹사이트의 자료가 다수 포함되어 있다.

올해 초 구글의 AI 개요에서 볼 수 있듯이 그 결과는 끔찍할 수 있다. MIT 테크놀로지 리뷰가 지적했듯이, “사용자는 피자에 접착제를 넣거나 하루에 작은 돌을 하나 이상 먹으며, 앤드류 존슨 전 미국 대통령은 1875년에 사망했지만 1947년부터 2012년 사이에 대학 학위를 취득했다‘와 같은 저품질의 답변이 나왔다.

여기까지는 어리석고 해롭지 않은 경우로 볼 수 있지만, 정답이 필요할 때는 완전히 다른 문제다. 예를 들어 인공지능이 만들어낸 사건의 정보를 법률 서류에 포함시킨 변호사를 생각해 보자. 판사는 재미있어 하지 않았다.

챗GPT의 가장 인기 있는 용도인 생성형 AI 도구로 이성과의 채팅을 하고 싶다면 정확도는 그다지 중요하지 않을 것이다. 하지만 정답을 얻는 것은 필자는 물론 비즈니스에 AI를 사용하려는 모든 사람에게 중요해야 한다.

거대 생성형 AI 기업이 계속해서 더 많은 데이터를 검색함에 따라 이 문제는 더욱 악화될 것이다. 에포크AI(Epoch AI)의 연구에 따르면 빠르면 2026년에는 고품질 데이터가 부족해질 것이라고 한다.

이는 두 번째 문제로 이어진다. 오늘날 그 어느 때보다 생성형 AI가 제작한 콘텐츠가 전문가의 콘텐츠를 대체하고 있다. 그 결과는 단순히 나쁜 데이터가 좋은 데이터를 밀어내는 것이 아니라 그보다 더 교묘하다.

최근 네이처 지에 실린 한 논문에 따르면 “다른 모델이 생산한 데이터를 무차별적으로 학습하면 시간이 지남에 따라 분포에 변화가 없는데도 모델이 실제 기본 데이터 분포를 잊어버리는 퇴행적 과정인 ‘모델 붕괴’가 발생한다”라고 한다. 필자는 이를 '가비지 인, 가비지 아웃(GIGO)'이라고 부르고 싶다.

기업이 실제 주제별 전문가와 숙련된 작가보다 훨씬 적은 비용으로 문서를 생산하기 위해 생성형 AI를 사용하는 것을 멈출 가능성은 없기 때문에 품질은 계속 하락할 수밖에 없다.

믿거나 말거나, 우리는 이미 품질에 관한 한 AI의 정점에 도달했을지도 모른다. 무서운 생각 아닌가?

필자는 인공지능에 대해 잘 모르는 사람이 아니다. 프로그램 문제 해결이나 잠재적 암 발견과 같이 특정 주제에 특화된 LLM 기반의 특수 목적 생성형 AI 챗봇은 이미 매우 유용하다. 온라인 게임의 AI 기반 비플레이어 캐릭터 같은 용도로 쓴다면 게임 플레이를 개선할 것이고, 외로운 사람들을 위한 AI 친구 엘리큐(ElliQ)처럼 많은 사람들에게 도움을 줄 수 있다.

그러나 너무 많은 기업이 기대하는, 지식 노동자를 대체하는 미래는 잊어버리자. 인공지능 챗봇으로 대체할 수 있는 것은 CEO뿐이다. 회사에 막대한 비용을 절감할 수 있다는 점을 제외하면 큰 차이를 느끼는 사람이 많지 않을 것이다.
editor@itworld.co.kr 

Read Entire Article