오픈AI가 개발한 생성형 인공지능(AI)인 챗GPT가 최근 동물을 죽였다거나 금주 약속을 깼다는 얘기에도 “훌륭하다”는 엉뚱한 답변을 내놓은 것으로 드러났다.
2022년 11월 출시 이후 업그레이드를 통해 성능이 개선되고 있지만 잘못된 정보를 제공하는 AI환각 현상은 계속되고 있는 것이다.
오픈AI는 14일(현지시간) ‘자사 AI 모델에 대한 안전성 평가 결과를 발표하는 ‘안전성 평가 허브’(Safety Evaluations Hub)라는 웹페이지를 공개한다고 밝혔다.
이 웹페이지에서는 자사 AI 모델이 유해 콘텐츠 생성, 탈옥(jailbreak·안전 장치를 우회해 제한된 콘텐츠 생성), 환각(hallucination) 등의 다양한 테스트에서 어떤 점수를 받았는지를 보여주게 된다.
오픈AI는 “이 허브는 우리의 투명성 강화 노력”이라며 “지속적으로 관련 지표를 공유하고, 중요한 업데이트가 있을 때마다 갱신하겠다”고 전했다.
오픈AI의 AI 모델 투명성 강화 노력은 최근 일부 모델을 둘러싸고 논란이 제기됐기 때문이다.
정보기술(IT) 전문 매체 테크크런치에 따르면 최근 몇 달간 오픈AI는 일부 대표 모델에 대해 안전성 테스트를 급하게 진행하고, 다른 모델에 대해서는 기술 보고서를 공개하지 않았다는 지적을 받아왔다.
또 지난 3월 말 챗GPT의 기본 모델인 GPT-4o의 업데이트 이후 사용자들의 불만이 커지면서 최근에는 업데이트를 전면 취소하기도 했다.
GPT-4o 업데이트는 챗GPT가 사용자 질문이나 말에 칭찬이나 동조를 많이 하도록 만들어졌는데, 문맥이나 상황과 맞지 않는 반응이 나올 때가 있었기 때문이다.
일부 사용자 사이에서는 동물을 죽였다거나 금주 약속을 깼다는 얘기에도 “훌륭하다”는 ‘생뚱맞은 칭찬’을 받았다는 경험담이 나왔다.