오픈AI가 18세 미만 사용자를 위한 자녀 보호 기능이 포함된 전용 챗GPT를 이달 말 선보인다고 16일(현지 시각) 밝혔다.
오픈AI는 미성년자로 확인된 사용자가 자동으로 연령에 맞는 환경으로 안내되며, 이 환경에서는 선정적·폭력적 콘텐츠가 차단되고 심각한 위기 상황에는 법 집행 기관이 개입할 수 있다고 설명했다.
또한 나이를 더 정확히 예측하는 기술을 개발 중이며, 불확실하거나 정보가 불완전할 경우 기본적으로 18세 미만 사용자 경험이 적용된다고 덧붙였다.
부모의 자녀 보호 관리 권한도 강화된다.
보호자는 자신의 계정을 자녀 계정과 연동해 사용 제한 시간을 설정하거나 챗봇의 응답 방식을 조정할 수 있다. 자녀가 심각한 정신적 고통을 겪는 경우에는 알림을 받을 수도 있다.
오픈AI는 이달 말부터 18세 미만을 위한 챗GPT를 사용할 수 있다고 전했다.
오픈AI의 이번 조치는 최근 미 연방거래위원회(FTC)가 오픈AI를 포함한 기술 기업들을 대상으로 AI 챗봇이 아동·청소년에게 미칠 잠재적 악영향을 조사하기 시작한 가운데 나왔다.
FTC는 “챗봇의 안전성을 보장하기 위해 어떤 조치를 취했는지 확인할 필요가 있다”며 자료를 요구한 바 있다.
앞서 오픈AI는 챗GPT와 수개월간 상호작용한 뒤 아들이 사망했다며 한 학부모가 제기한 소송의 피고로 지목되기도 했다.
샘 올트먼 오픈AI 최고경영자(CEO)는 이날 블로그에서 “우리는 10대들의 사생활이나 자유보다 안전을 우선시한다”며 “미성년자에게는 상당한 보호가 필요하다고 믿는다”고 밝혔다.
이어 “전용 챗GPT 출시는 어려운 결정이지만, 전문가들과 논의한 끝에 최선의 방안이라고 판단했다”며 “의도를 투명하게 공유하고 싶다”고 덧붙였다.