샘 올트먼, 자사 AI 안전위원회 탈퇴…독립적인 감독 기구 기대

17 hours ago 2

오픈AI의 CEO 샘 올트먼은 지난 5월 오픈AI의 AI 모델 개발 및 배포와 관련된 주요 안전 및 보안 결정을 감독하는 내부 위원회의 공동 책임자 자리에서 물러났다. 
 

ⓒ Getty Images Bank

오픈AI는 이제 안전 및 보안 위원회는 카네기멜런대학교 컴퓨터과학대학의 머신러닝 학과장인 지코 콜터 신임 위원장이 이끄는 “안전과 보안에 중점을 둔 독립 이사회 감독 위원회”가 될 것이라고 밝혔다. 콜터는 위원회를 떠난 전임 위원장인 브렛 테일러를 대신하게 된다. 큐오라(Quora)의 공동 설립자 겸 CEO인 아담 디안젤로, 퇴역한 미 육군 장군인 폴 마카소네, 소니의 전 부사장 겸 법률 고문인 니콜 셀리그먼 등 위원회의 다른 위원들은 그대로이다. 

오픈AI의 블로그 포스트에 따르면, 콜터가 이끄는 새 위원회가 오픈AI가 오픈AI o1의 출시 '적합성'을 평가하는 데 사용한 안전 및 보안 기준과 모델에 대한 안전성 평가 결과를 검토했다. 오픈AI o1은 최신 LLM 제품군으로, 물리학, 화학, 생물학 문제 벤치마크에서 인간 박사의 수준을 뛰어넘는 고급 추론을 도입했으며, 수학과 코딩에서도 높은 순위를 기록했다는 것이 오픈AI의 설명이다.

오픈AI는 향후 위원회의 ▲AI 안전 및 보안을 위한 독립적인 거버넌스 구축 ▲보안 조치 강화 ▲오픈AI의 업무에 대한 투명성 제고 ▲외부 조직과의 협업 ▲모델 개발 및 모니터링을 위한 회사의 안전 프레임워크 통합 등을 추진하는 임무를 맡기를 바란다고 밝혔다. 

실제로 AI 안전, 특히 오픈AI의 안전 관리는 다양한 이해관계자들에게 큰 관심사가 되고 있다. 올트먼은 오픈AI를 설립한 직후부터 논란의 인물이 됐고, 지난해 말 갑작스러운 퇴진과 복귀, 그 여파로 발생한 막후 거래와 조직 개편은 AI를 대표하는 인물이 된 올트먼에게 악명을 안겨주었다.

그 과정에서 오픈AI가 생성형 AI 도구인 코파일럿에 오픈AI 기술을 사용하는 마이크로소프트로부터 130억 달러의 투자를 유치하고, 오픈AI의 설립 이사회 멤버이자 투자자 중 한 명이었던 테슬라의 일론 머스크와 이념적으로 결별한 것 등이 대표적인 사례이다. 결국 머스크는 오픈AI의 설립 사명을 위반했다며 오픈AI와 올트먼을 고소했다.

오픈AI가 AI 개발과 관련된 보안 문제를 은폐하기 위해 불법 기밀 유지 계약을 사용하고 직원들에게 당국과의 접촉 여부를 밝히도록 요구했다는 보도가 나오면서 올트먼 체제 하에서 오픈AI 기술의 안전성에도 의문이 제기되고 있다.

에베레스트 그룹의 프랙티스 디렉터 아비셰크 셍업타는 올트먼이 오픈AI의 안전위원회에서 물러난 것이 아직 초기 단계인 AI 거버넌스에 어떤 영향을 미칠지는 아직 지켜봐야 한다고 지적했다. 그러나 오픈AI가 “AI 거버넌스 노력에서 중립성의 중요성”을 인식하고 있으며, AI 보안 및 안전 위험을 관리하는 방식에 대해 더 개방적일 수 있다는 신호로 보인다고 평가했다.

셍굽타는 “빠른 혁신의 필요성이 AI 거버넌스에 부담을 주었지만, 정부의 감시와 대중의 반발 위험이 증가하면서 점차 다시 주목받고 있다”라며, “AI 거버넌스 및 감사에 독립적인 서드파티가 점점 더 많이 관여하게 될 것”이라고 덧붙였다.
editor@itworld.co.kr

Read Entire Article