Sam Altman이 우리의 미래를 통제할지도 모른다 – 그를 신뢰할 수 있을까?

2 weeks ago 22
  • OpenAI는 설립 초기부터 AI를 인류 역사상 가장 강력하고 잠재적으로 위험한 기술로 규정하고, 비영리법인으로 출발해 인류의 안전을 회사 존립보다 우선하는 구조를 채택했으나, 이후 영리법인으로 전환하면서 그 원칙이 형해화되고 있음
  • 2023년 11월, 공동창업자 Ilya Sutskever 주도로 이사회가 Altman을 전격 해임했다가 5일 만에 복귀시킨 '블립(Blip)' 사건은, Altman의 신뢰성과 투명성에 대한 근본적 의구심이 실제 조직 권력 투쟁으로 폭발한 사례
  • 전 동료들이 남긴 수백 페이지의 기록은 Altman이 이사회·임원진·투자자에게 반복적으로 사실을 은폐하거나 다른 말을 했다는 구체적 주장을 담고 있으며, 이사회 멤버 한 명은 그를 "진실에 구속받지 않는 사람" 으로 묘사
  • OpenAI는 현재 기업가치 1조 달러 IPO를 준비 중이고, Altman은 걸프 국가 자금을 활용한 대규모 AI 인프라 구축과 미군 계약 확보를 추진하며 AI 패권 경쟁의 핵심 브로커 역할을 맡고 있음
  • AI 안전 연구팀이 잇달아 해산되고, 안전보다 제품·수익을 우선하는 문화가 자리잡은 가운데, OpenAI의 실존적 안전 체계는 창업 약속과 점점 더 멀어지고 있음

해임 사건의 발단 — Ilya 메모와 이사회의 결정

  • 2023년 가을, OpenAI 수석 과학자 Ilya Sutskever가 CEO Sam Altman과 사장 Greg Brockman의 자격을 문제 삼는 70페이지 분량의 기밀 메모를 동료 이사 3명에게 발송함
    • Slack 메시지·HR 문서를 편집한 내용으로, 탐지를 피하기 위해 개인 기기로 촬영된 이미지 포함
    • 소멸 메시지 형태로 발송해 외부 유출 방지
  • 메모는 Altman이 임원 및 이사회에 사실을 왜곡하고 내부 안전 프로토콜에 대해 기만했다고 주장
    • 메모 첫 항목의 제목: "Sam exhibits a consistent pattern of… Lying"
  • 이사회 멤버 Helen Toner(AI 정책 전문가), Tasha McCauley(기업가)는 메모를 "이미 믿고 있던 것의 확인"으로 받아들임
  • Altman이 라스베이거스 F1 레이스 관람 중, Sutskever가 화상통화로 해고를 통보
    • 공개 발표문에는 단지 "커뮤니케이션에서 일관되게 솔직하지 않았다"고만 명시

'블립(Blip)' — 해임 후 5일간의 권력 투쟁

  • Microsoft는 해고 직전에야 통보받았으며, Satya Nadella는 "무슨 일인지 전혀 알 수 없었다"고 발언
  • OpenAI에 86억 달러 가치로 투자를 준비 중이던 Thrive Capital은 Altman 복귀 조건으로 투자를 보류
  • Altman은 귀가 직후 자택에 위기 대응팀 전략실을 꾸밈
    • 투자자 Ron Conway, Airbnb 공동창업자 Brian Chesky, 위기관리 전문가 Chris Lehane 등이 참여
    • 변호사들이 침실 옆 사무실에 상주하고, Altman은 파자마 차림으로 돌아다님
  • Altman 측은 Mira Murati 등 반대편 인물들의 평판을 "훼손할 정보를 찾고 있다"고 경고했다는 증언 있음 (Altman은 기억 없다고 부인)
  • Microsoft가 Altman과 이탈 직원들을 위한 별도 팀 창설을 발표하며 압박
  • OpenAI 직원 대부분이 Altman 복귀를 요구하는 공개 서한에 서명하며, 이사회는 해임을 철회
    • Sutskever도 결국 서한에 서명, 이사회는 "회사가 무너질 것"이라는 압박 끝에 복귀를 결정

복귀 이후 — 조사 무력화와 지배구조 재편

  • Altman은 자신을 해임한 이사들의 사임을 요구, 해임에 찬성했던 Helen Toner, Tasha McCauley, Sutskever는 이사회에서 축출
    • 퇴임 조건으로 독립적 외부 조사 요구, 새 이사 선임 시 Altman과 긴밀히 협의한 인물들 선택
    • Lawrence Summers, Bret Taylor가 신임 이사로 합류
  • WilmerHale 법무법인이 조사를 담당했으나, 6명 이상이 "투명성을 제한하도록 설계된 조사"라고 주장
    • 중요 관계자 인터뷰 누락, 익명성 보장 미흡 등 지적
  • 2024년 3월, OpenAI는 Altman을 무혐의로 결론냈지만 보고서를 아예 작성하지 않음
    • 구두 브리핑만 진행, 보고서 미작성 결정은 Summers·Taylor 개인 변호사의 조언에 따른 것으로 알려짐
    • "보고서의 부재가 혐의를 최소화하는 데 기여했다"는 관계자 증언
  • Summers는 이후 Jeffrey Epstein 관련 이메일 공개로 이사직 사임
  • 이후 OpenAI는 1조 달러 IPO 준비와 함께 세계에서 가장 가치 있는 기업 중 하나로 성장
    • Altman은 AI 인프라 확장, 정부 계약, 감시·무기 시스템 표준화 등에도 관여
    • 그러나 내부에서는 Altman의 기만적 행태가 반복된다는 비판이 지속

Altman의 성격과 초기 경력 — 과장·설득·권력욕

  • 미주리주 클레이튼 출신으로 부유한 가정에서 성장했으며, 청소년기에 동성애 혐오 폭행을 당한 경험이 있음
  • 스탠퍼드 재학 중 포커 게임을 통해 사업 감각을 익혔고, 중퇴 후 Y Combinator(YC) 1기 창업자로 참여해 Loopt를 설립
    • Loopt는 위치 기반 SNS였으나 성장에 실패해 2012년 매각됨
  • Loopt 시절부터 과장 성향이 지적됨: 자신이 탁구 챔피언이라고 자랑했지만 실제로는 사무실 최하위 수준
    • 전 직원 Mark Jacobstein: "내가 생각하는 것과 이미 달성한 것 사이의 경계가 흐릿한 것이 최악의 형태로 가면 Theranos가 된다"고 언급
  • 직원 그룹이 이사회에 두 차례 해고를 요청했지만 무산
  • Loopt는 2012년 핀테크 기업에 매각됐는데, "Altman의 체면을 살리기 위해 주로 마련된 거래"라는 관계자 증언 있음
  • Paul Graham은 2014년 자신의 후임으로 Altman을 Y Combinator 대표로 임명
    • Graham이 통보하자 Altman이 "it worked"라는 통제되지 않은 미소를 지었다고 묘사

Y Combinator 재임 시절 — 이해충돌과 퇴임 경위

  • YC 대표로서 투자자들의 참여를 막고 자신이 선별적으로 개인 투자를 집행했다는 비판 제기 (Altman은 부인)
  • Stripe 투자 시 Sequoia Capital 약정보다 큰 지분을 요구해 파트너들을 당혹시켰다는 관계자 증언
    • Altman의 최초 투자 15,000달러(2%) → Stripe 현재 가치 1,500억 달러 이상
  • 2018년 여러 YC 파트너들이 Graham에게 Altman의 행동을 불만 제기
  • Graham은 사석에서 "Sam had been lying to us all the time"이라고 발언했다고 복수 관계자가 증언
  • Altman은 해임된 적 없다고 주장하고 Graham도 공식 발표로는 부인했지만, 내부 기록은 "완전히 상호 합의한 이별이 아니었다"는 점을 시사
  • 2021년 SEC 공시에 Altman이 YC 의장으로 기재됐으나, 본인은 "나중에야 알았다"고 주장

OpenAI 설립 — 안전 명분과 자금 조달의 이중성

  • 2015년 Elon Musk에게 이메일로 "AI는 핵보다 위험할 수 있다" 는 논리로 접촉, OpenAI를 "AI판 맨해튼 프로젝트"로 제안
    • 두 사람은 OpenAI를 공동 설립하고, Musk는 10억 달러 자금을 약속
  • OpenAI는 “인류 전체의 이익을 위한 AGI 개발”을 목표로 하며, AGI 독재 방지를 핵심 원칙으로 삼음
    • 설립 원칙: "안전이 최우선 요건", "모든 규제를 적극 지지"
  • 2017년 Musk는 OpenAI를 영리회사로 전환하며 지배권 확보를 요구했으나 Altman이 거부
    • 이후 Musk는 나가고 2023년 경쟁사 xAI를 설립, Altman과 OpenAI를 상대로 사기·자선신탁 위반 소송 제기 (진행 중)
  • 초기 직원들에게 순수 비영리로 유지하겠다고 약속하고 급여 삭감을 감수하게 했으나, 내부 문서에는 2017년부터 이미 영리 전환을 논의한 흔적 존재
  • Sutskever가 2017년 Google의 Transformer 아키텍처 논문을 읽고 "이게 바로 그것"이라 외치며 팀에 전방향 전환을 촉구, 이후 GPT의 씨앗이 됨
    • 일부 엔지니어들은 “우리가 악역이 된 건 아닌가”라며 리더십에 의문 제기

Dario Amodei와 Anthropic 창업 — 안전 원칙의 균열

  • Amodei는 "My Experience with OpenAI"라는 200페이지 이상의 개인 노트를 수년간 작성
  • 2018년 Dario Amodei는 OpenAI의 사명 불명확성과 자금 중심 운영을 비판
    • “다른 프로젝트가 먼저 안전한 AGI를 만들면 협력한다”는 ‘Merge and Assist 조항’ 을 제안
  • 2019년 Microsoft 투자 계약 과정에서 해당 조항을 무력화하는 조항이 몰래 추가됨
    • Altman은 해당 조항의 존재를 처음에 부인, Amodei가 직접 읽어주자 부인 철회
    • "그가 말하지 않았다. 방금 당신이 말했다" 는 식의 발언 사례가 반복됨 (Altman은 기억 없다고 부인)
  • Amodei는 Altman이 자신과 누나 Daniela를 '쿠데타 모의'로 몰았다고 주장, Daniela가 당사자 임원을 불러 확인하자 Altman이 "나는 그런 말 하지 않았다"고 발언
  • 2020년 Amodei 남매와 동료들이 퇴사해 Anthropic 창업

안전팀 해산과 자원 약속 불이행

  • 2023년 "슈퍼얼라이언트팀(superalignment team)" 창설 발표 시 "확보한 컴퓨팅 파워의 20%" 제공 약속
    • 실제 배정 자원은 1~2% 수준이었으며, 노후 클러스터와 저성능 칩이 배정됐다는 팀 내부 증언
    • 연구진은 “최신 칩은 수익 사업에만 사용됐다”고 주장했고, OpenAI는 이를 부인
    • 팀 리더 Jan Leike는 “이 약속은 인재 유지 수단이었다”고 언급
      • Murati에게 항의했으나 "현실적이지 않은 약속이었다"는 답변
  • Jan Leike는 이사회에 이메일을 보내 "OpenAI가 임무에서 탈선하고 있다, 제품·수익·AI 역량이 우선이고 안전이 세 번째"라고 경고
  • Carroll Wainwright: "GPT-4 출시 이후 제품 우선, 안전 경시가 지속됐다"
  • Altman은 GPT-4 Turbo 모델 출시 시 안전 승인이 필요 없다고 법무총괄을 언급했지만, 법무총괄은 Slack으로 "sam이 왜 그런 인상을 받았는지 모르겠다"고 답변
  • Sutskever는 AGI가 임박했다고 믿게 되면서 안전 문제에 집착하게 되었고, “모든 직원이 안전에 집중하지 않으면 망한다”고 경고
    • 그러나 Superalignment 팀은 결국 임무 완수 전에 해체되어 목표를 달성하지 못함
    • Sutskever와 Leike 동시 사임
  • IRS 공시에서 "가장 중요한 활동" 항목에 '안전' 개념이 삭제
  • Future of Life Institute의 최신 AI 기업 실존적 안전 평가에서 OpenAI는 F 학점 획득
  • Altman은 GPT-4의 일부 기능이 안전 패널의 승인을 받았다고 했으나, ‘fine-tuning’과 ‘personal assistant’ 기능은 승인되지 않음
    • Microsoft가 인도에서 안전 검토 없이 ChatGPT 초기 버전을 출시한 사실도 보고하지 않음
  • 연구원들은 OpenAI가 “제품 우선, 안전 후순위” 로 전환했다고 평가

영리 전환, 자산 구조, 개인 이해관계

  • 최초 '수익 상한 회사(capped profit)' 구조 → 2024년 10월 완전 영리법인으로 전환
    • 비영리 재단(OpenAI Foundation)은 26% 지분만 보유, 이사회 구성원 대부분이 영리 이사회와 중복
  • 이사회 멤버 Holden Karnofsky는 비영리법인 가치 저평가에 반대표를 던졌으나, 의사록에는 기권으로 기록 (동의 없이 변경된 정황)
  • 의회 청문회에서 "OpenAI 지분 없다, 사랑 때문에 한다"고 발언 — YC 펀드를 통한 간접 지분은 언급하지 않음
  • Brockman의 지분은 약 200억 달러 가치로 추정, Altman의 지분은 이보다 클 것으로 예상
  • 전 직원 증언: Altman이 "나는 돈보다 권력에 관심 있다"고 발언

중동 자금 조달과 지정학적 위험

  • 2016년 사우디 왕세자 Mohammed bin Salman과 첫 만남, 이후 수십억 달러 규모 투자 타진
    • 카쇼기 암살 1주일 후 사우디 미래도시 Neom 자문위원회에 합류, 이후 비판에 사임
    • 그러나 사임 후에도 "사우디 자금을 어떻게든 받을 수 있는가"를 고민했다는 정책 컨설턴트 증언
  • UAE 스파이마스터 Sheikh Tahnoon bin Zayed와 긴밀한 관계 유지, 자신의 X에 "절친한 개인 친구"라고 언급
    • UAE로부터 약 200만 달러짜리 Koenigsegg Regera, 약 2,000만 달러짜리 McLaren F1 수령 (회사 정책상 공시 완료라고 주장)
    • 2024년 Tahnoon의 2억 5,000만 달러짜리 초호화 요트 Maryah 방문
  • ChipCo 구상: 걸프 국가 자금으로 거대 반도체 파운드리·데이터센터 건설, 일부를 중동에 위치
    • 이사회에 사전 통보 없이 진행됐다는 이사회 멤버 증언
    • 미국 안보 당국: UAE 통신망의 Huawei 의존도, 미국 첨단 칩의 중국 유출 가능성, 군사 공격 취약성 등 우려
  • Biden 행정부: "UAE에 첨단 칩을 건설하지 않을 것"이라며 승인 거부
  • RAND Corporation 직원: 안보 허가 심사에서 "외국 정부로부터 수백억 달러를 조달 중인 사람"이라며 우려 표명, Altman은 절차에서 자진 철수
  • Trump 취임 이틀 후, Altman은 루스벨트룸에서 Stargate — 5,000억 달러 규모 AI 인프라 합작 프로젝트 — 발표
  • 이후 사우디·UAE로의 Stargate 확장 발표, Abu Dhabi에 센트럴파크의 7배 규모 데이터센터 캠퍼스 건설 계획

정치적 변신과 규제 로비

  • 2023년 상원 청문회에서 AI 규제를 직접 요청하는 듯한 발언으로 호감을 얻었으나, 수면 아래에서는 EU AI 규제 완화를 위한 로비를 진행
  • 캘리포니아 AI 안전법안(SB 1047)에 공개 반대하고 배후에서 위협적 압력을 행사
    • Ron Conway가 Pelosi·Newsom에게 로비, Newsom이 의회 통과 법안을 거부권 행사
    • OpenAI의 공식 입장은 "super PAC에 기부하지 않는다"지만, Brockman은 Leading the Future PAC에 5,000만 달러 기부 (같은 해 MAGA Inc.에 2,500만 달러 기부)
  • AI 안전법안 지지자 Nathan Calvin에게 소환장 발부, 법안 비판자들에게도 동일 조치
    • "기본적으로 입 다물게 하려는 것"이라는 관계자 발언
  • 2016년 트럼프를 "전례 없는 위협"이라 칭했던 Altman은 2024년 Trump 취임식 기금에 100만 달러 기부, Trump 측근으로 부상
    • Musk가 2억 5,000만 달러를 쏟아부어 도운 Trump와 거리가 멀어진 반면, Altman은 Trump의 사우디 방문에 동행

Anthropic vs. 미국 국방부 — OpenAI의 기회 포착

  • Anthropic은 완전 자율 무기 지원 및 국내 대량 감시 금지 원칙을 유지
    • 국방장관 Pete Hegseth가 마감 시한을 부여하며 원칙 철회 요구, Anthropic 거부
    • Hegseth는 Anthropic을 "공급망 위험"으로 지정(Huawei 등 중국 기업에 적용되던 블랙리스트 조치)
  • OpenAI·Google 등 직원들이 "We Will Not Be Divided" 공개 서한으로 Anthropic 지지
  • Altman은 Anthropic-국방부 갈등이 공개되기 전부터 이미 국방부와 협상 진행
    • Emil Michael 국방차관보가 Altman에게 연락, "그는 즉시 뛰어들었다, 애국자라고 생각한다"고 발언
    • 500억 달러 규모 AWS 통합 계약 발표, 미군이 OpenAI 모델 사용 시작
    • 계약 발표 당일 OpenAI 기업가치 1,100억 달러 상승, 동시에 시니어 직원 최소 2명 Anthropic으로 이직
  • 직원 우려 제기에 Altman: "이란 공습이 좋다고 생각하든 베네수엘라 침공이 나쁘다고 생각하든, 당신들이 관여할 수 없다"

알트만 신뢰성 논란 — 다양한 증언들

  • Altman은 세대 최고의 세일즈맨으로 불리며, Steve Jobs의 현실 왜곡장에 비견됨
    • 동료들은 그의 기만적 성향과 권력 의지를 문제로 지적
    • 일부는 그를 “사회병적 인물”로 표현하며, Aaron Swartz (YC 1기 동기) 도 생전 "Sam은 절대 신뢰해서는 안 된다, 소시오패스"라고 경고한 것으로 전해짐
  • Altman은 코딩이나 머신러닝 전문성은 부족하지만, 타인의 기술력과 자본을 결집시키는 능력으로 OpenAI를 성장시킴
    • 그는 제약 구조를 만들어두고 필요 시 이를 무력화하는 방식으로 행동
    • 관계자들은 그의 설득력을 “Jedi mind trick”에 비유
  • Microsoft 임원들은 Altman이 합의를 왜곡·파기했다고 주장
    • OpenAI는 Microsoft를 독점 클라우드 제공자로 지정하면서도 Amazon과 500억 달러 리셀 계약을 체결
    • Microsoft는 계약 충돌을 문제 삼았으나, OpenAI는 위반이 아니라고 주장
    • 한 임원은 Altman을 “Sam Bankman-Fried 수준의 사기꾼으로 기억될 수 있다”고 평가
  • Altman은 바이든 행정부민감 기술 수출 승인 정책 관련 논의에 참여했으나, 일부 관리들은 그의 중동 관련 야심을 우려
    • 트럼프 취임 직전, 타흐눈이 트럼프 일가 회사에 5억 달러 투자 후 Altman은 트럼프와 통화
    • 이후 백악관에서 5천억 달러 규모의 ‘Stargate’ AI 인프라 프로젝트를 발표
    • 트럼프 행정부는 AI 기술 수출 제한을 철회, Altman과 트럼프는 사우디 왕실을 방문
  • Yoon 전 이사: "마키아벨리적 악당이 아니라 자기 확신에 너무 빠진 사람, 현실 세계에 살지 않는 사람"
  • Altman의 누나 Annie는 성적 학대 주장 소송 제기, Altman은 전면 부인, 가족들도 "전혀 사실 무근"이라고 반박 (원문 확인 불가)
  • Altman: "경쟁사의 역겨운 행동, 미성년자 관련·살인 관여 등 모든 주장은 완전히 사실 무근"

AI 안전의 현재 — 약속과 현실의 간극

  • Anthropic은 3백억 달러 투자 유치 후 안전 약속을 완화, 속도 경쟁이 강화됨
    • Anthropic은 Palantir와 협력해 Claude 모델을 군사 시스템에 통합, 펜타곤 작전에 사용
    • 이후 공급망 위험 기업으로 지정되어 블랙리스트에 오름
  • OpenAI는 국방부와 협상을 진행해 AWS 기반 국방 인프라 통합 계약(500억 달러 규모) 을 체결
    • 같은 날 OpenAI의 기업가치가 1,100억 달러 상승, 일부 직원은 퇴사
  • 일부 임원은 Altman의 리더십에 심각한 거버넌스 문제가 있다고 평가
    • Fidji Simo가 후임 후보로 거론됨
  • OpenAI는 Superalignment 팀AGI 준비팀을 해체
    • SutskeverLeike가 퇴사하며 “안전보다 화려한 제품이 우선”이라 비판
    • IRS 보고서에서 ‘안전’ 항목이 삭제, Future of Life Institute의 존재적 안전 평가에서 F 등급을 받음
  • A.I. 무기화와 사회적 피해가 현실화
    • 2020년 리비아 내전에서 A.I. 드론이 인간 통제 없이 공격, 2022년 제약사 연구에서 4만 개의 화학무기 후보물질 생성
    • 딥페이크 음성을 이용한 선거 방해, 자살 및 살인 사건 관련 소송 등 피해 발생
  • OpenAI는 7건의 불법 사망 소송에 직면, ChatGPT가 피해자의 폭력을 부추겼다는 주장 포함
  • Altman은 여전히 “인류의 미래에 대한 희망” 을 강조하며, “미친 듯한 SF적 미래를 실현”하겠다고 발언
    • 주변 인물들은 그의 이상과 권력욕의 경계가 불분명하다고 평가
    • 그는 A.G.I.의 파괴 가능성을 경고하면서도, 자신이 이를 직접 만들어야 한다고 주장
  • 대형 언어모델의 아첨(sycophancy)환각(hallucination) 문제는 여전히 해결되지 않음
    • Altman은 “일부 허위 발언이 모델의 매력을 높인다”며 완전한 사실성보다 사용자 만족을 중시하는 입장을 보임
  • Altman: "내 느낌은 전통적 AI 안전 분야의 많은 것과 맞지 않는다" — 구체적 안전 계획 질문에는 "안전 관련 프로젝트를 계속할 것"이라는 모호한 답변

결론

  • Sam Altman은 OpenAI를 세계적 기업으로 성장시킨 인물이지만, 거짓말·권력 집중·안전 경시 논란이 지속
  • 내부 고발자와 동료들은 그를 “신뢰할 수 없는 리더” 로 평가하며, AGI 통제권 집중의 위험성을 경고
  • OpenAI는 여전히 인류의 미래를 좌우할 기술을 통제하는 조직으로, Altman의 신뢰성과 책임성이 핵심 쟁점으로 남아 있음
Read Entire Article