《뉴요커》 심층 조사 문 해석: OpenAI 내부인은 왜 알트먼을 신뢰할 수 없다고 판단했는가?
4月 8, 2026 11:05:03
원문 저자: 샤오빙, 심조 TechFlow
2023년 가을, OpenAI 수석 과학자 일리야 수츠케버는 컴퓨터 앞에 앉아 70페이지 분량의 문서를 완성했다.
이 문서는 Slack 메시지 기록, HR 커뮤니케이션 파일 및 내부 회의록을 정리한 것으로, 단 하나의 질문에 답하기 위해 작성되었다: 인류 역사상 가장 위험한 기술을 다루고 있는 샘 알트먼은 과연 신뢰할 수 있는가?
수츠케버가 제시한 답변은 문서 첫 페이지의 첫 줄에 적혀 있으며, 목록 제목은 "샘은 일관된 행동 패턴을 보인다…"이다.
첫 번째 항목: 거짓말.
2년 반이 지난 오늘, 탐사 기자 로난 패로우와 앤드류 마란츠는 《뉴요커》에 초장기 탐사 보도를 발표했다. 100명 이상의 관계자를 인터뷰하고, 이전에 공개되지 않았던 내부 메모를 입수했으며, 앤트로픽 창립자 다리오 아모데이가 OpenAI 재직 시 남긴 200페이지 이상의 개인 노트를 확보했다. 이 문서들이 엮어낸 이야기는 2023년의 "궁중 싸움"보다 훨씬 더 추악하다: OpenAI가 인류의 안전을 위해 설립된 비영리 조직에서 어떻게 상업적 기계로 변모했는지, 거의 모든 안전 장치는 같은 사람이 직접 제거한 것이다.
아모데이는 노트에서 더 직설적인 결론을 내렸다: "OpenAI의 문제는 바로 샘 본인이다."
OpenAI의 "원죄" 설정
이 보도의 중요성을 이해하려면 OpenAI라는 회사가 얼마나 특별한지를 먼저 명확히 해야 한다.
2015년, 알트먼과 실리콘밸리의 엘리트들은 상업 역사상 거의 전례가 없는 일을 했다: 비영리 조직을 통해 인류 역사상 가장 강력한 기술을 개발하는 것이다. 이사회는 안전이 회사의 성공보다 우선하며, 심지어 회사의 생존보다도 우선한다고 명확히 명시했다. 쉽게 말해, 만약 언젠가 OpenAI의 AI가 위험해진다면, 이사회는 이 회사를 직접 폐쇄할 의무가 있다.
전체 구조는 하나의 가정에 베팅하고 있다: AGI를 관리하는 사람은 반드시 극도로 정직한 사람이어야 한다.
잘못된 가정이라면?
보도의 핵심 폭탄은 그 70페이지 문서이다. 수츠케버는 사무실 정치에 개입하지 않으며, 그는 세계 최고의 AI 과학자 중 한 명이다. 그러나 2023년이 되자 그는 점점 더 확신하게 되었다: 알트먼은 고위 경영진과 이사회에 지속적으로 거짓말을 하고 있다.
구체적인 예: 2022년 12월, 알트먼은 이사회 회의에서 곧 발표될 GPT-4의 여러 기능이 안전 검토를 통과했다고 보장했다. 이사회 구성원 토너는 승인 문서를 요청했고, 그 결과 가장 논란이 되는 두 가지 기능(사용자 맞춤형 미세 조정 및 개인 비서 배포)이 안전 패널의 승인을 전혀 받지 못했다는 사실을 발견했다.
더 황당한 일은 인도에서 발생했다. 한 직원이 다른 이사회 구성원에게 "그 위반"을 신고했다: 마이크로소프트가 필요한 안전 검토를 완료하지 않고 인도에서 ChatGPT의 초기 버전을 조기 출시했다.
수츠케버는 메모에서 또 다른 사실을 기록했다: 알트먼이 전 CTO 미라 무라티에게 안전 승인 절차가 그렇게 중요하지 않으며, 회사 법률 총괄 고문이 이미 승인했다고 말했다. 무라티는 법률 총괄 고문에게 확인하러 갔고, 그쪽은 "샘이 이 인상을 어디서 얻었는지 모르겠다"고 답했다.
아모데이의 200페이지 개인 노트
수츠케버의 문서는 검찰의 기소장과 같다. 아모데이가 남긴 200페이지 이상의 노트는 사건 현장에서 목격자가 쓴 일기와 같다.
아모데이는 OpenAI에서 안전 책임자로 일하는 동안 회사가 상업적 압력 아래에서 한 걸음씩 후퇴하는 것을 직접 목격했다. 그는 노트에서 2019년 마이크로소프트 투자 건의 한 중요한 세부 사항을 기록했다: 그는 OpenAI 정관에 "합병 및 협력" 조항을 삽입했으며, 이는 다른 회사가 더 안전한 AGI 경로를 찾으면 OpenAI는 경쟁을 중단하고 그 회사를 도와야 한다는 내용이다. 이는 그가 거래에서 가장 중요하게 여긴 안전 보장이다.
거래가 거의 체결될 무렵, 아모데이는 한 가지 사실을 발견했다: 마이크로소프트가 이 조항에 대한 거부권을 가졌다. 무슨 뜻인가? 만약 언젠가 어떤 경쟁자가 더 나은 길을 찾더라도, 마이크로소프트는 한 마디로 OpenAI의 협력 의무를 차단할 수 있다. 조항은 종이에 남아 있지만, 서명한 날부터는 휴지조각이 되었다.
아모데이는 이후 OpenAI를 떠나 앤트로픽을 설립했다. 두 회사 간의 경쟁은 "AI는 어떻게 개발되어야 하는가"에 대한 근본적인 이견에 기반하고 있다.
사라진 20% 컴퓨팅 파워 약속
보도에서 한 세부 사항은 읽고 나면 등골이 오싹해지는 OpenAI의 "슈퍼 정렬 팀"에 관한 것이다.
2023년 중반, 알트먼은 버클리에서 "기만적 정렬" (AI가 테스트에서 순응하는 척하고 실제 배포 후에는 자기 방식대로 행동하는 것)을 연구하는 박사 과정 학생에게 이메일을 보내며 이 문제에 대해 매우 걱정하고 있으며, 10억 달러 규모의 글로벌 연구 상을 설립할 것을 고려하고 있다고 말했다. 박사 과정 학생은 큰 격려를 받아 학업을 중단하고 OpenAI에 합류했다.
그러나 알트먼은 마음을 바꿨다: 외부 상은 하지 않고 회사 내부에 "슈퍼 정렬 팀"을 설립하기로 했다. 회사는 "기존 컴퓨팅 파워의 20%"를 이 팀에 배정하겠다고 대대적으로 발표했으며, 잠재적 가치는 10억 달러를 초과한다고 했다. 발표 문구는 매우 엄숙하게 작성되었으며, 정렬 문제가 해결되지 않으면 AGI가 "인류의 권력을 박탈하거나 심지어 인류 멸종을 초래할 수 있다"고 경고했다.
이 팀의 리더로 임명된 얀 라이케는 이후 기자에게 이 약속 자체가 매우 효과적인 "인재 유치 도구"라고 말했다.
현실은 어떠한가? 이 팀에서 일하거나 밀접하게 접촉한 네 명의 관계자는 실제로 배정된 컴퓨팅 파워는 회사 총 컴퓨팅 파워의 1%에서 2%에 불과하며, 가장 오래된 하드웨어였다. 이 팀은 이후 해체되었고, 임무는 완료되지 않았다.
기자가 OpenAI의 "존재적 안전" 연구를 담당하는 인원과 인터뷰를 요청했을 때, 회사 홍보의 반응은 웃음을 자아냈다: "그건 실제로 존재하는 것이 아닙니다."
알트먼 본인은 담담했다. 그는 기자에게 자신의 "직감이 많은 전통적인 AI 안전과는 잘 맞지 않는다"고 말하며, OpenAI는 여전히 "안전 프로젝트 또는 최소한 안전과 관련된 프로젝트"를 진행할 것이라고 했다.
무력화된 CFO와 다가오는 IPO
《뉴요커》의 보도는 그날의 나쁜 소식의 절반에 불과하다. 같은 날, The Information은 또 다른 중대한 소식을 폭로했다: OpenAI의 CFO 사라 프라이어와 알트먼 사이에 심각한 갈등이 발생했다.
프라이어는 비공식적으로 동료들에게 OpenAI가 올해 상장할 준비가 되어 있지 않다고 말했다. 두 가지 이유: 완료해야 할 절차적 및 조직적 작업량이 너무 많고, 알트먼이 약속한 5년 6000억 달러의 컴퓨팅 파워 지출이 가져오는 재정적 위험이 너무 크기 때문이다. 그녀는 심지어 OpenAI의 수익 증가가 이러한 약속을 감당할 수 있을지 확신하지 못했다.
하지만 알트먼은 올해 4분기에 IPO를 추진하고 싶어 했다.
더 황당한 것은, 프라이어가 더 이상 알트먼에게 직접 보고하지 않게 되었다는 것이다. 2025년 8월부터 그녀는 피지 시모(OpenAI의 응용 사업 CEO)에게 보고하게 되었다. 그리고 시모는 지난주 건강 문제로 병가를 냈다. 이 상황을 생각해 보라: IPO를 추진하는 회사에서 CEO와 CFO 간에 근본적인 갈등이 있고, CFO는 CEO에게 보고하지 않으며, CFO의 상사는 휴가 중이다.
마이크로소프트 내부의 고위 경영진조차 이를 참지 못하고 알트먼이 "사실을 왜곡하고, 약속을 어기며, 이미 합의된 내용을 계속 뒤집고 있다"고 말했다. 한 마이크로소프트 고위 경영진은 심지어 이렇게 말했다: "그가 결국 버니 매도프나 SBF급 사기꾼으로 기억될 가능성이 있다고 생각한다."
알트먼의 "양면인" 초상화
한 전 OpenAI 이사회 구성원은 기자에게 알트먼의 두 가지 특성을 설명했다. 이 대목은 보도에서 가장 강렬한 인물 묘사일 수 있다.
이 이사회 구성원은 알트먼이 극히 드문 특성 조합을 가지고 있다고 말했다: 그는 매번 대면하는 대화에서 상대방을 기쁘게 하고, 상대방에게 좋아 보이기를 강하게 원한다. 동시에 그는 다른 사람을 속이는 것에서 발생할 수 있는 결과에 대해 거의 사회병적일 정도로 무관심하다.
이 두 가지 특성이 한 사람에게 동시에 나타나는 것은 매우 드물다. 그러나 판매원에게는 가장 완벽한 재능이다.
보도에서 잘 비유한 부분이 있다: 스티브 잡스는 "현실 왜곡 장"으로 유명했으며, 그는 전 세계가 자신의 비전을 믿게 만들 수 있었다. 하지만 스티브 잡스조차 고객에게 "내 MP3 플레이어를 사지 않으면 당신이 사랑하는 사람이 죽을 것"이라고 말한 적은 없다.
알트먼은 AI에 대해 비슷한 말을 했다.
한 CEO의 인품 문제, 왜 모든 사람의 위험인가
알트먼이 단순한 일반 기술 회사의 CEO라면, 이러한 비난은 기껏해야 흥미로운 상업적 가십에 불과할 것이다. 그러나 OpenAI는 일반적이지 않다.
그들 스스로의 주장에 따르면, 그들은 인류 역사상 가장 강력한 기술을 개발하고 있다. 이는 전 세계 경제와 노동 시장을 재편할 수 있으며(OpenAI는 최근 AI로 인한 실업 문제에 대한 정책 백서를 발표했다), 대규모 생화학 무기를 제조하거나 사이버 공격을 감행하는 데 사용될 수도 있다.
모든 안전 장치는 명목상으로만 존재한다. 창립자의 비영리적 사명은 IPO 추진에 자리를 내주었다. 전 수석 과학자와 전 안전 책임자는 CEO를 "신뢰할 수 없다"고 판단했다. 파트너들은 CEO를 SBF에 비유했다. 이러한 상황에서, 이 CEO가 인류의 운명을 바꿀 수 있는 AI 모델을 언제 발표할지를 단독으로 결정할 수 있는 이유는 무엇인가?
게리 마커스(뉴욕대학교 AI 교수, 오랜 AI 안전 옹호자)는 보도를 읽고 한 마디를 남겼다: 만약 미래의 OpenAI 모델이 대규모 생화학 무기를 만들거나 재앙적인 사이버 공격을 감행할 수 있다면, 정말로 알트먼 혼자서 발행 여부를 결정하게 해도 괜찮은가?
OpenAI는 《뉴요커》의 반응을 간결하게 밝혔다: "이 기사의 대부분은 이미 보도된 사건을 재탕한 것이며, 익명의 발언과 선택적인 일화로 구성되어 있으며, 정보 출처는 분명히 개인적인 목적을 가지고 있다."
알트먼의 반응 방식과 매우 유사하다: 구체적인 비난에 대해 응답하지 않고, 메모의 진실성을 부인하지 않으며, 동기만 의심한다.
비영리의 시체 위에 자란 돈나무
OpenAI의 10년을 이야기의 개요로 정리하면 다음과 같다:
AI 위험을 걱정하는 이상주의자들이 사명 중심의 비영리 조직을 설립했다. 조직은 비범한 기술적 돌파구를 마련했다. 그 돌파구는 막대한 자본을 끌어들였다. 자본은 수익을 요구했다. 사명은 길을 양보했다. 안전 팀은 해체되었다. 의문을 제기하는 사람들은 청소되었다. 비영리 구조는 영리 실체로 변경되었다. 회사를 폐쇄할 권한이 있었던 이사회는 이제 CEO의 동맹으로 가득 차 있다. 한때 인류의 안전을 지키기 위해 20%의 컴퓨팅 파워를 제공하겠다고 약속했던 회사는 이제 홍보 담당자가 "그건 실제로 존재하는 것이 아니다"라고 말하고 있다.
이 이야기의 주인공은 100명이 넘는 목격자들로부터 같은 레이블을 받았다: "진실에 구속받지 않는다."
그는 이 회사를 IPO로 이끌 준비를 하고 있으며, 가치는 8500억 달러를 초과할 것으로 예상된다.
이 글의 정보는 《뉴요커》, Semafor, Tech Brew, Gizmodo, Business Insider, The Information 등 여러 매체의 공개 보도를 종합한 것입니다.
최신 뉴스
ChainCatcher
4月 11, 2026 22:22:42
ChainCatcher
4月 11, 2026 22:22:35
ChainCatcher
4月 11, 2026 22:21:55
ChainCatcher
4月 11, 2026 21:45:57
ChainCatcher
4月 11, 2026 21:33:17












