2015년 7월, 샌프란시스코로 돌아가는 차 안.
저녁 식사를 마친 두 사람이 서로를 바라봤다.
“우리가 해야 한다.” — Greg Brockman, 00:02:21
샘 알트먼과 그렉 브록먼. 그 한마디가 OpenAI의 시작이었다. 그리고 정확히 10년 뒤, 두 사람은 Core Memory Podcast에 처음으로 나란히 앉았다. 1시간 22분. 겉으로는 회고 인터뷰처럼 보이지만, 실제로는 OpenAI가 앞으로 어디로 갈지 꽤 선명하게 보여주는 자리였다.
이 대화에서 가장 중요한 키워드 세 가지: 에이전트, 퍼스널 AGI, 컴퓨트 접근성. 하나씩 들어가 보자.

Q. ChatGPT는 왜 세상을 바꿨을까?
샘 알트먼이 이 질문에 대한 답을 의외로 단순하게 던진다.
“ChatGPT는 우리가 한 것 중 가장 인상적인 기술이 전혀 아니었습니다. 그런데 사람들이 직접 써볼 수 있었을 때, 세상이 동시에 ‘아, 이게 진짜구나’라고 업데이트됐습니다.” — Sam Altman, 00:21:55
핵심은 성능이 아니라 경험이었다. 설명이 아니라 직접 써보는 것. 그게 인식을 바꿨다.

Q. AI 시대에 아이들은 무엇을 배워야 할까?
부모들이 샘에게 묻는 질문을 그는 이렇게 바꿔서 받는다.
“부모들이 묻는 건 ‘내 아이가 무엇을 공부해야 하나’가 아닙니다. 진짜 질문은 ‘내 아이가 이 새 세상에서 어떻게 의미 있는 삶을 살 수 있을까’입니다.” — Sam Altman, 00:12:00
그렉도 비슷한 맥락에서 말한다.
“지금 자라는 세대는 에이전트를 나보다 10배는 더 잘 쓰게 될 겁니다.” — Greg Brockman, 00:43:21
AI가 일을 대신하는 시대에 필요한 건 도구 사용법이 아니다. 자신이 원하는 것을 설명하고, 판단하고, AI가 만든 결과를 검토하는 힘. “조심해야 할 도구”로만 가르치면 부족하다. 직접 써보고 실패해보고 비교해봐야 한다.
샘이 ChatGPT 성공의 비결도 같은 맥락에서 설명한다. 기술이 가장 뛰어나서가 아니라, 사람들이 직접 경험할 수 있었기 때문이라는 것.
Q. 에이전트가 오면 업무는 어떻게 바뀌나?
이 인터뷰에서 가장 실무적인 부분은 그렉이 설명한 OpenAI의 전략 재편이다.
“Codex가 오늘날에는 소프트웨어 엔지니어를 위한 것처럼 보이지만, 우리는 이것을 모두를 위한 것으로 만들고 있습니다.” — Greg Brockman, 00:53:45
지금까지 업무자동화는 이런 흐름이었다: 사람이 문제를 정리 → 자동화할 부분을 찾음 → 스크립트나 노코드 도구를 만듦 → 사람이 계속 확인하고 고침.
에이전트가 들어오면 구조가 바뀐다. 사람은 “무엇을 해야 하는지”와 “어떤 기준으로 성공인지”를 말한다. 에이전트가 목표를 쪼개고, 파일을 읽고, 코드를 만들고, 테스트하고, 막히면 다른 방법을 찾는다.
중요한 능력이 바뀐다. 코드를 외우는 게 아니라:
- 목표를 분명히 말하는 능력
- 좋은 입력 자료를 주는 능력
- 결과물을 검수하는 능력
- 실패했을 때 로그와 원인을 읽는 능력
- 반복 가능한 워크플로우로 만드는 능력
업무자동화의 중심이 “도구 사용법”에서 “작업 설계”로 이동하고 있다.

Q. ‘퍼스널 AGI’가 뭔가?
그렉이 OpenAI의 목표를 이렇게 표현한다.
“우리가 가고 싶은 곳을 퍼스널 AGI라고 부르기 시작했습니다. 당신을 알고, 맥락을 알고, 신뢰할 수 있는 AI입니다.” — Greg Brockman, 00:27:18
지금 ChatGPT를 쓸 때 가장 피곤한 게 뭔가. 매번 설명해야 한다는 거다. 내가 누구인지, 어떤 일을 하는지, 어떤 스타일을 좋아하는지. 업무에서도 마찬가지. 프로젝트 구조, 파일 위치, 발행 규칙을 계속 반복해서 알려줘야 한다.
퍼스널 AGI는 이 피로를 줄이겠다는 방향이다. “더 똑똑한 챗봇”이 아니라, 나의 맥락을 오래 기억하고, 필요한 순간에 먼저 움직이며, 신뢰할 수 있는 판단을 내리는 AI.
그렉이 든 예시: 내가 좋아하는 가수가 도시에 온다는 것을 AI가 먼저 알고, 좋은 좌석을 찾고, 가격을 비교하고, 내가 신뢰할 수 있는 방식으로 구매까지 돕는 것.
Q. ChatGPT가 실제로 사람을 도운 사례가 있나?
그렉이 한 가족 이야기를 꺼낸다.
한 아이가 심한 두통을 겪고 있었고, 가족은 MRI를 요청했지만 보험에서 거절당했다. 가족은 ChatGPT로 증상을 조사하고, MRI가 필요한 이유를 정리해 다시 요구했다. 결국 MRI가 승인됐고, 뇌종양이 발견됐으며, 아이는 치료받을 수 있었다.
“그 가족은 ChatGPT 없이는 이 과정을 어떻게 헤쳐나갔을지 모르겠다고 말했습니다.” — Greg Brockman, 00:14:06
의료 판단을 AI에게 맡기라는 뜻은 아니다. 하지만 정보 접근성의 관점에서는 의미가 크다. AI는 전문가를 대체하기보다, 일반인이 전문가와 대화할 수 있는 준비를 돕는다. 증상을 정리하고, 질문을 만들고, 선택지를 비교하고, 필요한 근거를 찾게 해준다.
Q. AI가 불평등을 키울까, 줄일까?
영상 중반, 진행자가 샘에게 더 솔직한 답변을 요구한다.
“모두가 주관적으로 10배 부자가 되는 미래가 있을 수 있습니다. 그런데 AI와 컴퓨트를 잘 쓰는 사람들은 엄청난 부자가 됩니다. 어쩌면 10명의 조만장자가 나올 수도 있죠.” — Sam Altman, 00:39:05
불편하지만 정면으로 다루는 장면. 모두가 더 나아지지만 격차도 커질 수 있다는 것.
그렉의 답이 중요하다.
“AI는 접근할 수 있다면 모두에게 기회입니다. 컴퓨트가 없다면 아무리 에이전트를 잘 써도 할 수 있는 일이 많지 않습니다.” — Greg Brockman, 00:42:52
격차의 핵심은 “프롬프트를 아느냐 모르느냐”가 아니다. 실제로 써볼 수 있는 환경이 있느냐, 충분히 실험할 수 있는 계정과 기기가 있느냐, 실패해도 다시 시도할 수 있는 시간이 있느냐. 이것이 격차가 된다.
Q. 일론 머스크와 왜 갈라졌나?
피할 수 없는 질문에 샘이 꽤 직접적으로 답한다.
“일론은 절대적인 통제권을 요구했습니다. 한 사람이 인류의 미래 전체를 통제해서는 안 됩니다. 누구든 마찬가지입니다. 그게 우리가 No라고 한 이유였습니다.” — Sam Altman, 01:17:37
당시 영리 구조 전환 방향에는 샘, 그렉, 일리야, 일론 모두 동의했다고 한다. 문제는 통제권이었다. 지분이나 CEO 직함보다 더 받아들일 수 없었던 건 ‘절대 통제권’이었다는 설명.
이 대목은 드라마처럼 소비하기 쉽지만, AI 거버넌스 관점에서 보면 중요한 질문이 남는다.
강력한 AI를 누가 통제해야 하는가. 국가인가, 기업인가, 창업자인가, 연구자 집단인가, 시장인가. 샘은 적어도 “한 사람에게 절대 통제권을 줄 수는 없다”는 선을 분명히 긋는다.
Q. ‘두려움 기반 마케팅’에 대해 OpenAI는 어떻게 생각하나?
샘이 소수에게만 AI를 제공해야 한다는 주장에 대해 비판적이다.
“폭탄을 만들었으니 피난처를 1억 달러에 팔겠다. 그런데 특정 기업에게만 팔겠다. 이런 접근이 어떻게 인류를 위한 AI인가요?” — Sam Altman, 01:04:42
안전 문제가 실제로 존재한다는 건 인정한다. 하지만 공포를 앞세워 AI를 소수의 손에만 남겨두는 방식에는 반대한다. AI가 위험하다는 이유로 접근을 지나치게 제한하면, 결과적으로 이미 돈과 권력을 가진 사람만 더 강력한 AI를 쓰게 된다.
그래서 OpenAI가 강조하는 건 점진적 공개(iterative deployment). 위험을 보면서 단계적으로 공개하고, 사용 경험을 통해 더 안전하게 만드는 방식.
이 82분에서 가장 중요한 한 문장
“AI는 접근할 수 있다면 모두에게 기회입니다.” — Greg Brockman, 00:42:52
AI는 모두에게 자동으로 기회가 되지 않는다. 접근할 수 있어야 한다. 써볼 수 있어야 한다. 실패해볼 수 있어야 한다. 그리고 그 경험을 자신의 일과 배움으로 연결할 수 있어야 한다.
앞으로 중요한 사람은 최신 모델 이름을 많이 아는 사람이 아니다. 좋은 작업 흐름을 만드는 사람이다. 반복 업무를 에이전트에게 맡길 수 있게 구조화하는 사람. 자신의 맥락을 AI가 이해하도록 자료와 규칙을 정리하는 사람.
OpenAI 창업자들이 말한 미래는 거창했다. 퍼스널 AGI, 에이전트, 컴퓨트 경제, 로봇, 초지능. 하지만 지금 당장 할 수 있는 첫걸음은 의외로 구체적이다.
오늘 내 일 하나를 AI와 함께 다시 설계해보는 것. 매번 즉흥적으로 묻는 대신, 좋은 작업 방식은 파일과 워크플로우로 남겨두는 것.
AI 시대의 격차는 도구를 아는 사람과 모르는 사람 사이에서만 생기지 않는다. 경험을 축적하는 사람과 매번 처음부터 다시 시작하는 사람 사이에서 생긴다.
FAQ
Q. 이 영상에서 OpenAI가 가장 강조한 방향은? 에이전트. 그렉 브록먼은 OpenAI가 에이전트 플랫폼, 모든 사람을 위한 컴퓨터 작업, 퍼스널 AGI에 집중하고 있다고 설명했다.
Q. 퍼스널 AGI는 ChatGPT와 뭐가 다른가? 단순히 질문에 답하는 챗봇이 아니라, 사용자의 맥락을 오래 기억하고 신뢰 기반으로 실제 행동까지 도와주는 개인 AI에 가깝다.
Q. AI가 불평등을 심화시킬 가능성은? 샘 알트먼도 그 가능성을 인정했다. 핵심 변수는 컴퓨트 접근성. AI와 컴퓨트에 접근할 수 있는 사람이 더 많은 기회를 갖는다.
Q. 일론 머스크와 OpenAI가 갈라진 이유는? 샘 알트먼은 일론 머스크가 절대적인 통제권을 요구했고, “한 사람이 인류의 미래를 통제해서는 안 된다”는 이유로 거절했다고 설명했다.
Q. ‘점진적 공개’가 무슨 뜻인가? AI를 한 번에 다 공개하거나 아예 공개하지 않는 대신, 위험을 관찰하면서 단계적으로 공개하고 사용 경험을 통해 더 안전하게 만드는 방식.
원본 영상: Core Memory Podcast, “The OpenAI Founders On Their Plan To Battle Elon, Compute And Everything Else”