디시인사이드 갤러리

마이너 갤러리 이슈박스, 최근방문 갤러리

갤러리 본문 영역

[정보/뉴스] 샘 알트만 인터뷰 AGI 부분 번역.claude3

ㅇㅇ갤로그로 이동합니다. 2024.03.19 05:21:34
조회 2725 추천 46 댓글 5
														

https://www.youtube.com/watch?v=jvqFAi7vkBc


20bcc834e0c13ca368bec3b9029f2e2db9d80a434ee55198b8ed84283f


렉스 프리드만: 네. 당신과 인류가 언제쯤 AGI를 만들 것이라고 생각하나요?


샘 알트먼: 예전에는 그 질문에 대해 추측하는 걸 좋아했어요. 하지만 그 질문이 매우 잘못 만들어졌다는 걸 깨달았죠. 사람들이 AGI가 무엇인지에 대해 매우 다른 정의를 사용하거든요. 그래서 우리가 언제 이 모호한 이정표를 지나갈 것인지에 대해 이야기하는 것보다, 우리가 언제 X, Y, Z 능력을 가진 시스템을 만들 수 있을지에 대해 이야기하는 게 더 의미 있다고 생각해요. AGI는 끝이 아니에요. 그것은 오히려 시작에 가깝죠. 하지만 그것은 이 둘 중 어느 것보다도 이정표에 가깝습니다. 하지만 질문을 회피하려는 게 아니라는 점을 말씀드리고 싶네요. 제 생각에는 이번 10년이 끝나기 전, 아마도 그보다 조금 더 빨리 우리는 꽤 유능한 시스템을 갖게 될 거예요. 우리가 보고 "와, 정말 놀랍군." 하고 말할 만한 시스템 말이에요. 만약 우리가 지금 그것을 볼 수 있다면요. 우리가 거기에 도달할 때쯤이면 적응했을지도 모르겠네요.


렉스 프리드만: 하지만 ChatGPT 3.5만 봐도, 앨런 튜링에게 보여주면, 아니 앨런 튜링은 둘째치고 90년대 사람들에게 보여주면 "이건 분명히 AGI야." 라고 할 거예요. 음, 확실히는 아니겠지만, 이것이 AGI라고 말할 전문가들이 많을 거예요.


샘 알트먼: 그렇죠. 하지만 3.5가 세상을 바꾸지는 않았다고 봅니다. 그것은 아마도 미래에 대한 세계의 기대를 바꿨을 거예요. 그리고 그건 사실 정말 중요하죠. 그리고 그것은 더 많은 사람들이 이것을 진지하게 받아들이고 우리를 이 새로운 궤도에 올려놓았어요. 그것도 정말 중요합니다. 그래서 다시 말하지만, 저는 그것을 과소평가하고 싶지 않아요. 저는 그 성과 후에 은퇴해도 제 경력에 꽤 만족할 수 있을 것 같아요. 하지만 결과물로서 우리는 그것을 돌아보며 "저것이 세계 자체를 진정으로 바꾼 전환점이었어." 라고 말하지는 않을 것 같아요.


렉스 프리드문: 그래서 당신은 세계가 어떻게 크게 변화하는지를 찾고 있는 건가요?


샘 알트먼: 제게는 그것이 AGI가 의미하는 바의 일부입니다.


렉스 프리드만: 특이점 수준의 전환인가요?


샘 알트먼: 아뇨, 절대 아니에요.


렉스 프리드만: 하지만 인터넷처럼 아주 큰, 구글 검색과 같은 전환점이 있을까요? 지금 어떤 전환점이 있다고 생각하나요?


샘 알트먼: GPT-4를 발표하기 전과 비교했을 때 세계 경제가 당신에게 실질적으로 다르게 느껴지나요? 저는 아니라고 말할 것 같네요.


렉스 프리드만: 아니요, 아니에요. 그냥 많은 사람들이 사용하기에 정말 좋은 도구일 수는 있겠죠. 많은 일에 도움이 될 테니까요. 하지만 크게 달라 보이지는 않아요. 당신이 말하는 건...


샘 알트먼: 사람들이 AGI를 다양한 방식으로 정의하잖아요. 그래서 당신은 저와 다른 정의를 가지고 계실지도 모르겠어요. 하지만 제게는 그것이 그 정의의 일부여야 한다고 봅니다.


렉스 프리드만: 극적인 순간들도 있을 수 있겠죠. AGI가 하면 인상적일 만한 일이 뭐라고 생각하세요? 당신이 시스템과 단둘이 있는 상황이라면요.


샘 알트먼: 이건 제게 개인적으로 중요한 부분이에요. 이게 옳은 정의인지는 모르겠어요. 하지만 어떤 시스템이 세상의 과학적 발견 속도를 크게 높일 수 있을 때, 그건 엄청난 일이라고 봅니다. 저는 진정한 경제 성장의 대부분이 과학적, 기술적 진보에서 온다고 믿거든요.


렉스 프리드만: 동의합니다. 그래서 최근 몇 년 동안 과학에 대한 회의론을 좋아하지 않아요.


샘 알트먼: 맞아요.


렉스 프리드만: 하지만 실제로 측정 가능한 과학적 발견의 속도 말이에요. 하지만 그냥 시스템이 정말 참신한 직관, 과학적 직관을 갖는 것만으로도 놀라울 거예요.


샘 알트먼: 그렇죠.


렉스 프리드만: 아마도 당신이 다른 사람보다 먼저 AGI와 상호작용할 수 있는 AGI를 만들 사람일 가능성이 높아요. AGI와 어떤 주제에 대해 이야기 나누고 싶나요?


샘 알트먼: 음, 여기 연구원들이 저보다 먼저 그럴 거예요. 하지만 사실 저도 이 질문에 대해 많이 생각해봤어요. 우리가 앞서 이야기했듯이 이것은 나쁜 프레임워크라고 생각하지만, 누군가 "좋아, 샘, 우리 끝냈어. 여기 노트북 있어. 이게 AGI야. 가서 이야기 나눠봐." 라고 한다면, 제가 처음의 그 AGI가 대답할 수 있을 거라 기대하는 것이 무엇일지 말하기가 의외로 어려워요. 첫 AGI에 "물리학의 대통일 이론, 모든 것의 이론을 설명해봐." 라고 해서 할 수 있을 거라고는 생각하지 않아요. 저는 그 질문을 묻고 싶어요. 그 질문에 대한 답을 알고 싶거든요.


렉스 프리드만: "그런 이론이 존재하나요? 존재할 수 있을까요?" 와 같은 예/아니오 질문을 할 수 있겠죠.


샘 알트먼: 그럼 그게 제가 먼저 물어볼 질문이겠네요.


렉스 프리드만: 예/아니오로요. 그리고 그에 따라 "다른 외계 문명이 있을까요? 예/아니오? 직관이 뭔가요?" 라고 물어보고요. 그냥 그렇게 물어보면 되겠네요.


샘 알트먼: 글쎄요, 저는 이 첫 번째 AGI가 그런 질문들에 예/아니오로도 답할 수 있으리라고는 기대하지 않아요. 하지만 그럴 수 있다면 그것들이 제 목록에서 아주 높은 순위에 있을 거예요.


렉스 프리드만: 아마 확률을 부여하기 시작할 수 있겠죠?


샘 알트먼: 어쩌면요. 어쩌면 우리는 먼저 더 많은 기술을 발명하고 더 많은 것들을 측정해야 할지도 모르죠.


렉스 프리드만: 아, 그렇군요. 그냥 충분한 데이터가 없다는 거네요. 계속 하다 보면...


샘 알트먼: 글쎄요, 아마 이런 말을 할지도 몰라요. "이 물리학 질문에 대한 답을 알고 싶다면, 이 기계를 만들고 이 5가지 측정을 해서 그 결과를 알려줘."


렉스 프리드만: 네, "대체 나한테 뭘 바라는 거야? 먼저 기계가 필요해. 그러면 그 기계에서 나오는 데이터를 처리하는 걸 도와줄게." 어쩌면 기계를 만드는 것도 도와줄지 몰라요.


샘 알트먼: 어쩌면요. 어쩌면요.


렉스 프리드만: 수학적인 측면에서는 어떤 것들을 증명해줄 수도 있겠죠. 그쪽에도 관심 있나요? 아이디어를 형식화해서 탐구하는 것 말이에요.


샘 알트먼: 음...


렉스 프리드만: 누구든 AGI를 가장 먼저 만드는 사람은 엄청난 권력을 갖게 될 거예요. 당신은 권력을 가진 자신을 신뢰하나요?


샘 알트먼: 이 질문에는 솔직하게 대답하죠. 저나 다른 그 어떤 사람도 OpenAI나 AGI에 대해 완전한 통제권을 가져서는 안 된다고 말하려고 했고, 저는 여전히 그렇게 믿고 있어요. 견고한 거버넌스 시스템이 필요하다고 봅니다. 작년에 있었던 이사회 극에 대해 제가 처음에는 싸우지 않았고, 그냥 "그래, 그게 이사회의 의지야. 내 생각엔 정말 나쁜 결정이지만." 이라고 했던 것을 지적할 수 있어요. 그리고 나중에는 분명히 싸웠죠. 그리고 제가 나중에 싸운 게 괜찮았다고 생각하는 이유와 뉘앙스를 설명할 수 있어요. 하지만 많은 사람들이 지적했듯이 이사회가 법적으로 저를 해고할 능력이 있었음에도 실제로는 그렇게 하지 않았어요. 그리고 그것 자체가 일종의 거버넌스 실패죠.


이제 다시 말하지만, 여기서 세부사항에 대해서는 완전히 변호할 수 있다고 느끼고, 대부분의 사람들도 그에 동의할 거라고 생각해요. 하지만 그것 때문에 제가 당신을 똑바로 쳐다보며 "이사회가 그냥 저를 해고할 수 있어요." 라고 말하기가 더 어려워졌어요. 저는 계속해서 OpenAI에 대한 초강력 의결권 통제를 원하지 않아요. 한 번도 그런 적이 없었고, 원하지도 않았죠. 이 모든 미친 짓 후에도 저는 여전히 그걸 원하지 않아요. 어떤 회사도 이런 결정을 내려서는 안 된다고 계속 생각하고 있고, 정부가 정말로 길을 갈 수 있는 규칙을 마련해야 한다고 봅니다.


그리고 그 말은 마크 앤드리슨 같은 사람들이 제가 규제 포획을 하려 한다고 주장할 거란 걸 알아요. 그리고 전 그렇게 오해받을 각오가 되어 있어요. 그건 사실이 아니에요. 그리고 시간이 지나면 왜 이것이 중요한지가 입증될 거라고 봅니다. 하지만 저는 OpenAI를 위해 수많은 나쁜 결정을 내렸고, 많은 좋은 결정도 내렸어요. 그리고 전반적인 성과에 대해 자부심을 느껴요. 하지만 그 어떤 한 사람도 AGI를 통제해서는 안 된다고 생각하고, 그 어떤 한 사람도 AGI로 향하는 이 모든 움직임을 통제해서는 안 된다고 봅니다. 그리고 그런 일은 일어나지 않을 거예요. 이제 그건 너무 큰 일이 되었고, 사회 전반에 걸쳐 좋고 건강한 방식으로 일어나고 있거든요. 하지만 그 어떤 한 사람도 AGI를 통제하고 있지 않다고 봅니다. 그런 일은 일어나고 있지 않아요.


렉스 프리드만: 그 말씀 감사드려요. 정말 강력했고, 통찰력 있는 말씀이었어요. 이사회가 당신을 해고할 수 있다는 생각은 법적으로는 사실이에요. 하지만 인간은 대중을 조종해 이사회를 무시할 수 있고요. 하지만 저는 그보다 훨씬 더 긍정적인 버전이 있다고 봐요. 사람들에겐 여전히 힘이 있으니까요. 그러니 이사회도 너무 강력해서는 안 돼요. 이 모든 것의 균형이 있어야 해요.


샘 알트먼: 힘의 균형은 분명 좋은 거예요.


렉스 프리드만: AGI 자체에 대한 통제력을 잃는 게 두렵진 않나요? 많은 사람들이 국가 행위자들 때문이 아니라, 보안 문제 때문도 아니라, AI 자체 때문에 실존적 위험을 우려하고 있어요.


샘 알트먼: 그건 제가 현재 상황을 보는 데 있어 가장 큰 걱정거리는 아니에요. 그것에 대해 더 걱정했던 때도 있었죠. 앞으로 그게 제 최대 걱정거리가 될 때가 다시 올지도 몰라요. 하지만 지금 당장은 아니에요.


렉스 프리드만: 그게 당신의 걱정거리가 아닌 이유에 대한 직감이 뭔가요? 본질적으로 걱정할 다른 것들이 많이 있어서 그런가요? 놀랄 수도 있다고 생각하시나요? 우리는...


샘 알트먼: 물론이죠.


렉스 프리드만: 놀랄 수 있겠죠?


샘 알트먼: 당연하죠. 그게 제 최대 걱정거리가 아니라고 해서 우리가 그것에 대해 고민할 필요가 없다는 뜻은 아니에요. 우리가 그것에 대해 노력해야 한다고 생각해요. 그건 매우 어렵고, 우리에겐 그 분야에서 일하는 훌륭한 사람들이 있죠. 우리가 제대로 해내야 할 다른 많은 것들도 있다고 봅니다.


렉스 프리드만: 당신에게는 지금 당장 상자에서 빠져나가 인터넷에 연결하는 게 그렇게 쉽지 않은 거군요.


샘 알트먼: 우리는 앞서 연극적인 위험에 대해 이야기했죠. 그건 연극적인 위험이에요. 그건 사람들이 이 문제에 대해 생각하는 방식을 정말 장악할 수 있는 것이죠. 그리고 매우 똑똑하고 선의를 가진 AI 안전 연구자들의 큰 무리가 있는데, 아마도 그다지 진척은 없었겠지만 이 하나의 문제에 매우 사로잡혀 있어요. 사실 그들이 그렇게 하는 걸 기쁘게 생각해요. 우리가 이에 대해 더 생각해봐야 한다고 보거든요. 하지만 그것이 AI 관련 다른 매우 중대한 위험들에 대한 담론의 공간을 밀어냈다고 봅니다.


렉스 프리드만: Sora가 시뮬레이션 세계를 만들어낼 수 있다는 걸 생각하면, 약간 약빤 질문 하나 해도 될까요? 우리가 시뮬레이션, 아마도 AI 시스템이 만들어낸 시뮬레이션 세계에 살고 있다는 당신의 믿음이 더 강해졌나요? 그런 적이 있다면 말이에요.


샘 알트먼: 어느 정도는요. 그게 가장 강력한 증거는 아니라고 봅니다. 우리가 세계를 만들어낼 수 있다는 사실이 모든 사람의 가능성을 어느 정도는 높여줘야 한다고 생각해요. 적어도 그것에 대해 어느 정도 열린 자세를 가지게 해줘야 하죠. 하지만 언젠가는 우리가 Sora 같은 걸 할 수 있으리라고 확신했어요. 제가 생각했던 것보다 더 빨리 일어났지만, 그건 큰 변화는 아니었던 것 같아요.


렉스 프리드만: 그렇죠. 하지만 우리가 참신하고, 어느 정도는 학습 데이터에 기반하지만 보면 새로운 세계를 만들어낼 수 있다는 사실이, 이런 일을 하는 게 얼마나 쉬운지 생각하게 만들어요. 전체 비디오 게임 세계를 만드는 게 얼마나 쉬운지요. 그 세계들은 초현실적이고 사진같이 실제 같아 보이죠. 그리고 VR 헤드셋으로 먼저, 그 다음엔 물리 기반 수준에서 그 세계에 빠져드는 게 얼마나 쉬운지요.


샘 알트먼: 최근에 누군가 제게 말했는데, 저는 그게 엄청나게 심오한 통찰이라고 생각했어요. 때로는 단순해 보이지만 아주 환각적인 통찰들이 존재한다는 거죠. 제곱근 함수, 4의 제곱근은 문제없어요. 2의 제곱근은, 좋아요, 이제 이 새로운 종류의 숫자에 대해 생각해봐야겠네요. 하지만 일단 어린아이에게도 설명할 수 있고 간단한 기하학으로도 존재하는 이 쉬운 제곱근 함수 아이디어를 생각해내고 나면, "음수 1의 제곱근은 뭘까?" 라는 질문을 던질 수 있게 되죠. 그리고 이게 바로 환각적인 이유예요. 그건 당신을 어떤 다른 종류의 현실로 빠뜨리거든요.


그리고 많은 다른 예시들도 생각해볼 수 있겠지만, 이 초라한 제곱근 연산자가 그렇게 심오한 통찰과 새로운 지식의 영역을 제공할 수 있다는 생각이 많은 면에서 적용된다고 봅니다. 그리고 저는 사람들이 시뮬레이션 가설의 어떤 버전이 전에 생각했던 것보다 더 그럴듯할 수 있다고 생각하게 만드는 그런 연산자들이 많이 있다고 봅니다. 하지만 제게는 Sora가 작동했다는 사실이 상위 5개 안에 들지는 않네요.

자동등록방지

추천 비추천

46

고정닉 12

원본 첨부파일 1

댓글 영역

전체 댓글 0
등록순정렬 기준선택
본문 보기

하단 갤러리 리스트 영역

왼쪽 컨텐츠 영역

갤러리 리스트 영역

갤러리 리스트
번호 말머리 제목 글쓴이 작성일 조회 추천
2863 설문 시세차익 부러워 부동산 보는 눈 배우고 싶은 스타는? 운영자 24/05/27 - -
412470 공지 레이 커즈와일 신간 6월 25일 발매 [29] 모브갤로그로 이동합니다. 24.01.24 7755 32
242613 공지 특갤 통합 공지 / 댓글 신고,문의 / 차단 해제 요청 [3076] 특갤용갤로그로 이동합니다. 23.08.06 39058 43
433260 공지 웬만하면 신문고에 문의 해주시면 차단 풀어드립니다 [1] 부패하는유전자!!!갤로그로 이동합니다. 24.03.06 2490 2
363220 공지 선형글 삭제 기준 [7] 특갤용갤로그로 이동합니다. 23.10.14 7175 24
375493 공지 필독) 유입 특붕이를 위한 AI 정보글 모음 (01/23) [40] ㅇㅇ(182.230) 23.11.11 13257 122
373402 공지 직업 비하, 조롱 글 30일 차단됩니다. [51] 특갤용갤로그로 이동합니다. 23.11.07 8887 79
385147 공지 구글의 AGI 분류 체계 [17] ㅇㅇ갤로그로 이동합니다. 23.11.22 8300 31
332612 공지 음모론 삭제 기준을 안내드립니다. [23] 특갤용갤로그로 이동합니다. 23.08.25 9091 30
259237 공지 특갤 용어 모음집 [6] 특갤용갤로그로 이동합니다. 23.08.09 22659 33
483866 일반 2025 AGI는 드립 [1] ㅇㅇ(163.152) 13:59 24 0
483865 일반 복제인간 입양은 불가능할까? [3] ㅇㅇ갤로그로 이동합니다. 13:55 29 0
483864 일반 프론티어가 막 훈련 시작이라고...? [3] 이런내가특특갤로그로 이동합니다. 13:52 74 0
483863 일반 agi 나오면 서민형 아파트 메타도 끝난다고 봐야지 [8] ㅇㅇ(211.184) 13:50 94 0
483862 일반 에스파 특슬람임? [3] ㅇㅇ갤로그로 이동합니다. 13:44 117 0
483861 일반 요번년 아니면 내년 gpt5가 나온다면 [3] ㅇㅇ갤로그로 이동합니다. 13:38 101 0
483860 일반 [뇌피셜] GPT-5 는 텍스트 , 오디오 , 비디오, 이미지가 결합됨 [11] ㅇㅇ(210.105) 13:31 232 0
483859 일반 인공지능이 말귀를 못알아들을 때는 존나 못알아먹으니까 [2] oo(110.11) 13:28 76 1
483858 일반 예전 기사인데, 말한대로면 5 기대해봐도 됨? [4] ㅇㅇ(112.171) 13:28 96 0
483857 일반 GPT4o 멀티모달이 개구라라고 말하는것이 개구라인이유 [3] ㅇㅇ(210.105) 13:28 83 0
483854 일반 코딩 몽키들은 그럼 각자 살길 찾아야 하는건가? [6] xdxd333갤로그로 이동합니다. 13:26 136 1
483853 일반 우리가 전문지식도 없고 안찾아봐서 그렇지 [4] ㅇㅇ(211.184) 13:23 93 0
483852 일반 코드몽키 수명이 얼마 안남은 것 같다 [2] ㅇㅇ(58.232) 13:22 111 0
483851 일반 이게 딱 자폐증 있는 사람들의 전형적인 말투임. [4] ㅇㅇ갤로그로 이동합니다. 13:22 179 5
483850 일반 9일뒤에 나올가능성은 전혀 없지 ㅇㅇ(59.14) 13:20 36 0
483849 일반 특갤럼들은 개미다 - roon ㅇㅅㅇ ㅇㅇ(122.36) 13:20 54 0
483848 일반 샘 알트만 시발아 그 돈 기부하지말고 ㅇㅇ갤로그로 이동합니다. 13:20 56 0
483847 일반 발전이 진짜 느리긴 하네 [14] ㅇㅇ(211.227) 13:18 153 0
483845 일반 AIG나오면 인류가 위험해 질수 있다고 걱정하는 건 당연하다. [1] ㅇㅇ(221.162) 13:16 53 0
483844 일반 그러고 보니 유토피아 sf 소설은 없음? [3] ㅇㅇ(103.237) 13:16 51 0
483843 일반 알트맨과 콘트롤맨 ㅇㅇ갤로그로 이동합니다. 13:15 24 0
483842 일반 리버테리안 vs 공신주의 vs ai 군주정 ㅇㅅㅇ [1] ㅇㅇ(122.36) 13:15 38 0
483841 일반 gta4 2021 8월에 개발 완료하고 정렬에 1년썻어여 ㅇㅅㅇ [5] ㅇㅇ(122.36) 13:08 159 2
483840 일반 GPT5 아직이냐? [3] ㅇㅇ(218.157) 13:05 98 0
483839 일반 Gpt6 ㅈㄴ무섭네 [2] 탈조선갤로그로 이동합니다. 13:04 174 0
483838 일반 한국언론이 개소리하는거지gpt5 하고 있는지가 언제인데 [3] 연맛갤로그로 이동합니다. 13:03 117 0
483836 일반 AGI 는 가까운 시일내로 나올거 같은 예감 [1] ㅇㅇ갤로그로 이동합니다. 13:01 56 0
483835 일반 챗gpt도 우흥되나요 wamiwami갤로그로 이동합니다. 12:59 43 0
483834 일반 과기부 얀 르쿤이랑 커넥션 생겼네 [3] ㅇㅇ(223.38) 12:58 86 0
483833 일반 GPT-4o 멀티모달이 개구라인 이유 [4] ㅇㅇ(106.247) 12:58 151 0
483832 일반 트위터 존나 안맞는구나 [2] ㅇㅇ(211.208) 12:58 96 0
483831 일반 어느 중국인이 느낀 한국 누가 쓴거임 ㅉㄲ가 쓴거야? [4] ㅇㅇ(125.129) 12:54 101 0
483830 역노화 유전자편집, 줄기세포, 나노기술 ,인공장기 [2] ㅇㅇ(125.176) 12:54 46 0
483829 일반 Gpt5는 훈련 시작한지 오래임 [2] ㅇㅇ(58.29) 12:54 123 0
483828 일반 게리 마카롱 포지션이 ㄹㅇ 개꿀이져 ㅇㅅㅇ [1] ㅇㅇ(122.36) 12:54 52 0
483827 일반 어쨌든 프론티어 모델 커밍 쑨이라고 했음 ㅇㅇ(138.199) 12:53 30 0
483826 일반 alt-맨이랑 정렬팀 그냥 정치싸움이네여 ㅇㅅㅇ [4] ㅇㅇ(122.36) 12:45 132 0
483824 일반 쨍깨새끼가 대놓고 밭 갈러 들어오네 [2] ㅇㅇ(219.255) 12:39 113 0
483822 일반 gpt 채팅 쌓이면 렉 존나 걸리는거 해결못함? ㅇㅇ(221.163) 12:32 30 0
483821 일반 9일후에 gpt5 안뜨면 [5] ㅇㅇ(223.62) 12:30 165 1
483820 일반 고대 주술신앙이나 자연을 섬기는 종.교가 미개해보여도 [3] ㅇㅇ(138.199) 12:30 107 1
갤러리 내부 검색
제목+내용게시물 정렬 옵션

오른쪽 컨텐츠 영역

실시간 베스트

1/8

뉴스

디시미디어

디시이슈

1/2