paint-brush
OpenAI 공동 창립자 Ilya Sutskever와의 인터뷰~에 의해@Eye on AI
16,097 판독값
16,097 판독값

OpenAI 공동 창립자 Ilya Sutskever와의 인터뷰

~에 의해 [email protected]15m2023/03/20
Read on Terminal Reader
Read this story w/o Javascript

너무 오래; 읽다

AI는 이미 우리 삶의 여러 측면을 장악하고 있습니다. 그러나 앞으로는 훨씬 더 진보되고 훨씬 더 강력해질 것입니다. 우리는 미지의 영역으로 나아가고 있습니다. 그러나 과잉 반응하지 않고, 지금 우리를 비추고 있는 밝은 태양으로부터 거북이처럼 물러서지 않는 것도 중요합니다.
featured image - OpenAI 공동 창립자 Ilya Sutskever와의 인터뷰
craig@eye-on.ai HackerNoon profile picture

인공지능으로 가득 찬 미래를 향해 달려가는 지금, 많은 평론가들은 우리가 너무 빨리 움직이고 있지는 않은지 의아해하고 있습니다. 거대 기술 기업, 연구원, 투자자 모두가 가장 발전된 AI를 개발하기 위해 열중하고 있는 것 같습니다.


그러나 걱정하는 사람들 은 위험을 고려하고 있습니까?


이 질문은 전적으로 의문의 여지가 없으며, 디스토피아적 가능성과 이를 피하는 방법을 고려하는 수백 명의 예리한 마음이 있다는 것을 확신하십시오.


그러나 사실 미래는 알 수 없으며, 이 강력한 신기술의 의미는 인터넷 출현 당시 소셜 미디어가 그랬던 것처럼 상상조차 할 수 없습니다.


좋은 것도 있고 나쁜 것도 있을 것입니다. 그러나 우리의 미래에는 강력한 인공지능 시스템이 있을 것이고, 우리 손자들의 미래에는 훨씬 더 강력한 AI가 있을 것입니다. 멈출 수는 없지만 이해할 수는 있습니다.


나는 지구상에서 가장 수익성이 높은 기업 중 하나가 될 것으로 예상되는 비영리 AI 연구소인 OpenAI의 공동 창립자인 Ilya Stutskever 와 함께 이 신기술에 대해 이야기했습니다.


Ilya와의 대화는 OpenAI의 거대한 AI 시스템의 최신 버전인 GPT-4가 출시되기 직전에 이루어졌습니다. GPT-4는 인간이 평생 읽을 수 있는 것보다 더 많은 수십억 단어의 텍스트를 소비했습니다.


GPT는 Generative Pre-trained Transformer의 약자로, 이 Homeric Polyphemus를 이해하는 데 중요한 세 가지 단어입니다. Transformer는 거인의 심장에 있는 알고리즘의 이름입니다.


사전 훈련이란 거대한 텍스트 모음을 통해 거대 괴물에게 언어의 기본 패턴과 관계를 가르치는 교육, 즉 세상을 이해하도록 가르치는 것을 말합니다.


생성적이란 AI가 이러한 지식 기반에서 새로운 생각을 만들어낼 수 있다는 것을 의미합니다.


AI는 이미 우리 삶의 여러 측면을 장악하고 있습니다. 그러나 앞으로는 훨씬 더 진보되고 훨씬 더 강력해질 것입니다. 우리는 미지의 영역으로 나아가고 있습니다. 그리고 그것이 무엇을 의미하는지 잠시 생각해 볼 가치가 있습니다.


그러나 과잉 반응하지 않고, 지금 우리를 비추고 있는 밝은 태양으로부터 거북이처럼 물러서지 않는 것도 중요합니다. 호메로스의 서사시 '오디세이'에서 키클롭스 폴리페모스는 오디세우스와 그의 일행을 잡아먹으려고 동굴에 가두는 이야기가 나옵니다.


그러나 오디세우스는 거인의 눈을 멀게 하고 탈출한다. AI는 우리를 먹지 않을 것입니다.


Ilya Sutskever는 OpenAI의 공동 창립자이자 최고 과학자이며 대규모 언어 모델 GPT-4 와 그 공개 자손인 ChatGPT의 주요 인물 중 하나입니다. ChatGPT는 세상을 변화시키고 있다고 해도 과언이 아닙니다.


일리아가 세상을 바꾼 것은 이번이 처음이 아닙니다. 그는 2012년에 과학계를 놀라게 하고 딥 러닝 혁명을 촉발한 극적인 성능을 보인 컨볼루셔널 신경망인 AlexNet의 주요 원동력이었습니다.


다음은 우리 대화의 편집된 내용입니다.


CRAIG: 일리아, 당신이 러시아에서 태어났다는 걸 알아요. 컴퓨터 과학에 관심을 가지게 된 계기가 무엇이었나요? 그것이 처음의 충동이었다면, 신경과학이든 뭐든 말이죠.


ILYA: 사실 저는 러시아에서 태어났어요. 저는 이스라엘에서 자랐고, 10대 때 가족이 캐나다로 이민을 왔습니다. 부모님은 제가 어릴 때부터 AI에 관심이 많았다고 하셨습니다. 나는 또한 의식에 의해 매우 동기를 부여 받았습니다. 나는 그것에 대해 매우 불안했고, 그것을 더 잘 이해하는 데 도움이 될 수 있는 것이 무엇인지 궁금했습니다.


저는 17세 때 아주 일찍 Geoff Hinton(GPT-4의 AI 종류이자 딥 러닝 창시자 중 한 명, 당시 토론토 대학교 교수)과 함께 일하기 시작했습니다. 즉시 토론토 대학교에 입학할 수 있었습니다. 저는 머신러닝을 정말 하고 싶었습니다. 그 당시에는 머신러닝이 전혀 접근할 수 없었던 인공지능의 가장 중요한 측면처럼 보였기 때문입니다.


그때가 2003년이었습니다. 우리는 컴퓨터가 학습할 수 있다는 것을 당연한 것으로 여겼지만, 2003년에는 컴퓨터가 학습 할 수 없다는 것을 당연하게 여겼습니다. 당시 AI의 가장 큰 성과는 IBM의 체스 게임 엔진인 Deep Blue(1997년 세계 챔피언 Garry Kasparov를 이겼음)였습니다.


하지만 거기에는 이 게임이 있고 연구 결과가 있으며 한 위치가 다른 위치보다 나은지 결정하는 간단한 방법이 있습니다. 그리고 학습이 없었기 때문에 그것이 현실 세계에 적용될 수 있을 것 같지 않았습니다. 배움은 이토록 큰 미스터리였습니다. 그리고 저는 학습에 정말로 관심이 많았습니다. 운 좋게도 Geoff Hinton은 대학의 교수였으며 우리는 거의 즉시 함께 일하기 시작했습니다.


그렇다면 지능은 도대체 어떻게 작동하는 걸까요? 어떻게 컴퓨터를 조금이라도 지능적으로 만들 수 있을까요? 저는 AI에 아주 작지만 실질적인 기여를 하겠다는 아주 분명한 의도를 갖고 있었습니다. 그래서 동기는 '지능이 어떻게 작동하는지 이해할 수 있을까?'였습니다. 그리고 그것을 위해 기여를 하시나요? 이것이 나의 초기 동기였습니다. 그것은 거의 정확히 20년 전이었습니다.


간단히 말해서, 비전과 같이 사람들이 수행하는 일부 복잡한 작업을 지정하는 충분히 큰 데이터 세트의 대규모 신경망과 심층 신경망을 훈련하면 반드시 성공할 것이라는 것을 깨달았습니다. 그리고 그것에 대한 논리는 환원될 수 없었다. 우리는 인간의 두뇌가 이러한 작업을 해결할 수 있고 신속하게 해결할 수 있다는 것을 알고 있습니다. 그리고 인간의 뇌는 느린 뉴런을 가진 신경망일 뿐입니다.


따라서 더 작지만 관련된 신경망을 가져와 데이터에 대해 훈련시키면 됩니다. 그리고 컴퓨터 내부의 최고의 신경망은 이 작업을 수행하는 우리 두뇌의 신경망과 관련이 있을 것입니다.


CRAIG: 2017년에는 self-attention과 변환기를 소개하는 "Attention Is All You Need" 논문이 나왔습니다. GPT 프로젝트는 언제부터 시작됐나요? 변압기에 대한 직관이 있었나요?


ILYA: 따라서 맥락상, OpenAI에서는 초창기부터 다음 일을 예측하는 것이 필요한 전부라는 아이디어를 탐구하고 있었습니다. 우리는 당시의 훨씬 더 제한된 신경망을 사용하여 이를 탐색하고 있었지만 다음 단어를 예측할 수 있는 신경망이 있다면 비지도 학습을 해결할 수 있다는 희망이 있었습니다. 따라서 GPT 이전에는 비지도 학습이 기계 학습의 성배로 간주되었습니다.


이제는 완전히 해결되었고 아무도 그것에 대해 이야기하지 않지만 그것은 성배였습니다. 그것은 매우 신비로웠기 때문에 우리는 그 아이디어를 탐구하고 있었습니다. 다음 단어를 충분히 잘 예측하면 비지도 학습이 가능하다는 사실에 정말 기뻤습니다.


하지만 우리의 신경망은 그 일을 감당할 수 없었습니다. 우리는 순환 신경망을 사용하고 있었습니다. 트랜스포머가 나왔을 때 말 그대로 논문이 나오자마자 문자 그대로 다음 날 트랜스포머가 순환 신경망의 한계, 장기적인 종속성 학습의 한계를 해결했다는 것이 나에게 분명해졌습니다.


기술적인 문제입니다. 하지만 우리는 바로 변압기로 전환했습니다. 그래서 트랜스포머에 대한 초기 GPT 노력이 계속되었습니다. 더 잘 작동하기 시작했고 더 크게 만들고 계속해서 더 크게 만듭니다.


이것이 결국 GPT-3을 탄생시켰고 본질적으로 오늘날의 위치에 이르렀습니다.


CRAIG: 존재하는 대규모 언어 모델의 한계는 교육받은 언어에 지식이 포함되어 있다는 것입니다. 그리고 대부분의 인간 지식은 모두가 동의한다고 생각합니다.


그들의 목표는 프롬프트의 통계적 일관성을 만족시키는 것입니다. 그들은 언어와 관련된 현실에 대한 근본적인 이해가 없습니다. 나는 ChatGPT에 나 자신에 대해 물었습니다. 제가 저널리스트이고 다양한 신문사에서 일했다는 사실을 인식했지만 제가 한 번도 수상한 적이 없는 상을 계속해서 언급했습니다. 그리고 그것은 모두 아름답게 읽혔지만, 그 중 근본적인 현실과 연결되는 것은 거의 없었습니다. 앞으로의 연구에서 이 문제를 해결하기 위해 수행 중인 작업이 있나요?


ILYA: 오늘날 우리가 겪고 있는 이러한 한계가 2년 후에도 여전히 존재할 것이라고 얼마나 확신하시나요? 나는 그렇게 자신감이 없습니다. 질문의 한 부분에 대해 제가 하고 싶은 또 다른 의견이 있습니다. 즉, 이러한 모델은 통계적 규칙성을 학습할 뿐이므로 세계의 본질이 무엇인지 실제로 알지 못한다는 것입니다.


나는 이것과 다른 견해를 가지고 있습니다. 즉, 통계적 규칙성을 배우는 것은 눈에 보이는 것보다 훨씬 더 큰 일이라고 생각합니다.


예측은 통계적 현상이기도 합니다. 하지만 예측하려면 데이터를 생성한 기본 프로세스를 이해해야 합니다. 데이터를 생산한 세계에 대해 점점 더 많이 이해해야 합니다.


우리의 생성 모델이 엄청나게 좋아짐에 따라 그들은 세상과 그 미묘함에 대해 충격적인 수준의 이해를 갖게 될 것이라고 나는 주장합니다. 텍스트라는 렌즈를 통해 본 세상이다. 인터넷에서 인간이 표현하는 텍스트의 공간에 세계를 투사함으로써 세상에 대해 점점 더 많이 배우고자 한다.


그러나 그럼에도 불구하고 이 텍스트는 이미 세계를 표현하고 있다. 그리고 제가 보기에 정말 흥미롭고 흥미로운 최근의 예를 하나 들어보겠습니다. 저는 [ChatGPT]와의 매우 흥미로운 상호작용을 보았습니다. 사용자가 Google이 Bing보다 더 나은 검색 엔진이라고 생각한다고 말했을 때 [ChatGPT]가 전투적이고 공격적이 되었습니다.


이 현상에 대해 생각하는 좋은 방법은 무엇입니까? 무슨 뜻이에요? 사람들이 무엇을 할지, 사람들이 이렇게 할지를 예측하는 것일 뿐이라고 말할 수 있는데, 이는 사실입니다. 그러나 아마도 우리는 이제 이러한 신경망의 행동을 이해하기 위해 심리학의 언어가 적용되기 시작하는 지점에 도달하고 있을 것입니다.


이제 한계에 대해 이야기 해 봅시다. 실제로 이러한 신경망은 환각을 일으키는 경향이 있습니다. 그 이유는 언어 모델이 세상에 대해 배우는 데는 훌륭하지만 좋은 결과물을 생성하는 데는 약간 덜 훌륭하기 때문입니다. 그리고 거기에는 다양한 기술적인 이유가 있습니다. 언어 모델이 세상에 대해 훨씬 더 잘 배우고 아이디어, 개념, 사람, 프로세스에 대한 놀라운 표현을 학습하지만 그 결과가 기대만큼 좋지 않거나 오히려 기술적인 이유가 있습니다. 가능한 한 좋은 것입니다.


ILYA: 예를 들어 언어 모델인 ChatGPT와 같은 시스템의 경우 추가적인 강화 학습 훈련 프로세스가 있는 이유도 바로 이 때문입니다. 우리는 이를 인간 피드백을 통한 강화 학습이라고 부릅니다.


사전 훈련 과정에서는 세상에 대한 모든 것을 배우고 싶다고 말할 수 있습니다. 인간 피드백을 통한 강화 학습을 통해 우리는 결과에 관심을 갖습니다. 우리는 출력이 부적절할 때마다 다시는 이 작업을 수행하지 말라고 말합니다. 출력이 의미가 없을 때마다 이 작업을 다시 수행하지 마세요.


그리고 좋은 결과를 생성하는 방법을 빠르게 학습합니다. 하지만 출력 수준은 언어 모델 사전 학습 과정에서는 그렇지 않습니다.


환각에 관해서는 때때로 뭔가를 만들어내는 경향이 있고, 그것은 또한 그 유용성을 크게 제한하는 것입니다.


하지만 인간의 피드백 단계에서 후속 강화 학습을 단순히 개선함으로써 환각을 일으키지 않도록 가르칠 수 있다는 희망이 큽니다. 이제 정말 배울 수 있을지 말할 수 있을까요? 내 대답은 '알아보자'이다.


오늘날 우리가 하는 방식은 신경망이 작동하도록 가르치고 ChatGPT가 작동하도록 가르치기 위해 사람들을 고용하는 것입니다. 당신이 그것과 상호작용하면 그것은 당신의 반응을 보고 '아, 그건 당신이 원한 게 아니구나'라고 추론합니다. 당신은 그 출력에 만족하지 않습니다.


따라서 출력이 좋지 않았으며 다음번에는 뭔가 다르게 해야 합니다. 이 접근법이 환각을 완전히 해결할 수 있을 가능성이 상당히 높다고 생각합니다.


CRAIG: Yann LeCun(Facebook의 수석 AI 과학자이자 딥 러닝의 또 다른 초기 개척자)은 대규모 언어 모델에서 누락된 것은 언어 모델이 참조할 수 있는 비언어적인 기본 세계 모델이라고 믿습니다. 나는 당신이 그것에 대해 어떻게 생각하는지, 그리고 당신이 그것에 대해 전혀 탐구했는지 듣고 싶었습니다.


ILYA: Yann LeCun의 제안을 검토했는데 거기에는 많은 아이디어가 있고 다른 언어로 표현되어 있으며 현재 패러다임과 약간의 차이가 있을 수 있지만 제 생각에는 그다지 중요하지 않습니다.


첫 번째 주장은 시스템이 텍스트를 통해 세상에 대해 아는 것뿐만 아니라 다중 모드 이해를 갖는 것이 바람직하다는 것입니다.


이에 대한 내 의견은 실제로 다중 모드 이해가 바람직하다는 것입니다. 왜냐하면 세상에 대해 더 많이 배우고, 사람들에 대해 더 많이 배우고, 그들의 상태에 대해 더 많이 알게 되고, 시스템이 수행해야 하는 작업이 무엇인지 이해할 수 있기 때문입니다. 해결하고 사람들과 그들이 원하는 것을 더 좋게 만듭니다.


우리는 이에 대해 꽤 많은 작업을 수행했으며, 특히 우리가 수행한 두 가지 주요 신경망의 형태로 작업했습니다. 하나는 Clip이고 하나는 Dall-E입니다. 그리고 둘 다 이러한 다중 모드 방향으로 이동합니다.


그러나 나는 또한 상황을 이진법으로 보지 않는다고 말하고 싶습니다. 또는 비전이 없으면 시각적으로 또는 비디오를 통해 세상을 이해하지 못하면 모든 것이 작동하지 않을 것이라고 말하고 싶습니다.


그리고 저는 이에 대한 근거를 제시하고 싶습니다. 따라서 어떤 것들은 이미지와 다이어그램 등을 통해 훨씬 쉽게 배울 수 있다고 생각합니다. 하지만 여전히 텍스트로만 배울 수 있으며, 속도가 더 느릴 수도 있습니다. 그리고 예를 들어보겠습니다. 색상의 개념을 생각해 보세요.


확실히 텍스트만으로는 색상의 개념을 배울 수 없지만 임베딩을 볼 때 임베딩의 개념을 설명하려면 약간 우회해야 합니다. 모든 신경망은 고차원 벡터인 표현, '임베딩'을 통해 단어, 문장, 개념을 나타냅니다.


그리고 우리는 고차원 벡터를 보고 무엇이 유사한지 볼 수 있습니다. 네트워크는 이 개념이나 저 개념을 어떻게 봅니까? 따라서 우리는 색상 임베딩을 볼 수 있으며 보라색이 빨간색보다 파란색에 더 유사하다는 것을 알고 빨간색이 보라색보다 주황색에 더 유사하다는 것을 알고 있습니다. 텍스트만으로 모든 것을 알고 있습니다. 어떻게 그렇게 될수 있니?


비전이 있다면 색상 간의 구별이 바로 당신에게 다가올 것입니다. 당신은 즉시 그것들을 인식합니다. 반면에 텍스트를 사용하면 시간이 더 오래 걸리고 말하는 방법을 알고 이미 구문, 단어 및 문법을 이해하고 훨씬 나중에야 실제로 색상을 이해하기 시작할 수 있습니다.


따라서 이것이 다중 양식의 필요성에 대한 나의 요점이 될 것입니다. 나는 그것이 필요하지는 않지만 가장 확실히 유용하다고 주장합니다. 추진하는 것이 좋은 방향이라고 생각합니다. 나는 그런 극명한 주장에서 그것을 보지 못합니다.


따라서 [LeCun's] 논문의 제안은 큰 과제 중 하나가 불확실성이 있는 고차원 벡터를 예측하는 것이라고 주장합니다.


그러나 제가 발견한 놀라운 점, 또는 적어도 논문에서 인정되지 않은 점 중 하나는 현재의 자기회귀 변환기가 이미 해당 속성을 가지고 있다는 것입니다.


두 가지 예를 들어보겠습니다. 하나는 책의 한 페이지가 주어지면 책의 다음 페이지를 예측하는 것입니다. 다음에 나올 수 있는 페이지가 너무 많을 수 있습니다. 매우 복잡하고 고차원적인 공간인데 그들은 그것을 잘 처리합니다. 이미지에도 동일하게 적용됩니다. 이러한 자동 회귀 변환기는 이미지에서 완벽하게 작동합니다.


예를 들어 OpenAI와 마찬가지로 우리는 iGPT에 대한 작업을 수행했습니다. 우리는 변환기를 가져와 픽셀에 적용했는데 아주 잘 작동했고 매우 복잡하고 미묘한 방식으로 이미지를 생성할 수 있었습니다. Dall-E 1에서도 마찬가지입니다.


따라서 논문에서 현재 접근 방식이 고차원 분포 예측을 처리할 수 없는 부분에 대해 강력한 논평을 했다고 생각한 부분은 확실히 가능하다고 생각합니다.


CRAIG: 강화 학습을 통해 효과적으로 지도하기 위해 ChatGPT 또는 대규모 언어 모델을 사용하여 작업하는 인간 트레이너 군대를 보유한다는 아이디어는 직관적으로 볼 때 기본 개념에 대해 모델을 가르치는 효율적인 방법처럼 들리지 않습니다. 그 언어의 현실.


ILYA: 질문의 표현에 동의하지 않습니다. 나는 사전 훈련된 모델이 근본적인 현실에 대해 알아야 할 모든 것을 이미 알고 있다고 주장합니다. 그들은 이미 언어에 대한 지식을 갖고 있으며, 이 언어를 생산하는 세계에 존재하는 과정에 대해서도 많은 지식을 갖고 있습니다.


대규모 생성 모델이 데이터에 대해 학습하는 것(이 경우 대규모 언어 모델)은 이 데이터를 생성한 실제 프로세스의 압축된 표현입니다. 뿐만 아니라 사람들이 처해 있는 상태와 그들 사이에 존재하는 상호작용에 관한 것이기도 합니다.


사람이 처할 수 있는 다양한 상황. 이 모든 상황은 텍스트를 생성하기 위해 신경망으로 표현되는 압축 프로세스의 일부입니다. 언어 모델이 좋아질수록, 생성 모델이 좋아질수록, 충실도가 높아질수록 이 프로세스를 더 잘 포착할 수 있습니다.


이제 선생님의 표현대로 교사군은 실제로 AI 지원을 사용하고 있습니다. 그 선생님들은 혼자가 아닙니다. 그들은 우리 도구를 사용하여 작업하고 있으며 도구가 대부분의 작업을 수행합니다. 하지만 감독이 필요합니다. 결국 매우 높은 수준의 신뢰성을 달성하려면 사람들이 동작을 검토하도록 해야 합니다.


실제로 결과 언어 모델이 최대한 잘 동작하도록 이를 최대한 효율적이고 정확하게 만들려는 동기가 많이 있습니다.


ILYA: 그렇군요. 바람직한 행동 모델을 가르치는 인간 교사들이 있습니다. 그리고 그들이 AI 시스템을 사용하는 방식이 지속적으로 증가함에 따라 그들 자신의 효율성도 계속 증가하고 있습니다.


세상에서 어떻게 하면 잘 행동할 수 있는지 교육과정과 다르지 않습니다.


환각이 결코 괜찮지 않다는 것을 모델이 알 수 있도록 추가 훈련을 수행해야 합니다. 그리고 강화 학습 인간 교사 루프 또는 이를 가르치는 다른 변형이 있습니다.


여기 뭔가가 작동해야합니다. 그리고 우리는 곧 알게 될 것입니다.


크레이그: 이게 어디로 가는 거죠? 뭐, 지금 연구에 집중하고 있나요?


ILYA: 제가 진행 중인 구체적인 연구에 대해 자세히 말할 수는 없지만, 폭넓은 연구 중 일부를 언급할 수는 있습니다. 저는 이러한 모델을 더욱 안정적이고 제어 가능하게 만들고 수업 데이터를 통해 더 빠르게 학습하고 지침을 적게 만드는 데 매우 관심이 있습니다. 실제로 환각을 느끼지 않도록 만드십시오.


CRAIG: 더 큰 규모로 확장하려면 더 빠른 프로세서가 필요하다고 말씀하신 것으로 들었습니다. 그리고 모델의 확장은 끝이 보이지 않지만 이러한 모델을 훈련하는 데 필요한 힘은 한계에 도달하고 있습니다. 최소한 사회적으로 허용되는 한계입니다.


ILYA: 당신이 언급한 내용이 정확히 기억나지는 않지만, 당신은 항상 더 빠른 프로세서를 원합니다. 물론 전력은 계속 오르고 있다. 일반적으로 비용이 증가합니다.


그리고 제가 묻고 싶은 질문은 비용이 큰지 여부가 아니라, 이 비용을 지불함으로써 얻는 것이 비용보다 더 큰지 여부입니다. 어쩌면 이 모든 비용을 지불하고 아무것도 얻지 못할 수도 있습니다. 그러면 그럴 가치가 없습니다.


그러나 매우 유용하고, 매우 가치 있고, 우리가 겪고 있는 많은 문제를 해결할 수 있고, 우리가 정말로 해결하고 싶은 것을 얻는다면 그 비용은 정당화될 수 있습니다.


크레이그: 제가 본 어느 시점에서 민주주의와 AI가 미칠 수 있는 영향, 즉 민주주의에 대해 말씀하셨죠.


사람들은 해결이 불가능해 보이는 갈등이 발생하는 날에 대해 이야기했습니다. 충분한 데이터와 충분히 큰 모델이 있으면 데이터를 기반으로 모델을 훈련할 수 있고 모두를 만족시킬 수 있는 최적의 솔루션이 나올 수 있다고 말했습니다.


이것이 인간이 사회를 관리하는 데 도움이 되는 방향으로 이어질 수 있다고 생각하시나요?


ILYA: 훨씬 더 미래 지향적인 질문이기 때문에 매우 큰 질문입니다. 나는 우리 모델이 지금보다 훨씬 더 많은 능력을 발휘할 수 있는 방법이 아직 많이 있다고 생각합니다.


정부가 이 기술을 다양한 종류의 조언 소스로 어떻게 사용할지는 정확히 예측할 수 없습니다.


민주주의 문제에 관해 제가 생각하기에 미래에 일어날 수 있는 일 중 하나는 이러한 신경망이 있고 그것이 매우 널리 퍼져 사회에 큰 영향을 미칠 것이기 때문에 우리는 한 국가의 시민들이 신경망에 그들이 원하는 방식에 대한 일부 정보를 제공하는 일종의 민주적 과정을 갖는 것이 바람직하다는 것을 알게 되었습니다. 나는 그런 일이 일어나는 것을 상상할 수 있었다.


그것은 아마도 매우 높은 대역폭의 민주주의 형태일 수 있습니다. 각 시민으로부터 훨씬 더 많은 정보를 얻고 이를 집계하여 그러한 시스템이 정확히 어떻게 작동하기를 원하는지 지정합니다. 이제 많은 질문이 제기되지만 이는 미래에 일어날 수 있는 일 중 하나입니다.


그런데 모든 변수를 분석한다는 것은 무엇을 의미하는가? 결국에는 이러한 변수가 정말 중요해 보인다고 말할 수 있는 선택을 해야 할 것입니다. 나는 깊이 가고 싶다. 왜냐하면 나는 100권의 책을 읽을 수도 있고, 한 권의 책을 아주 천천히 주의 깊게 읽어서 더 많은 것을 얻을 수도 있기 때문입니다. 그래서 거기에는 몇 가지 요소가 있을 것입니다. 또한 어떤 의미에서 모든 것을 이해하는 것은 아마도 근본적으로 불가능하다고 생각합니다. 좀 더 쉬운 예를 들어보겠습니다.


사회에 어떤 종류의 복잡한 상황이 있을 때마다, 심지어 회사에서도, 심지어 중견 기업에서도 그것은 이미 어느 한 개인의 이해를 넘어서는 일입니다. 그리고 우리가 AI 시스템을 올바른 방식으로 구축한다면 AI는 거의 모든 상황에서 엄청나게 도움이 될 수 있다고 생각합니다.


Craig S. Smith는 The New York Times의 전 특파원이자 임원이었습니다. 그는 팟캐스트 Eye on AI 의 호스트입니다.


여기에도 게시됨