paint-brush
우리가 AI 사용법을 배우면서, 그것은 우리를 사용법을 배우는 것입니다~에 의해@thesociable
775 판독값
775 판독값

우리가 AI 사용법을 배우면서, 그것은 우리를 사용법을 배우는 것입니다

~에 의해 The Sociable5m2023/07/29
Read on Terminal Reader
Read this story w/o Javascript

너무 오래; 읽다

역사가 유발 노아 하라리(Yuval Noah Harari)는 UN의 AI for Good Global Summit에서 "우리가 AI 사용법을 배우는 동안 우리를 사용하는 법을 배우는 것"이라고 말했습니다. Harari는 AI가 계속 개발되어야 하지만 안전 점검 없이 배치되어서는 안 된다고 말했습니다. 규정. 역사학자는 AI의 개발을 실험실에 바이러스가 있는 것에 비유하며, AI를 개발하는 것은 괜찮지만 대중에게 배포하는 것은 좋지 않다고 말했습니다.
featured image - 우리가 AI 사용법을 배우면서, 그것은 우리를 사용법을 배우는 것입니다
The Sociable HackerNoon profile picture


역사가 유발 노아 하라리(Yuval Noah Harari)는 UN의 AI for Good Global Summit에서 “우리가 AI 사용법을 배우는 동안 AI는 우리를 사용하는 법을 배우고 있습니다”라고 말하며 개발이 아닌 배포 속도를 늦춰야 한다고 말했습니다.


목요일 유엔 국제전기통신연합(ITU) AI for Good 글로벌 서밋 세션에서 " 안전하고 책임감 있는 AI에 필요한 가드레일 "에 대해 연설한 하라리는 AI가 계속 개발되어야 하지만 AI 없이 배포되어서는 안 된다고 말했습니다. 안전 점검 및 규정.


“우리는 AI 사용법을 배우는 동시에 우리를 사용법도 배우고 있습니다.”

유발 노아 하라리, AI for Good Global Summit, 2023


Harari는 “우리가 AI를 사용하는 방법을 배우는 동안 우리를 사용하는 방법을 배우고 있습니다.”라고 Harari는 말했습니다. “우리는 이러한 군비 경쟁 사고방식을 갖고 있기 때문에 [AI의] 개발을 중단하는 것은 매우 어렵습니다. 사람들은 위험을 알고 있지만 일부는 뒤처지는 것을 원하지 않습니다.


" 그러나 정말 중요한 것은 좋은 소식입니다. 중요한 것은 개발이 아니라 배포 속도를 늦추는 것입니다 ."라고 그는 덧붙였습니다.


역사학자는 AI의 개발을 실험실에 바이러스가 있는 것에 비유하면서 개발은 괜찮지만 대중에게 배포하는 것은 좋지 않다고 말했습니다.


“실험실에 매우 위험한 바이러스가 있지만 이를 공개적으로 공개하지 않는 것과 같습니다. 괜찮아"

유발 노아 하라리, AI for Good Global Summit, 2023


“공공 영역에 배포하지 않는 한 실험실에 매우 정교한 AI 도구를 보유할 수 있습니다. 이것은 덜 위험합니다.”라고 Harari는 말했습니다.


“아시다시피, 실험실에 매우 위험한 바이러스가 있지만 이를 공개적으로 공개하지 않는 것과 같습니다. 괜찮아. 거기에는 안전 여유가 있습니다.”


제약회사와 자동차 제조사가 안전점검을 거쳐야 하는 것처럼 하라리는 AI에도 같은 것이 적용되어야 한다고 주장했다.


“이제 역사상 처음으로 수십억 명의 가짜 인간을 만드는 것이 가능해졌습니다. […] 누가 진짜 인간이고 누가 가짜 인간인지 알 수 없다면 신뢰는 무너지고 적어도 자유 사회는 무너질 것입니다. ”

유발 노아 하라리, AI for Good Global Summit, 2023


AI로 생성된 딥페이크와 봇에 대해 Harari는 " 이제 역사상 처음으로 온라인에서 누군가와 상호작용하지만 자신이 모르는 가짜 사람을 만드는 것이 가능해졌습니다. 수십억 명의 가짜 사람을 만드는 것입니다." 그것은 실제 인간이거나 봇입니다.


“아마 1년 안에 우리가 지금 하고 있는 이 대화에서 당신이 딥페이크와 대화하고 있는지 실제 인간과 대화하고 있는지 확신하는 것이 거의 불가능할 것입니다.


“이런 일이 허용된다면 가짜 돈이 금융 시스템에 위협을 가하는 것과 마찬가지로 사회에도 영향을 미치게 될 것입니다.”


“우리는 AI를 공공 영역에 배포하기 전에 사회, 문화, 심리학, 세계 경제에 대한 [AI]의 잠재적 영향을 더 잘 이해해야 합니다.”

유발 노아 하라리, AI for Good Global Summit, 2023


역사가는 “누가 진짜 인간 이고 누가 가짜 인간인지 알 수 없다면 신뢰는 무너지고 적어도 사회는 자유로워질 것이다. 아마도 독재정권은 어떻게든 관리할 수 있겠지만 민주주의는 그렇지 않을 것입니다.”


Harari는 가짜 사람을 만드는 것은 가짜라는 꼬리표를 붙이고 진짜인 것처럼 속이지 않는 한 괜찮다고 분명히 밝혔습니다. "나는 그것이 진짜 인간인지 아닌지를 알아야 합니다"라고 그는 말했습니다.


국제전기통신연합(International Telecommunication Union)은 UN의 정보통신기술(ICT) 전문기관입니다.



“우리는 더 이상 신비로운 영혼이 아닙니다. 우리는 이제 해킹 가능한 동물입니다”

유발 노아 하라리, 세계경제포럼, 2020



Harari는 다보스에서 열린 세계경제포럼(WEF) 연례 회의에서 여러 차례 연설하면서 다음과 같이 선언했습니다. “우리 인간은 우리가 더 이상 신비로운 영혼이 아니라는 생각에 익숙해져야 합니다. 우리는 이제 해킹 가능한 동물입니다.”


Harari는 2020년 WEF에서 연설하면서 “인간을 해킹하려면 많은 생물학적 지식, 많은 컴퓨팅 능력, 특히 많은 데이터가 필요합니다.


“나에 대한 데이터가 충분하고 컴퓨팅 능력과 생물학적 지식이 충분하다면 내 몸, 뇌, 인생을 해킹할 수 있습니다. 내가 나 자신을 아는 것보다 당신이 나를 더 잘 아는 지점에 도달할 수 있습니다.”


인간을 해킹할 수 있는 이 힘으로 하라리는 “물론 훨씬 더 나은 의료 서비스 제공과 같은 좋은 목적으로 사용될 수 있지만 이 힘이 21세기 스탈린의 손에 들어가면 결과는 최악의 전체주의가 될 것”이라고 말했다. 그리고 우리는 이미 21세기 스탈린 자리에 지원한 사람이 많습니다.”


“가상의 시나리오가 아닌 실제로 발생하는 의미 있는 피해를 확인할 때까지 AI를 규제해서는 안 됩니다.”

마이클 슈바르츠(Michael Schwarz), WEF 성장 서밋, 2023


WEF 성장 서밋 2023에서 " 성장 핫스팟: 생성적 AI 혁명 활용 " 패널에서 Microsoft의 Michael Schwarz는 AI에 관해서는 나쁜 일이 발생할 때까지 이를 규제하지 않는 것이 가장 좋을 것이라고 주장했습니다. 잠재적으로 더 큰 이점을 억제합니다.


저는 AI가 악의적인 행위자에 의해 사용될 것이라고 확신합니다. 그렇습니다. 실제 피해를 입힐 수 있습니다. 그렇습니다. 우리는 매우 조심하고 경계해야 합니다 ”라고 Schwarz는 WEF 패널에게 말했습니다.


생성 AI 규제에 관해 질문을 받았을 때 Microsoft의 수석 경제학자는 다음과 같이 설명했습니다.

“AI 규제에 대한 우리의 철학은 무엇이어야 합니까? 분명히 우리는 그것을 규제해야 하며 거기에 대한 나의 철학은 매우 간단하다고 생각합니다.


목욕물과 함께 아기를 버리지 않도록 AI를 규제해야 합니다 .

“그래서 규제는 추상적인 원칙에 기초해서는 안 된다고 생각합니다.


“경제학자로서 저는 효율성을 좋아합니다. 따라서 먼저 가상의 시나리오가 아니라 실제로 일어나고 있는 의미 있는 피해를 확인할 때까지 AI를 규제해서는 안 됩니다 .”


Bloomberg 에 따르면 2023년 1월 23일 Microsoft는 ChatGPT의 창시자인 OpenAI와의 파트너십을 확장하여 "Microsoft가 2019년에 OpenAI에 쏟아 부은 10억 달러와 2021년에 또 다른 라운드에 추가로 100억 달러를 투자했습니다 ."라고 밝혔습니다.



이 기사는 원래 Tim HinchliffeThe Sociable에 게재했습니다.