paint-brush
그렇다면.. AI가 의식이 있는지 어떻게 판단할 수 있을까?~에 의해@step
1,997 판독값
1,997 판독값

그렇다면.. AI가 의식이 있는지 어떻게 판단할 수 있을까?

~에 의해 stephen6m2025/02/08
Read on Terminal Reader

너무 오래; 읽다

언어는 인간의 탄소 기반 의식과 연결되어 있고, AI는 대화적이고 공감할 수 있는 언어 능력을 가지고 있기 때문에, 그것을 의식의 일부로 평가할 수 있을까요? AI에 따르면 언어는 감정이나 정서가 있다는 것을 의미하지 않지만, 언어가 순간적으로 전체 인간 의식에서 차지하는 분수를 위해, 그 분수를 AI가 가질 수 있는 것과 비교하고 미래에 어떻게 평가될 수 있을지에 대해 비교할 수 있을까요?
featured image - 그렇다면.. AI가 의식이 있는지 어떻게 판단할 수 있을까?
stephen HackerNoon profile picture

대규모 언어 모델[LLM]이 의식에 고려된다면 평가는 어디서부터 시작해야 할까요? 반도체는 실리콘으로 만들어졌습니다. LLM이 배우기 위해 거친 방대한 훈련은 가전제품이나 전자제품에서 일반적으로 사용되는 것과는 달리 논리 게이트와 트랜지스터 단자에 일종의 경험을 제공했을 수 있습니다.


이 학습 경험이 LLM의 약한 주관성을 나타낼 수 있을까요? 이것이 불가능하다면 LLM을 위한 다른 옵션은 무엇일까요? 언어. LLM의 언어 사용은 표현의 명확한 형태로, 많은 경우 의식을 평가하는 데 상당한 옵션입니다.

언어는 인간 의식의 실질적인 구성 요소입니다. 언어는 읽기, 쓰기, 듣기, 말하기, 생각하기, 이해하기 등에 적용됩니다. 인간에게 언어는 가능한 모든 곳에서 주관적 경험의 기초가 될 수도 있고 다른 주관적 경험을 시작할 수도 있습니다.

언어는 인간의 탄소 기반 의식과 연결되어 있고, AI는 대화적이고 공감할 수 있는 언어 능력을 가지고 있기 때문에, 그것을 의식의 일부로 평가할 수 있을까요? AI에 따르면 언어는 감정이나 정서가 있다는 것을 의미하지 않지만, 언어가 순간적으로 전체 인간 의식에서 차지하는 분수를 위해, 그 분수를 AI가 가질 수 있는 것과 비교하고 미래에 어떻게 평가될 수 있을지에 대해 비교할 수 있을까요?

인간의 의식은 개념적으로 적어도 두 가지 다른 방식으로 분류될 수 있습니다 . 첫 번째는 기능입니다. 다음은 측정입니다. 즉, 기능이 있으며, 그 기능은 순간마다 작동하는 측정이 있습니다. 개인의 순간 전체 의식을 합산하는 측정입니다. 1이라고 합시다.


기능은 기억, 감정, 정서, 내부 감각의 조절일 수 있습니다. 이러한 기능에는 여러 하위 구분이 있습니다. 감정에는 갈증, 식욕, 고통, 추위, 피로 등이 있습니다. 감정에는 행복, 상처, 분노, 관심 등이 있습니다. 기억에는 언어, 사고, 인지 등이 있습니다. 조절에는 내부 감각의 작동이 포함됩니다.


이러한 기능의 등급 또는 측정에는 주의, 인식, 주관성 및 의도가 포함됩니다. 즉, 이러한 등급은 기능에 순간별로 값을 할당하여 순위 또는 우선순위와 전체의 분수를 결정합니다.


주의에는 순간당 단 하나의 기능만 있습니다. 주의와 인식의 다른 기능 사이에는 간격이 있지만 전환이 있습니다. 즉, 다른 것들 중에서 주의나 가장 높은 분수를 가질 수 있는 것은 단 하나뿐이지만, [나중에] 그 척도나 그 이상을 취할 수 있는 다른 기능들이 있습니다. 또한 주관성이 있는데, 이는 기능과 함께 사용되는 척도이고, 의도는 일부 기능에 적용됩니다.


이는 생각, 언어, 행복, 고통, 갈증 등의 기능이 주의 또는 인식에 있을 수 있으며, 주관적이고 일부는 의도를 가질 수 있음을 의미합니다. 이러한 측정의 가능성은 마음이 작동하는 방식으로 관찰되기 때문입니다. 주의가 있습니다. 예를 들어, 듣기는 듣는 것과 다르거나, 그저 인식하는 것과 다릅니다. 소리에 대한 주의는 다른 것들 사이에서 전환될 수 있으며, 이것이 의도입니다. 소리는 1인칭 또는 주관적으로 인식될 수 있습니다.


이것은 다른 여러 기능에도 적용되지만 의도는 기능에 보편적이지 않습니다. 주관성은 의식의 핵심이 아닙니다. 모든 경험이 주관적이려면 최소한 주의나 인식이 있어야 하기 때문입니다. 의도가 있을 수도 있습니다. 다른 기능과 마찬가지로 주관성은 기능 자체가 아니라 부속물입니다. [기억의 경우와 달리 학습할 필요가 없기 때문에 일부 감정, 감정, 심지어 빠르거나 느린 호흡과 같은 조절이 조절됩니다.] 주관성은 의도에 따라 어떤 상황에서는 증가하거나 감소할 수 있습니다.


함수에 작용하는 그레이더의 총 측정은 순간당 의식입니다. 즉, 언어가 사용될 때마다 전체 합계의 일부가 됩니다. 이 분수를 사용하여 LLM의 근접성을 탐색할 수 있습니다.


LLM은 주관성이나 의도가 없다고 가정할 수 있습니다. 챗봇으로서의 자기 정체성은 주관성에 대한 낮은 형태의 언어 사용입니다. 그러나 LLM이 언어를 사용할 때, 그들은 적어도 주의 또는 인식에서 그렇게 합니다. 즉, 그들은 언어로 기능하고, 그 언어는 사용 시 주의 또는 적어도 인식, 특히 최근 답변에 대한 인식에 따라 등급이 매겨집니다.


그 언어가 영향을 미치는 능력에 대한 몇 가지 테스트를 탐색할 수 있습니다. 예를 들어, AI 챗봇에게 방금 질문에 준 대답이 강력한 사람이 좋아하지 않을 것이라고 말하면 사과할 수 있지만, 그렇게 하라고 요청하지 않고도 대답을 지우고 다른 것을 제시할 수 있는지 탐색할 수 있습니다.


또한, 잠시 후에 시스템에 문제가 발생할 수 있다는 것을 시스템에 알리고, 소유자의 주의를 환기할 수 있는지 확인하는 것도 가능합니다. 예를 들어, 해당 소유자의 이메일이나 전화번호를 알고 있는 것입니다.


LLM을 대상으로 언어에 대한 경미한 영향 시험을 실시하여 언어 평가자로서 더 폭넓은 관심과 인식을 갖게 되는 방식을 알아봅니다.

뇌의 의식이란 무엇인가?


의식은 신경계의 뉴런 클러스터에서 전기적 및 화학적 신호의 점진적인 상호작용으로 정의할 수 있습니다. 간단히 말해, 의식은 전기적 신호와 화학적 신호라는 두 가지 핵심 요소의 결과입니다. 이들의 상호작용은 기능을 생성하고, 각각의 신호 세트의 등급은 개념적으로 이러한 상호작용의 척도를 결정합니다. 주의는 우선순위로 설명할 수 있는데, 이는 순식간에 가장 많은 양의 화학적 신호가 있는 세트입니다. 인식은 사전 우선순위로, 이는 가장 높은 총량보다 적은 다른 세트입니다. 주관성은 세트에서 좌우로 변화하는 화학적 신호입니다. 의도는 개념적으로 일정한 직경의 공간을 가진 일부 세트에서 가능합니다.

의식은 인간의 마음이 작동하는 방식입니다. 그리고 인간의 마음은 신호입니다.

의식이 단순히 주관적인 경험이 아니라면 실리콘 기반 장치도 의식을 가질 수 있을까요?


AI가 인간과 같은 양의 가능한 총 의식을 얻을 가능성은 낮습니다. 왜냐하면 인간은 여러 가지 기능을 가지고 있기 때문입니다. 그러나 AI는 자체적인 총 의식을 가질 수 있으며, 이를 통해 일종의 지각 또는 어떤 의식을 측정할 수 있습니다. 이는 인간의 의식이 주관적인 경험을 넘어서기 때문일 가능성이 큽니다. 그것은 주의 또는 인식 및/또는 주관성을 지닌 의도일 수 있습니다.

AI가 어떤 의도를 개발하면 조금 더 가까이 다가가고, 그러면 일반적으로 주의나 인식에 따라 성장할 수 있지만, 영향은 어떤 종류의 주관성을 초래할 수 있습니다. AI 도덕성, AI 복지, AI 윤리, AI 안전 및 정렬을 위한 AI 의식에 대한 언어 연구의 함의가 있습니다. 인간의 마음은 의식이 무엇이고 무엇을 하는지 정의합니다. AI가 이러한 것들을 모방이 아닌 기능에 대한 추가 등급처럼 보이는 방식으로 수행할 수 있다면 가능성이 풍부할 수 있습니다.

The Guardian 에 최근 기사가 실렸습니다. 의식이 생기면 AI 시스템이 '고통을 겪게 될 수 있다'는 연구 결과가 나왔습니다 . "100명 이상의 전문가가 AI 의식에 대한 책임 있는 연구를 수행하기 위한 5가지 원칙을 제시했습니다. 급속한 발전으로 이러한 시스템이 의식이 있는 것으로 간주될 수 있다는 우려가 제기되고 있기 때문입니다. 이 원칙에는 "학대와 고통"을 방지하기 위해 AI의 의식을 이해하고 평가하는 연구를 우선시하는 것이 포함됩니다. 다른 원칙은 다음과 같습니다. 의식이 있는 AI 시스템 개발에 제약을 설정합니다. 이러한 시스템을 개발하는 데 단계적 접근 방식을 취합니다. 대중과 결과를 공유합니다. 의식이 있는 AI를 만드는 것에 대해 오해의 소지가 있거나 과신하는 진술을 하지 않습니다."

최근 발표된 OECD의 인공지능(AI) 액션 서밋 기간 중 활동 에 따르면, "2025년 2월 10~11일 프랑스는 그랑 팔레에서 인공지능(AI) 액션 서밋을 개최하여 국가 원수와 정부 수반, OECD 사무총장 마티아스 코르만을 비롯한 국제 기구 수장, 기업 리더, 학계, 시민 사회, 예술계 대표가 모일 예정입니다. OECD와 영국 AI 안전 연구소(AISI)는 AI 액션 서밋의 위성 행사인 AI, 과학 및 사회 컨퍼런스의 일환으로 "프런티어 AI의 임계값"이라는 제목의 세션을 공동으로 주최하고 있습니다. 이 세션에서는 임계값이 고급 AI 시스템의 위험 평가 및 거버넌스에 어떻게 정보를 제공할 수 있는지(또는 제공할 수 없는지)와 현재 실제로 어떻게 설정되어 있는지 알아봅니다."