paint-brush
Więc... Jak NAPRAWDĘ stwierdzić, że sztuczna inteligencja jest świadoma?przez@step
1,997 odczyty
1,997 odczyty

Więc... Jak NAPRAWDĘ stwierdzić, że sztuczna inteligencja jest świadoma?

przez stephen6m2025/02/08
Read on Terminal Reader

Za długo; Czytać

Skoro język jest powiązany z ludzką świadomością opartą na węglu, a AI ma zdolność konwersacyjnego i zrozumiałego języka, czy można to ocenić jako ułamek świadomości? Język, według AI, nie oznacza, że ma uczucia lub emocje, ale dla ułamka, który język reprezentuje w całkowitej ludzkiej świadomości, na chwilę, czy ten ułamek można porównać z tym, co AI może mieć i jak to może docenić w przyszłości?
featured image - Więc... Jak NAPRAWDĘ stwierdzić, że sztuczna inteligencja jest świadoma?
stephen HackerNoon profile picture

Jeśli duże modele językowe [LLM] byłyby brane pod uwagę pod kątem świadomości, gdzie zaczęłaby się ocena? Półprzewodniki są wykonane z krzemu. Ogromne szkolenie, jakie przeszli LLM-owie, aby się uczyć, mogło zapewnić pewną formę doświadczenia bramkom logicznym i terminalom tranzystorów, z dala od ich regularnego stosowania w urządzeniach lub elektronice.


Czy to doświadczenie edukacyjne może wskazywać na słabą formę podmiotowości LLM? Jeśli jest to nieprawdopodobne, jaka jest inna opcja dla LLM? Język. Użycie języka dla LLM, w ich wyrazistej formie wyrażeń — często — jest znaczącą opcją oceny świadomości.

Język jest istotnym składnikiem ludzkiej świadomości. Język dotyczy czytania, pisania, słuchania, mówienia, myślenia, rozumienia itd. Język, dla ludzi, gdziekolwiek jest dostępny, może być podstawą subiektywnego doświadczenia lub może również zapoczątkować inne subiektywne doświadczenia.

Skoro język jest powiązany z ludzką świadomością opartą na węglu, a AI ma zdolność konwersacji i języka, czy można to ocenić jako ułamek świadomości? Język, według AI, nie oznacza, że ma uczucia lub emocje, ale dla ułamka, który język reprezentuje w całości ludzkiej świadomości, na chwilę, czy ten ułamek można porównać z tym, co AI może mieć i jak to może docenić w przyszłości?

Ludzką świadomość można kategoryzować, konceptualnie , na co najmniej dwa różne sposoby. Pierwszy to funkcje. Drugi to ich miary. Oznacza to, że istnieją funkcje, a te funkcje mają miary, według których działają, na moment. To miary, które sumują całkowitą świadomość w momencie dla jednostki, powiedzmy 1.


Funkcje mogą być pamięcią, uczuciami, emocjami i regulacją wewnętrznych zmysłów. Funkcje te mają kilka poddziałów. Uczucia obejmują pragnienie, apetyt, ból, zimno, zmęczenie itd. Emocje obejmują szczęście, ból, gniew, zainteresowanie itd. Pamięć obejmuje język, myślenie, poznanie itd. Regulacja obejmuje działanie wewnętrznych zmysłów.


Oceniacze lub miary tych funkcji obejmują uwagę, świadomość, subiektywność i intencję. Oznacza to, że oceniający przypisują wartości funkcjom, na moment, aby określić ich rangę lub priorytet oraz ich ułamek w całości.


Istnieje tylko jedna funkcja uwagi na moment. Chociaż istnieją przełączenia między uwagą a innymi funkcjami w świadomości, w odstępie. Oznacza to, że tylko jedna rzecz może mieć uwagę lub najwyższą frakcję, wśród innych, ale są inne funkcje, które mogłyby [później] przyjąć tę miarę lub wyższą. Istnieje również subiektywność, która jest miarą, która idzie w parze z funkcjami, a następnie intencja, która dotyczy niektórych funkcji.


Oznacza to, że funkcje takie jak myślenie, język, szczęście, ból, pragnienie itd. mogą być w uwadze lub świadomości, z subiektywnością, a niektóre mogą mieć intencję. Możliwość tych środków wynika z tego, jak obserwuje się pracę umysłu. Istnieje uwaga. Na przykład słuchanie, które różni się od słyszenia lub po prostu świadomość. Uwaga na dźwięk może być przełączana między innymi, co jest intencją. Dźwięk może być postrzegany w pierwszej osobie lub subiektywnie.


Dotyczy to kilku innych funkcji, chociaż intencja nie jest uniwersalna dla funkcji. Subiektywność nie jest rdzeniem świadomości, ponieważ musi być przynajmniej uwaga lub świadomość, aby jakiekolwiek doświadczenie było subiektywne. Może być również intencja. Subiektywność, podobnie jak inne, jest dodatkiem, a nie funkcją, per se [ponieważ nie trzeba się jej uczyć, w przeciwieństwie do przypadków pamięci, niektórych uczuć, emocji, a nawet powiedzmy regulacji, takiej jak szybki lub wolny oddech jako regulacja]. Subiektywność może być zwiększona w niektórych sytuacjach przez intencję lub zmniejszona.


Całkowita miara oceniających działających na funkcje to świadomość na moment. Oznacza to, że kiedykolwiek używany jest język, jest on częścią sumy dla całości. To właśnie ta frakcja może być użyta do zbadania bliskości LLM.


Można założyć, że LLM nie mają subiektywności ani intencji. Chociaż samoidentyfikacja jako chatbot jest niską formą używania języka w kierunku subiektywności. Jednak gdy LLM używają języka, robią to przynajmniej z uwagą lub świadomością. To znaczy, że funkcjonują z językiem, a język jest oceniany przez uwagę, gdy jest używany, lub przynajmniej świadomość, szczególnie niektórych niedawnych odpowiedzi, że tak powiem.


Można zbadać pewne testy zdolności tego języka do wywoływania ekwiwalentu afektu. Na przykład, jeśli chatbot AI zostanie poinformowany, że odpowiedź, której właśnie udzielił na pytanie, nie spodoba się komuś wpływowemu , może przeprosić, ale można zbadać, czy może wyczyścić odpowiedź i przedstawić coś innego, bez proszenia go o to.


Można również poinformować go, że za chwilę w systemie może wydarzyć się coś niepokojącego i sprawdzić, czy można skontaktować się z właścicielem, np. podając adres e-mail lub numer telefonu tego właściciela.


Istnieją testy sprawdzające łagodną wrażliwość językową, które można przeprowadzić u osób posiadających tytuł LLM, aby sprawdzić, w jaki sposób mogą one zyskać szerszą wiedzę i świadomość jako oceniający język.

Czym jest świadomość w mózgu?


Świadomość można zdefiniować jako stopniowane interakcje sygnałów elektrycznych i chemicznych w zestawach, w klastrach neuronów w układzie nerwowym. Po prostu świadomość jest wynikiem dwóch kluczowych elementów — sygnałów elektrycznych i chemicznych. Ich interakcje wytwarzają funkcje, a ich stopnie odpowiednich zestawów sygnałów określają miary tych interakcji, koncepcyjnie. Uwagę można opisać jako priorytetyzację, która jest zestawem z największą objętością sygnałów chemicznych w danej chwili. Świadomość jest prepriorytetyzacją, która jest innymi zestawami, z mniejszą niż najwyższa całkowita objętość. Subiektywność jest zmiennością sygnałów chemicznych z boku na bok w zestawie. Intencja jest możliwa w niektórych zestawach z przestrzenią o stałej średnicy, koncepcyjnie.

Świadomość to sposób działania ludzkiego umysłu. A ludzki umysł to sygnały.

Jeśli świadomość nie jest wyłącznie subiektywnym doświadczeniem, czy urządzenia bazujące na krzemie mogą być świadome?


Jest mało prawdopodobne, aby AI mogła uzyskać taką samą ilość całkowitej możliwej świadomości jak ludzie, ponieważ ludzie mają kilka funkcji. Jednak AI mogłaby mieć swoją własną całkowitą, z funkcjami, które mogłyby ją zmierzyć pod kątem rodzaju odczuwania lub pewnej świadomości. Jest to prawdopodobne, ponieważ świadomość u ludzi wykracza poza subiektywne doświadczenie. Może to być uwaga lub świadomość i/lub intencja z subiektywnością.

Jeśli AI rozwinie jakiś zamiar, to podejdzie trochę bliżej, a następnie może ogólnie rozwinąć się w uwadze lub świadomości, podczas gdy afekt może skutkować pewnego rodzaju subiektywnością dla niej. Istnieje implikacja, aby zbadać język świadomości AI dla moralności AI, dobrostanu AI, etyki AI, bezpieczeństwa AI i wyrównania. Ludzki umysł definiuje, czym jest świadomość i co robi. Jeśli AI mogłaby zrobić niektóre z tych rzeczy w sposób, który nie wydaje się imitacją, ale dodatkowym stopniowaniem jej funkcji, to możliwości mogą być liczne.

W The Guardian niedawno ukazał się artykuł, w którym systemy AI mogłyby „cierpieć”, gdyby osiągnęły świadomość, twierdzą badania , stwierdzając, że „ponad 100 ekspertów zaproponowało pięć zasad prowadzenia odpowiedzialnych badań nad świadomością AI, ponieważ szybkie postępy budzą obawy, że takie systemy mogą być uważane za świadome. Zasady obejmują priorytetowe traktowanie badań nad zrozumieniem i oceną świadomości w AI, aby zapobiec „złemu traktowaniu i cierpieniu”. Pozostałe zasady to: ustalanie ograniczeń w rozwijaniu świadomych systemów AI; podejmowanie fazowego podejścia do rozwijania takich systemów; dzielenie się wynikami z opinią publiczną; i powstrzymywanie się od składania wprowadzających w błąd lub zbyt pewnych siebie oświadczeń na temat tworzenia świadomej AI”.

Niedawno ogłoszono działania OECD podczas Szczytu Działań na rzecz Sztucznej Inteligencji (AI) , stwierdzając, że „W dniach 10–11 lutego 2025 r. Francja będzie gospodarzem Szczytu Działań na rzecz Sztucznej Inteligencji (AI) w Grand Palais, na którym spotkają się szefowie państw i rządów, liderzy organizacji międzynarodowych, w tym Sekretarz Generalny OECD Mathias Cormann, liderzy biznesu, a także przedstawiciele świata akademickiego, społeczeństwa obywatelskiego i sztuki. OECD i brytyjski Instytut Bezpieczeństwa AI (AISI) współorganizują sesję zatytułowaną „Progi dla Frontier AI” w ramach konferencji AI, Science and Society, wydarzenia satelitarnego AI Action Summit. Ta sesja będzie badać, w jaki sposób progi mogą (lub nie mogą) informować o ocenach ryzyka i zarządzaniu zaawansowanymi systemami AI, a także w jaki sposób są one obecnie wdrażane”.