Auteurs:
(1) Raphaël Millière, Departement Wijsbegeerte, Macquarie University ([email protected]);
(2) Cameron Buckner, Faculteit Filosofie, Universiteit van Houston ([email protected]).
Tabel met links
2. Een inleiding tot LLM's
2.2. Transformator-gebaseerde LLM's
3. Interface met klassieke filosofische kwesties
3.2. Nativisme en taalverwerving
3.5. Overdracht van culturele kennis en taalkundige ondersteuning
4. Conclusie, Woordenlijst en Referenties
3. Interface met klassieke filosofische kwesties
Kunstmatige neurale netwerken, waaronder eerdere NLP-architecturen, zijn al lang het middelpunt van filosofisch onderzoek, met name onder filosofen van geest, taal en wetenschap. Een groot deel van de filosofische discussie rondom deze systemen draait om hun geschiktheid om menselijke cognitie te modelleren. Het debat draait met name om de vraag of ze betere modellen vormen van menselijke cognitieve kernprocessen dan hun klassieke, symbolische, op regels gebaseerde tegenhangers. Hier bespreken we de belangrijkste filosofische vragen die zijn ontstaan met betrekking tot de rol van kunstmatige neurale netwerken als modellen van intelligentie, rationaliteit of cognitie, waarbij we ons richten op hun huidige incarnaties in de context van voortdurende discussies over de implicaties van transformer-gebaseerde LLM's.
Recente debatten worden vertroebeld door een misleidend gevolgtrekkingspatroon, dat we de ‘redescription fallacy’ noemen. Deze drogreden ontstaat wanneer critici beweren dat een systeem een bepaald model niet kan
cognitieve capaciteit, simpelweg omdat de werking ervan kan worden uitgelegd in minder abstracte en meer deflatoire termen. In de huidige context manifesteert de drogreden zich in beweringen dat LLM's onmogelijk goede modellen kunnen zijn van een cognitieve capaciteit 𝜙 omdat hun werkingen slechts bestaan uit een verzameling statistische berekeningen, of lineaire algebra-bewerkingen, of next-token-voorspellingen. Dergelijke argumenten zijn alleen geldig als ze vergezeld gaan van bewijs dat aantoont dat een systeem, gedefinieerd in deze termen, inherent niet in staat is om 𝜙 te implementeren. Ter illustratie, overweeg de gebrekkige logica in de bewering dat een piano onmogelijk harmonie kan produceren omdat het kan worden beschreven als een verzameling hamers die op snaren slaan, of (duidelijker) dat hersenactiviteit onmogelijk cognitie kan implementeren omdat het kan worden beschreven als een verzameling neurale afvuringen. De cruciale vraag is niet of de handelingen van een LLM op simplistische wijze in niet-mentale termen kunnen worden beschreven, maar of deze handelingen, wanneer ze op de juiste manier worden georganiseerd, dezelfde processen of algoritmen kunnen implementeren als de geest, wanneer ze op een passend niveau van computationele abstractie worden beschreven.
De redescription fallacy is een symptoom van een bredere trend om belangrijke filosofische vragen over kunstmatige neurale netwerken als puur theoretisch te behandelen, wat leidt tot vergaande principiële beweringen die niet vatbaar zijn voor empirische ontkrachting. Hypotheses hier zouden geleid moeten worden door empirisch bewijs met betrekking tot de capaciteiten van kunstmatige neurale netwerken zoals LLM's en hun geschiktheid als cognitieve modellen (zie tabel 1). In feite zijn overwegingen over de architectuur, leerdoelstelling, modelgrootte en trainingsgegevens van LLM's vaak onvoldoende om deze kwesties te beslechten. Wij beweren zelfs dat veel van de belangrijkste filosofische debatten over de capaciteiten van neurale netwerken in het algemeen, en LLM's in het bijzonder, ten minste gedeeltelijk afhangen van empirisch bewijs met betrekking tot hun interne mechanismen en kennis die ze verwerven tijdens de training. Met andere woorden, veel van deze debatten kunnen niet a priori worden beslecht door algemene kenmerken van ongetrainde modellen te overwegen. In plaats daarvan moeten we rekening houden met experimentele bevindingen over het gedrag en de interne werking van getrainde modellen.
In deze sectie onderzoeken we langdurige debatten over de capaciteiten van kunstmatige neurale netwerken die nieuw leven zijn ingeblazen en getransformeerd door de ontwikkeling van deep learning en het recente succes van LLM's in het bijzonder. Gedragsbewijs verkregen uit benchmarks en gerichte experimenten is van groot belang voor die debatten. We merken echter vanaf het begin op dat dergelijk bewijs ook onvoldoende is om het volledige beeld te schetsen; aansluitend bij de zorgen over Blockheads die in de eerste sectie zijn besproken, moeten we ook bewijs overwegen over hoe LLM's informatie intern verwerken om de kloof te dichten tussen beweringen over hun prestaties en veronderstelde competentie. Geavanceerde experimentele methoden zijn ontwikkeld om de representaties en berekeningen die zijn verkregen door getrainde LLM's te identificeren en erop in te grijpen. Deze methoden zijn veelbelovend om enkele van de hier besproken filosofische kwesties te beslechten, voorbij voorlopige hypothesen die worden ondersteund door gedragsbewijs. We bewaren een meer gedetailleerde bespreking van deze methoden en de bijbehorende experimentele bevindingen in Deel II.
Dit artikel is beschikbaar op arxiv onder de CC BY 4.0 DEED-licentie.