paint-brush
Das kognitive Paradigma: Erforschung der vom Gehirn inspirierten KI-Entwicklungvon@edemgold
1,463 Lesungen
1,463 Lesungen

Das kognitive Paradigma: Erforschung der vom Gehirn inspirierten KI-Entwicklung

von Edem Gold13m2023/05/10
Read on Terminal Reader
Read this story w/o Javascript

Zu lang; Lesen

In diesem Artikel werden wir versuchen, den vom Gehirn inspirierten Ansatz zum Aufbau von KI-Systemen zu verstehen. Wir werden diskutieren, wie der Wissenschaftler Norman Weiner die Konvergenz von Neurowissenschaften und Informatik herbeigeführt hat. Frank Rosenblatts Perceptron war der erste wirkliche Versuch, die menschliche Intelligenz nachzuahmen, und sein Scheitern führte zu bahnbrechenden Arbeiten, die als Plattform für neuronale Netze dienen sollten.

People Mentioned

Mention Thumbnail
featured image - Das kognitive Paradigma: Erforschung der vom Gehirn inspirierten KI-Entwicklung
Edem Gold HackerNoon profile picture


„Unsere Intelligenz macht uns menschlich und KI ist eine Erweiterung dieser Qualität“ – Yan LeCun


Seit dem Aufkommen neuronaler Netze (auch bekannt als künstliche neuronale Netze) verzeichnet die KI-Branche einen beispiellosen Erfolg. Neuronale Netze sind die treibende Kraft hinter modernen KI-Systemen und sind dem menschlichen Gehirn nachempfunden. Moderne KI-Forschung umfasst die Entwicklung und Implementierung von Algorithmen, die darauf abzielen, die neuronalen Prozesse des menschlichen Gehirns nachzuahmen, um Systeme zu schaffen, die auf ähnliche Weise wie Menschen lernen und handeln.


In diesem Artikel werden wir versuchen, den vom Gehirn inspirierten Ansatz zum Aufbau von KI-Systemen zu verstehen. Es ist erwähnenswert, dass dieses Thema zwar von Natur aus umfassend ist, ich mich jedoch so kurz und prägnant wie möglich fassen werde. Ich habe vor, Unterthemen mit komplexeren Unterzweigen als eigenständige Artikel zu behandeln und werde natürlich am Ende des Artikels Referenzen hinterlassen.


Inhaltliche Aufschlüsselung

Wie ich das angehen möchte:

  • Geschichte des gehirninspirierten Ansatzes zur KI: Hier diskutieren wir, wie die Wissenschaftler Norman Weiner und Warren McCulloch die Konvergenz von Neurowissenschaften und Informatik herbeiführten, wie Frank Rosenblatts Perceptron der erste echte Versuch war, menschliche Intelligenz nachzuahmen, und wie dieser scheiterte brachte bahnbrechende Arbeiten hervor, die als Plattform für neuronale Netze dienen sollten.


  • Wie das menschliche Gehirn funktioniert und wie es mit KI-Systemen zusammenhängt: In diesem Abschnitt befassen wir uns mit den biologischen Grundlagen für den vom Gehirn inspirierten Ansatz zur KI. Wir werden die grundlegende Struktur und Funktionen des menschlichen Gehirns besprechen, seinen Kernbaustein, das Neuron, verstehen und wie sie zusammenarbeiten, um Informationen zu verarbeiten und komplexe Aktionen zu ermöglichen.


  • Die Grundprinzipien hinter dem vom Gehirn inspirierten Ansatz zur KI: Hier werden wir die grundlegenden Konzepte hinter dem vom Gehirn inspirierten Ansatz zur KI diskutieren. Wir erklären, wie Konzepte wie; Neuronale Netze, hierarchische Verarbeitung und Plastizität und wie Techniken der Parallelverarbeitung, verteilten Darstellungen und wiederkehrenden Rückmeldungen der KI dabei helfen, die Funktionsweise des Gehirns nachzuahmen.

  • Herausforderungen beim Aufbau von KI-Systemen, die dem menschlichen Gehirn nachempfunden sind: Hier werden wir über die Herausforderungen und Einschränkungen sprechen, die mit dem Versuch einhergehen, Systeme zu bauen, die das menschliche Gehirn nachahmen. Herausforderungen wie; Die Komplexität des Gehirns und das Fehlen einer einheitlichen Kognitionstheorie untersuchen die Art und Weise, wie diese Herausforderungen und Einschränkungen angegangen werden.


Lasst uns anfangen!


Die Geschichte des vom Gehirn inspirierten Ansatzes zur KI

Der Drang, Maschinen zu bauen, die zu intelligentem Verhalten fähig sind, verdankt seine Inspiration größtenteils dem MIT-Professor, Norbert Weiner . Norbert Weiner war ein Wunderkind, das bereits mit drei Jahren lesen konnte. Er verfügte über umfassende Kenntnisse in verschiedenen Bereichen wie Mathematik, Neurophysiologie, Medizin und Physik.


Norbert Weiner glaubte, dass die größten Chancen in der Wissenschaft in der Erforschung dessen liegen, was er als Grenzregionen bezeichnete – Studienbereiche, die nicht eindeutig einer bestimmten Disziplin zuzuordnen sind, sondern eher eine Mischung aus Disziplinen wie dem Studium der Medizin und der Ingenieurwissenschaften sind, die zusammenkommen, um das Fachgebiet zu schaffen Medizintechnik – er wurde mit den Worten zitiert:


„Wenn die Schwierigkeit eines physiologischen Problems mathematischer Natur ist, werden zehn Physiologen ohne Mathematikkenntnisse genau so weit kommen wie ein Physiologe ohne Mathematikkenntnisse.“


Im Jahr 1934 trafen sich Weiner und einige andere Wissenschaftler monatlich, um Arbeiten zur Grenzregionswissenschaft zu diskutieren.



Es war eine perfekte Katharsis für unausgegorene Ideen, unzureichende Selbstkritik, übertriebenes Selbstbewusstsein und Aufgeblasenheit – Norman Weiner


Durch diese Sitzungen und durch seine eigenen persönlichen Forschungen erfuhr Weiner von neuen Forschungsergebnissen zu biologischen Nervensystemen sowie von Pionierarbeiten zu elektronischen Computern, und seine natürliche Neigung bestand darin, diese beiden Bereiche zu verbinden. Und so entstand eine Beziehung zwischen Neurowissenschaften und Informatik. Diese Beziehung wurde zum Grundstein für die Entwicklung der künstlichen Intelligenz, wie wir sie kennen.


Nach dem Zweiten Weltkrieg begann Wiener, Theorien über die Intelligenz sowohl von Menschen als auch von Maschinen zu entwickeln, und diesem neuen Bereich wurde ein Name gegeben Kybernetik . Wieners Ausflug in die Kybernetik brachte Wissenschaftler erfolgreich dazu, über die Möglichkeit einer Verschmelzung von Biologie und Technik zu sprechen. Einer der besagten Wissenschaftler war ein Neurophysiologe namens Warren McCulloch , der daraufhin sein Studium an der Haverford University abbrach, um in Yale Philosophie und Psychologie zu studieren.


Als er an einer wissenschaftlichen Konferenz in New York teilnahm, kam er mit Artikeln von Kollegen über biologische Rückkopplungsmechanismen in Kontakt. Im darauffolgenden Jahr schlug McCulloch in Zusammenarbeit mit seinem brillanten 18-jährigen Schützling Walter Pitts eine Theorie über die Funktionsweise des Gehirns vor – eine Theorie, die dazu beitragen sollte, die weit verbreitete Auffassung zu fördern, dass Computer und Gehirne im Wesentlichen auf die gleiche Weise funktionieren.


Sie stützten ihre Schlussfolgerungen auf Forschungen von McCulloch über die Möglichkeit, dass Neuronen Binärzahlen verarbeiten (für Unwissende: Computer kommunizieren über Binärzahlen). Diese Theorie bildete die Grundlage für das erste Modell eines künstlichen neuronalen Netzwerks, das McCulloch-Pitts-Neuron (MCP) genannt wurde.


Das MCP diente als Grundlage für die Schaffung des allerersten neuronalen Netzwerks, das als bekannt wurde das Perzeptron . Das Perzeptron wurde vom Psychologen geschaffen, Frank Rosenblatt der, inspiriert von den Synapsen im Gehirn, zu dem Schluss kam, dass ein digitaler Computer möglicherweise dasselbe über ein neuronales Netzwerk tun könnte, da das menschliche Gehirn Informationen über Synapsen (Kommunikation zwischen Neuronen) verarbeiten und klassifizieren kann.


Das Perzeptron hat das MCP-Neuron im Wesentlichen von einem künstlichen Neuron in ein Netzwerk von Neuronen skaliert, aber leider hatte das Perzeptron einige technische Herausforderungen, die seine praktische Anwendung einschränkten. Die bemerkenswerteste seiner Einschränkungen war seine Unfähigkeit, komplexe Operationen durchzuführen (wie die Klassifizierung zwischen mehreren). (z. B. könnte ein Perzeptron keine Klassifizierung zwischen einer Katze, einem Hund und einem Vogel durchführen).


Im Jahr 1969 erschien ein Buch von Marvin Minsky Und Seymour Papert mit dem Titel „Perceptron“ legt detailliert die Mängel des Perceptrons dar und aus diesem Grund stagnierte die Forschung zu künstlichen neuronalen Netzen, bis der Vorschlag von „Back Propagation“ von veröffentlicht wurde Paul Werbes .


Back Propagation hofft, das Problem der Klassifizierung komplexer Daten zu lösen, das damals die industrielle Anwendung neuronaler Netze behinderte. Es wurde von der synaptischen Plastizität inspiriert; die Art und Weise, wie das Gehirn die Stärke der Verbindungen zwischen Neuronen verändert und so die Leistung verbessert. Back Propagation wurde entwickelt, um den Prozess im Gehirn nachzuahmen, der die Verbindungen zwischen Neuronen durch einen Prozess namens Gewichtsanpassung stärkt.


Trotz des frühen Vorschlags von Paul Werbes fand das Konzept der Backpropagation erst breite Akzeptanz, als Forscher wie z David Rumelheart , Geoffrey Hinton , Und Ronald Williams veröffentlichte Artikel, die die Wirksamkeit der Backpropagation für das Training neuronaler Netze demonstrierten. Die Implementierung von Backpropagation führte zur Entwicklung von Deep Learning, das die meisten weltweit verfügbaren KI-Systeme antreibt.


„Menschen sind schlauer als heutige Computer, weil das Gehirn über eine grundlegende Rechenarchitektur verfügt, die besser geeignet ist, einen zentralen Aspekt der natürlichen Informationsverarbeitungsaufgaben zu bewältigen, in denen Menschen so gut sind.“ - Parallele verteilte Verarbeitung



Wie das menschliche Gehirn funktioniert und wie es mit KI-Systemen zusammenhängt



Wir haben besprochen, wie Forscher begannen, KI so zu modellieren, dass sie das menschliche Gehirn nachahmt. Schauen wir uns nun an, wie das Gehirn funktioniert, und definieren wir die Beziehung zwischen dem Gehirn und KI-Systemen.

Wie das Gehirn funktioniert: Eine vereinfachte Beschreibung

Das menschliche Gehirn verarbeitet Gedanken im Wesentlichen mithilfe von Neuronen. Ein Neuron besteht aus drei Kernabschnitten. Dendrit, Axon und Soma. Der Dendrit ist für den Empfang von Signalen von anderen Neuronen verantwortlich, das Soma verarbeitet die vom Dendrit empfangenen Informationen und das Axon ist für die Übertragung der verarbeiteten Informationen an den nächsten Dendrit in der Sequenz verantwortlich.


Um zu verstehen, wie das Gehirn Gedanken verarbeitet, stellen Sie sich vor, Sie sehen ein Auto auf sich zukommen, Ihre Augen senden sofort elektrische Signale über den Sehnerv an Ihr Gehirn und dann bildet das Gehirn eine Kette von Neuronen, um das eingehende Signal zu verstehen. Das erste Neuron in der Kette sammelt das Signal über seine Dendriten und sendet es an das Soma , um das Signal zu verarbeiten. Nachdem das Soma seine Aufgabe beendet hat, sendet es das Signal an das Axon , das es dann an den Dendriten des nächsten Neurons in der Kette sendet Die Verbindung zwischen Axonen und Dendriten bei der Informationsweitergabe wird als Synapse bezeichnet. Der gesamte Prozess wird fortgesetzt, bis das Gehirn einen sapiotemporalen synaptischen Eingang findet (das ist eine wissenschaftliche Fachsprache; das Gehirn verarbeitet so lange, bis es eine optimale Reaktion auf das ihm gesendete Signal findet) und dann sendet es Signale an die notwendigen Effektoren, z. B. Ihre Beine und Dann sendet das Gehirn ein Signal an Ihre Beine, vor dem entgegenkommenden Auto wegzulaufen.


Die Beziehung zwischen dem Gehirn und KI-Systemen

Die Beziehung zwischen dem Gehirn und der KI ist weitgehend für beide Seiten von Vorteil, da das Gehirn die Hauptinspirationsquelle für die Gestaltung von KI-Systemen ist und Fortschritte in der KI zu einem besseren Verständnis des Gehirns und seiner Funktionsweise führen.


Beim Thema Gehirn und KI findet ein wechselseitiger Wissens- und Ideenaustausch statt, und es gibt mehrere Beispiele, die die positiv symbiotische Natur dieser Beziehung belegen:


  • Neuronale Netze: Der wohl bedeutendste Einfluss des menschlichen Gehirns auf den Bereich der künstlichen Intelligenz ist die Schaffung neuronaler Netze. Im Wesentlichen handelt es sich bei neuronalen Netzen um Rechenmodelle, die die Funktion und Struktur biologischer Neuronen nachahmen. Die Architektur neuronaler Netze und ihre Lernalgorithmen sind weitgehend von der Art und Weise inspiriert, wie Neuronen im Gehirn interagieren und sich anpassen.


  • Gehirnsimulationen: KI-Systeme sind daran gewöhnt simulieren das menschliche Gehirn und studieren seine Interaktionen mit der physischen Welt. Forscher verfügen beispielsweise über Techniken des maschinellen Lernens, um die Aktivität biologischer Neuronen zu simulieren, die an der visuellen Verarbeitung beteiligt sind, und das Ergebnis hat Erkenntnisse darüber geliefert, wie das Gehirn visuelle Informationen verarbeitet.


  • Einblicke in das Gehirn: Forscher haben damit begonnen, Algorithmen des maschinellen Lernens zu nutzen, um Gehirndaten und fMRT-Scans zu analysieren und Erkenntnisse daraus zu gewinnen. Diese Erkenntnisse dienen dazu, Muster und Zusammenhänge zu erkennen, die sonst verborgen geblieben wären. Die gewonnenen Erkenntnisse können zum Verständnis interner kognitiver Funktionen, des Gedächtnisses und der Entscheidungsfindung beitragen und helfen auch bei der Behandlung von Gehirnerkrankungen wie Alzheimer.


Grundprinzipien hinter dem vom Gehirn inspirierten Ansatz zur KI

Hier werden wir mehrere Konzepte diskutieren, die der KI dabei helfen, die Funktionsweise des menschlichen Gehirns nachzuahmen. Diese Konzepte haben KI-Forschern dabei geholfen, leistungsfähigere und intelligentere Systeme zu entwickeln, die komplexe Aufgaben ausführen können.

Neuronale Netze

Wie bereits erwähnt, sind neuronale Netze wohl der bedeutendste Einfluss des menschlichen Gehirns auf den Bereich der künstlichen Intelligenz. Im Wesentlichen handelt es sich bei neuronalen Netzwerken um Rechenmodelle, die die Funktion und Struktur biologischer Neuronen nachahmen. Die Netzwerke bestehen aus verschiedenen Schichten miteinander verbundener Knoten, sogenannten künstlichen Neuronen, die bei der Verarbeitung und Übertragung von Informationen helfen, ähnlich wie bei anderen Dendriten, Somas und Axone in biologischen neuronalen Netzwerken. Neuronale Netze sind so konzipiert, dass sie auf die gleiche Weise wie das Gehirn aus vergangenen Erfahrungen lernen.

Verteilte Darstellungen

Verteilte Darstellungen sind einfach eine Möglichkeit, Konzepte oder Ideen in einem neuronalen Netzwerk als Muster entlang mehrerer Knoten in einem Netzwerk zu kodieren, um ein Muster zu bilden. Zum Beispiel könnte das Konzept des Rauchens mithilfe eines bestimmten Satzes von Knoten in einem neuronalen Netzwerk dargestellt (codiert) werden. Wenn dieses Netzwerk also ein Bild eines rauchenden Mannes erhält, verwendet es diese ausgewählten Knoten, um dem Bild einen Sinn zu geben Diese Technik ist viel komplexer, aber der Einfachheit halber) und hilft KI-Systemen dabei, sich an komplexe Konzepte oder Beziehungen zwischen Konzepten zu erinnern, auf die gleiche Weise, wie das Gehirn komplexe Reize erkennt und sich daran erinnert.

Wiederkehrendes Feedback

Hierbei handelt es sich um eine beim Training von KI-Modellen verwendete Technik, bei der die Ausgabe eines neuronalen Netzwerks als Eingabe zurückgegeben wird, damit das Netzwerk seine Ausgabe als zusätzliche Dateneingabe in das Training integrieren kann. Dies ähnelt der Art und Weise, wie das Gehirn Rückkopplungsschleifen nutzt, um sein Modell basierend auf früheren Erfahrungen anzupassen.

Parallelverarbeitung

Bei der Parallelverarbeitung werden komplexe Rechenaufgaben in kleinere Bits aufgeteilt, um die kleineren Bits auf einem anderen Prozessor zu verarbeiten und so die Geschwindigkeit zu verbessern. Dieser Ansatz ermöglicht es KI-Systemen, mehr Eingabedaten schneller zu verarbeiten, ähnlich wie das Gehirn verschiedene Aufgaben gleichzeitig ausführen kann (Multitasking).

Aufmerksamkeitsmechanismen

Hierbei handelt es sich um eine Technik, die es KI-Modellen ermöglicht, sich auf bestimmte Teile der Eingabedaten zu konzentrieren. Sie wird häufig in Bereichen wie der Verarbeitung natürlicher Sprache eingesetzt, die komplexe und umständliche Daten enthalten. Es basiert auf der Fähigkeit des Gehirns, sich nur auf bestimmte Teile einer weitgehend ablenkenden Umgebung zu konzentrieren. wie Ihre Fähigkeit, sich aus einer Kakophonie von Gesprächen auf ein Gespräch einzulassen und mit ihm zu interagieren.

Verstärkungslernen

Reinforcement Learning ist eine Technik zum Trainieren von KI-Systemen. Sie wurde davon inspiriert, wie Menschen Fähigkeiten durch Versuch und Irrtum erlernen. Dabei erhält ein KI-Agent Belohnungen oder Strafen auf der Grundlage seiner Handlungen. Dies ermöglicht es dem Agenten, aus seinen Fehlern zu lernen und bei seinen zukünftigen Handlungen effizienter zu sein (diese Technik wird normalerweise bei der Erstellung von Spielen verwendet).

Unbeaufsichtigtes Lernen

Das Gehirn empfängt ständig neue Datenströme in Form von Geräuschen, visuellen Inhalten, Sinnesempfindungen auf der Haut usw. und muss alles verstehen und versuchen, ein kohärentes und logisches Verständnis dafür zu entwickeln, wie all diese scheinbar unterschiedlichen Ereignisse ablaufen seinen physischen Zustand beeinflussen.

Nehmen Sie diese Analogie als Beispiel: Sie spüren, wie Wasser auf Ihre Haut tropft, Sie hören das Geräusch von Wassertropfen, die schnell auf Dächer fallen, Sie spüren, wie Ihre Kleidung schwer wird, und in diesem Moment wissen Sie, dass es regnet, und durchsuchen dann Ihre Erinnerung Um festzustellen, ob Sie einen Regenschirm dabei hatten, und wenn ja, ist alles in Ordnung. Andernfalls überprüfen Sie die Entfernung von Ihrem aktuellen Standort zu Ihrem Zuhause. Wenn es in der Nähe ist, ist alles in Ordnung. Andernfalls versuchen Sie abzuschätzen, wie stark der Regen ist Wenn es leicht nieselt, können Sie versuchen, die Reise zurück zu Ihrem Zuhause fortzusetzen. Wenn es jedoch zu einem Schauer kommt, müssen Sie einen Unterschlupf finden.


Die Fähigkeit, scheinbar unterschiedliche Datenpunkte (Wasser, Klang, Gefühl, Entfernung) zu verstehen, wird in der künstlichen Intelligenz in Form einer Technik namens „Unüberwachtes Lernen“ implementiert. Es handelt sich um eine KI-Trainingstechnik, bei der KI-Systemen beigebracht wird, rohe, unstrukturierte Daten ohne explizite Kennzeichnung zu verstehen (niemand sagt einem, dass Regen fällt, wenn er fällt, oder?).

Herausforderungen beim Aufbau gehirninspirierter KI-Systeme

Wir haben darüber gesprochen, wie der Ansatz zustande kam, das Gehirn als Inspiration für KI-Systeme zu nutzen, wie das Gehirn mit KI zusammenhängt und welche Grundprinzipien hinter gehirninspirierter KI stehen. In diesem Abschnitt werden wir über einige der technischen und konzeptionellen Herausforderungen sprechen, die mit der Entwicklung von KI-Systemen verbunden sind, die dem menschlichen Gehirn nachempfunden sind.

Komplexität

Das ist eine ziemlich gewaltige Herausforderung. Der vom Gehirn inspirierte Ansatz zur KI basiert auf der Modellierung des Gehirns und dem Aufbau von KI-Systemen nach diesem Modell, aber das menschliche Gehirn ist ein von Natur aus komplexes System mit 100 Milliarden Neuronen und etwa 600 Billionen synaptischen Verbindungen (jedes Neuron verfügt im Durchschnitt über 10.000 synaptische Verbindungen). Verbindungen mit anderen Neuronen), und diese Synapsen interagieren ständig auf dynamische und unvorhersehbare Weise. Der Aufbau von KI-Systemen, die darauf abzielen, diese Komplexität nachzuahmen und hoffentlich zu übertreffen, ist an sich schon eine Herausforderung und erfordert ebenso komplexe statistische Modelle.

Datenanforderungen für das Training großer Modelle

GPT 4 von Open AI, derzeit das Spitzenmodell textbasierter KI-Modelle, benötigt 47 Gigabyte an Daten, im Vergleich dazu wurde sein Vorgänger GPT3 mit 17 Gigabyte an Daten trainiert, was etwa drei Größenordnungen weniger ist. Stellen Sie sich vor, wie viel GPT 5 trainiert wird.


Um akzeptable Ergebnisse zu erzielen, benötigen gehirninspirierte KI-Systeme nachweislich große Mengen an Daten und Daten für Aufgaben, insbesondere für Hör- und Sehaufgaben, und dies legt großen Wert auf die Erstellung von Datenerfassungspipelines, wie beispielsweise bei Tesla 780 Millionen Meilen an Fahrdaten und die Datenerfassungspipeline fügt alle 10 Stunden eine weitere Million hinzu.

Energieeffizienz

Der Aufbau gehirninspirierter KI-Systeme, die die Energieeffizienz des Gehirns nachahmen, ist eine große Herausforderung. Das menschliche Gehirn verbraucht etwa 20 Watt Strom, im Vergleich dazu verbraucht Teslas Autopilot auf speziellen Chips etwa 2.500 Watt pro Sekunde es dauert ungefähr 7,5 Megawattstunden (MWh), um ein KI-Modell in der Größe von ChatGPT zu trainieren.


Das Erklärbarkeitsproblem

Die Entwicklung gehirninspirierter KI-Systeme, denen die Benutzer vertrauen können, ist für das Wachstum und die Einführung von KI von entscheidender Bedeutung, aber darin liegt das Problem: Das Gehirn, nach dem KI-Systeme modelliert werden sollen, ist im Wesentlichen eine Black Box. Das Innenleben des Gehirns ist nicht leicht zu verstehen, da es an Informationen darüber mangelt, wie das Gehirn Gedanken verarbeitet. Es mangelt nicht an Forschung zur biologischen Struktur des menschlichen Gehirns, aber es mangelt in gewisser Weise an empirischen Informationen über die funktionellen Qualitäten des Gehirns, d auf ein Problem beim Aufbau gehirnbasierter KI-Systeme.

Die interdisziplinären Anforderungen

Der Aufbau gehirninspirierter KI-Systeme erfordert das Wissen von Experten in verschiedenen Bereichen, wie z. Neurowissenschaften, Informatik, Ingenieurwesen, Philosophie und Psychologie. Doch darin liegt sowohl eine logistische als auch eine grundlegende Herausforderung, da es finanziell sehr aufwändig ist, Experten aus verschiedenen Bereichen zu gewinnen, und außerdem besteht das Problem von Wissenskonflikten; Es ist wirklich schwierig, einen Ingenieur dazu zu bringen, sich um die psychologischen Auswirkungen dessen zu kümmern, was er/sie baut, ganz zu schweigen von dem Problem kollidierender Egos.

Zusammenfassung

Zusammenfassend lässt sich sagen, dass der vom Gehirn inspirierte Ansatz zwar der offensichtliche Weg zum Aufbau von KI-Systemen ist (wir haben besprochen, warum), er jedoch mit Herausforderungen verbunden ist, aber wir können in der Hoffnung in die Zukunft blicken, dass Anstrengungen unternommen werden, um diese Probleme zu lösen.



Verweise