paint-brush
DARPA bereitet Programm zum Schutz von Mixed-Reality-Benutzern vor kognitiven Angriffen vorvon@thesociable
6,250 Lesungen
6,250 Lesungen

DARPA bereitet Programm zum Schutz von Mixed-Reality-Benutzern vor kognitiven Angriffen vor

von The Sociable5m2023/10/23
Read on Terminal Reader

Zu lang; Lesen

DARPA stellt das Forschungsprogramm „Intrinsic Cognitive Security“ (**ICS**) zusammen, „um taktische Mixed-Reality-Systeme zu bauen, die vor kognitiven Angriffen schützen“. Das Pentagon geht davon aus, dass Mixed Reality (MR) bei zukünftigen Militäreinsätzen allgegenwärtig werden wird. Schlechte Akteure könnten Mixed-Reality-Umgebungen auf schändliche Weise manipulieren. Diese notwendigen Schutzmaßnahmen können den Eigenschaften Verbergung, Nichtbeobachtbarkeit und Nichterkennbarkeit zugeordnet werden.
featured image - DARPA bereitet Programm zum Schutz von Mixed-Reality-Benutzern vor kognitiven Angriffen vor
The Sociable HackerNoon profile picture
0-item


DARPA stellt das Forschungsprogramm Intrinsic Cognitive Security ( ICS ) zusammen, „um taktische Mixed-Reality-Systeme zu entwickeln, die vor kognitiven Angriffen schützen“.


Da das Pentagon sieht, dass Mixed Reality (MR) in zukünftigen Militärmissionen allgegenwärtig wird, versucht die US-amerikanische Defense Advanced Research Projects Agency ( DARPA ), Benutzer vor kognitiven Angriffen in dieser hybriden Umgebung zu schützen.


„Das ICS-Programm sucht nach bahnbrechenden Innovationen für die Computerwissenschaft, um taktische Mixed-Reality-Systeme zu entwickeln, die vor kognitiven Angriffen schützen.“

DARPA, Programm „Intrinsic Cognitive Security“ (ICS), Oktober 2023


Laut der DARPA ICS- Programmbeschreibung können solche Angriffe Folgendes umfassen:


  • Informationsflut, um die Gerätelatenz zu erhöhen und körperliche Erkrankungen hervorzurufen.
  • Platzieren Sie Objekte aus der realen Welt, um Displays zu überwältigen.
  • Ein persönliches Netzwerk untergraben, um Verwirrung zu stiften.
  • Einschleusen virtueller Daten zur Ablenkung des Personals.
  • Verwendung von Objekten, um einen Benutzer mit verwirrenden Fehlalarmen zu überhäufen.
  • Beurteilen des Benutzerstatus durch einen Eyetracker.
  • Und andere mögliche Angriffe.


Abgesehen von militärischen Anwendungen könnte uns das neue ICS- Programm der DARPA einen Einblick in die Zukunft des kommerziellen Metaversums geben und zeigen, wie schlechte Akteure Mixed-Reality-Umgebungen auf schändliche Weise manipulieren könnten.


Kriminelle Gruppen, Regierungen und Unternehmen könnten das Metaversum zu Waffen machen, indem sie Mixed-Reality-Systeme in Echtzeit manipulieren, um zu sehen, was Sie sehen, zu wissen, was Sie fühlen, und möglicherweise irreführende Informationen einzuschleusen, um eine gewünschte Reaktion zu erzielen.


Ein im Jahr 2020 in Procedia Computer Science veröffentlichter Forschungsbericht listet fünf Arten von Bedrohungen für Mixed-Reality-Umgebungen auf:


  • Eingabeschutz : Beinhaltet Herausforderungen bei der Gewährleistung der Sicherheit und des Datenschutzes der gesammelten und in die MR-Plattform eingegebenen Daten.


    • Beispiel : Die MR-Brille kann vertrauliche Informationen auf dem Desktop-Bildschirm des Benutzers erfassen, z. B. E-Mails und Chatprotokolle. Diese notwendigen Schutzmaßnahmen können den Eigenschaften Verbergung, Nichtbeobachtbarkeit und Nichterkennbarkeit sowie Inhaltsbewusstsein zugeordnet werden.


  • Datenschutz : Eine große Menge der von den Sensoren gesammelten Daten wird in der Datenbank oder anderen Formen der Datenspeicherung gespeichert. Die Hauptbedrohungen für die Datenerfassung sind unter anderem Manipulation, Denial-of-Service und unbefugter Zugriff.


    • Beispiel : Ein Angreifer kann MR-Ziele manipulieren, um eine andere Reaktion des Systems auszulösen oder einen Dienst gänzlich zu verweigern. Neben Sicherheitsbedrohungen gehören Sympathie, Erkennbarkeit und Identifizierbarkeit zu den Datenschutzbedrohungen, die sich aus der kontinuierlichen oder dauerhaften Datenerfassung ergeben.


  • Ausgabeschutz : Nachdem die Daten verarbeitet wurden, sendet die Anwendung eine Ausgabe an das MR-Gerät, die angezeigt werden soll. In MR haben die Anwendungen möglicherweise Zugriff auf andere Anwendungsausgaben und können daher diese Ausgaben ändern, wodurch sie unzuverlässig werden.


    • Beispiel : Ausgabeanzeigen sind anfällig für physische Inferenzbedrohungen oder visuelle Kanalausnutzungen wie Schultersurfangriffe. Dies sind die gleichen Bedrohungen für Benutzereingaben, insbesondere wenn sich die Eingabe- und Ausgabeschnittstellen auf demselben Medium befinden oder miteinander integriert sind.


  • Schutz vor Benutzerinteraktionen : MR umfasst die Nutzung anderer Sensor- und Anzeigeschnittstellen, um immersive Interaktionen zu ermöglichen. Eine der wichtigsten Perspektiven besteht darin, wie Benutzer MR-Erfahrungen unter Gewährleistung der Sicherheit und des Datenschutzes der Informationen teilen können.


    • Beispiel : Ein gegnerischer Benutzer kann während dieser Interaktionen möglicherweise böswillige Aktionen manipulieren, fälschen oder ablehnen. Dies kann dazu führen, dass seriöse Benutzer einem Denial-of-Service-Angriff ausgesetzt sind. Darüber hinaus könnten ihre persönlichen Daten kompromittiert, durchgesickert und verwendet worden sein.


  • Geräteschutz : Die MR-Schnittstellen sind böswilligen und schädlichen Interpretationen ausgesetzt, die zur Entdeckung von Eingabe- und Ausgabeanzeigeinformationen führen.


    • Beispiel : Die Head Mounted Displays (HMDs) zeigen den Inhalt durch ihre Linsen an, die andere Personen von außen sehen können, was zu Lecks und externer Beobachtung führt. Geräte wie eine Kamera, die auch als visuelle Erfassungsgeräte kategorisiert werden, werden verwendet, um diese von den HMDs durchgesickerten Informationen zu erfassen und zu extrahieren.


Ein Bericht vonKaspersky fügt hinzu: „ Es ist nahezu unmöglich, VR- und AR-Tracking-Daten zu anonymisieren, da Einzelpersonen einzigartige Bewegungsmuster haben.“ Anhand der in VR-Headsets gesammelten Verhaltens- und biologischen Informationen haben Forscher Benutzer mit einem sehr hohen Maß an Genauigkeit identifiziert – was ein echtes Problem darstellt, wenn VR-Systeme gehackt werden .“


Für das ICS- Programm der DARPA lautet die technische Kernhypothese, dass „formale Methoden mit kognitiven Garantien und Modellen erweitert werden können, um Mixed-Reality-Benutzer vor kognitiven Angriffen zu schützen.“


Da „kognitive Modelle Aspekte der menschlichen Wahrnehmung, Handlung, Erinnerung und Argumentation darstellen“, wird das ICS- Programm der DARPA „formale Methoden erweitern, indem es explizit kognitive und andere Modelle als Teil der MR-Systementwicklung erstellt und analysiert, um den Kriegskämpfer vor gegnerischen Angriffen zu schützen.“


„Mixed Reality integriert virtuelle und reale Welten in Echtzeit und wird in zukünftigen Militärmissionen allgegenwärtig sein, einschließlich Missionen mit abgesessenen Soldaten.“

DARPA, Programm „Intrinsic Cognitive Security“ (ICS), Oktober 2023


Seit Jahren finanziert das US-Verteidigungsministerium (DoD) Forschung, um seine Kampfflugzeuge mit Technologien auszustatten, die ihre Fähigkeiten steigern .


Beispielsweise haben sowohl DARPA als auch die Defence Innovation Unit (DIU) nach Mixed-Reality- und Handheld-Geräten gesucht, mit denen Bediener mit mehr als 250 autonomen Fahrzeugen durch eine militärische Taktik namens Swarming interagieren können.


Im Jahr 2018 startete DARPA sein OFFensive Swarm-Enabled Tactics ( OFFSET )-Programm, um erweiterte und virtuelle Realität sowie sprach-, gesten- und berührungsbasierte Technologien zu nutzen und Benutzern die gleichzeitige Interaktion mit potenziell Hunderten unbemannten Plattformen in Echtzeit zu ermöglichen.


Und im März 2021 suchte die DIU nach kommerziellen Lösungen , die es Soldaten ermöglichen würden, mehrere Arten unbemannter Luft- und Landfahrzeuge mithilfe tragbarer und handgehaltener Steuerungen zu steuern.


Nun versucht das Pentagon, Benutzer in diesen Mixed-Reality-Umgebungen vor kognitiven Angriffen zu schützen.


Werden Lösungen aus dem ICS- Programm der DARPA ihren Weg in den kommerziellen Sektor finden, um Privatpersonen im Metaversum zu schützen?


Könnten die entwickelten Technologien und Taktiken für zukünftige PSYOPs genutzt werden und eigenständige Kampagnen beeinflussen ?


Der Tag der ICS- Programmvorschlager findet am 20. Oktober 2023 in Arlington, Virginia, statt.



Dieser Artikel wurde ursprünglich von Tim Hinchliffe auf The Sociable veröffentlicht.