paint-brush
Das HAYSTAC-Programm der IARPA: Vorhersage der Bewegungen von Menschen mit KI und IoTvon@thesociable
312 Lesungen
312 Lesungen

Das HAYSTAC-Programm der IARPA: Vorhersage der Bewegungen von Menschen mit KI und IoT

von The Sociable3m2023/06/25
Read on Terminal Reader
Read this story w/o Javascript

Zu lang; Lesen

Intelligence Advanced Research Projects Activity (IARPA) möchte „Systeme entwickeln, die in der Lage sind, Bevölkerungsbewegungsmuster rund um den Globus zu modellieren“ und dabei KI und Sensoren nutzen, die mit dem Internet der Dinge (IoT) und Smart Cities verbunden sind. Das Programm „Hidden Activity Signal and Trajectory Anomaly Characterization (**HAYSTAC)“ der IARPA zielt darauf ab, „normale“ Bewegungsmodelle über Zeiten, Orte und Populationen hinweg zu etablieren.
featured image - Das HAYSTAC-Programm der IARPA: Vorhersage der Bewegungen von Menschen mit KI und IoT
The Sociable HackerNoon profile picture
0-item

Die US Intelligence Advanced Research Projects Activity (IARPA) möchte „Systeme entwickeln, die in der Lage sind, Bevölkerungsbewegungsmuster rund um den Globus zu modellieren“, und zwar mithilfe von KI und Sensoren, die mit dem Internet der Dinge (IoT) und Smart Cities verbunden sind.


Nach Angaben des Office of the Director of National Intelligence ( ODNI ) zielt das Programm „Hidden Activity Signal and Trajectory Anomaly Characterization“ ( HAYSTAC ) der IARPA darauf ab, „normale“ Bewegungsmodelle über Zeiten, Orte und Populationen hinweg zu etablieren und zu bestimmen, was eine Aktivität atypisch macht.


„Umfangreiche Daten aus dem Internet der Dinge und Smart-City- Infrastrukturen bieten Möglichkeiten zum Aufbau neuer Modelle, die die menschliche Dynamik mit beispielloser Auflösung verstehen, und schaffen die Verantwortung, die Datenschutzerwartungen derjenigen zu verstehen, die sich durch diese sensorreiche Welt bewegen.“


„Dies ist eine beispiellose Gelegenheit zu verstehen, wie sich Menschen bewegen, und HAYSTACs Ziel wird es sein, ein Verständnis dafür zu entwickeln, wie normale Bewegung zu einem bestimmten Zeitpunkt und an einem bestimmten Ort aussieht.“


Dr. Jack Cooper, IARPA


Leiter des vierjährigen HAYSTAC- Forschungsprogramms ist Dr. Jack Cooper , der 2020 zur IARPA kam, nachdem er bei der National Geospatial-Intelligence Agency (NGA) in der Forschungsdirektion tätig war, wo er als leitender Wissenschaftler für prädiktive Analysen tätig war.


Für den Programmmanager stellt HAYSTACeine beispiellose Gelegenheit dar, zu verstehen, wie sich Menschen bewegen, und das Ziel von HAYSTAC wird es sein, ein Verständnis dafür zu entwickeln, wie normale Bewegung zu einem bestimmten Zeitpunkt und an einem bestimmten Ort aussieht .“


„Mit HAYSTAC haben wir die Möglichkeit, maschinelles Lernen und Fortschritte in der künstlichen Intelligenz zu nutzen, um Mobilitätsmuster mit außergewöhnlicher Klarheit zu verstehen“, sagte Dr. Cooper in einer Erklärung gegenüber dem ODNI.


Je robuster wir normale Bewegungen modellieren können, desto schärfer können wir das Außergewöhnliche erkennen und einen möglichen Notfall vorhersehen “, fügte er hinzu.


Laut IARPA können „aktuelle Techniken zur Modellierung der menschlichen Mobilität umfassende Einblicke in die menschliche Bewegung liefern, um die Ausbreitung von Krankheiten oder die Bevölkerungsmigration zu untersuchen.“


Allerdings „bieten sie nicht die komplexe, feinkörnige Modellierung, die die Intelligence Community (IC) benötigt, um subtilere Anomalien sicher zu identifizieren.“


Hier kommen HAYSTAC und Dr. Cooper ins Spiel.


„Mit HAYSTAC haben wir die Möglichkeit, maschinelles Lernen und Fortschritte in der künstlichen Intelligenz zu nutzen, um Mobilitätsmuster mit außergewöhnlicher Klarheit zu verstehen.“


Dr. Jack Cooper, IARPA


Dr. Cooper ist außerdem Programmmanager für mindestens zwei weitere IARPA-Forschungsprogramme, die sich auf die Erkennung und Charakterisierung menschlicher Aktivitäten konzentrieren, darunter:


  • Space-Based Machine Automated Recognition Technique ( SMART ), die Satellitenbilder nutzt, um menschliche Bauprojekte sowie natürliche Prozesse wie Pflanzenwachstum zu erkennen, zu überwachen und zu charakterisieren.
  • Deep Intermodal Video Analytics ( DIVA ), das automatische Aktivitätsdetektoren erstellt, die stundenlanges Video ansehen und die wenigen Sekunden hervorheben können, in denen eine Person oder ein Fahrzeug eine bestimmte Aktivität ausführt (z. B. etwas Schweres tragen, es in ein Fahrzeug laden und dann losfahren). ).


„Internet-of-Thing-Geräte sind eine wachsende Datenquelle, die gesammelt werden kann, um Absichten zu erlernen.“

Dr. Catherine Marsh, IARPA


In einer Rede auf der weltweiten Konferenz des US-Verteidigungsministeriums (Department of Defense Intelligence Information System, DoDIIS) im Dezember 2021 gab IARPA-Direktorin Dr. Catherine Marsh einen Ausblick auf das kommende HAYSTAC- Programm, als sie sagte:


„Internet-of-Thing-Geräte sind eine wachsende Datenquelle, die gesammelt werden kann, um Absichten zu erlernen.

„Die Entwicklung dieser neuen Sensoren und Detektoren sowie das Nachdenken über clevere Möglichkeiten zur Sammlung multimodaler Daten, um aufzudecken, was unsere Gegner vor uns zu verbergen versuchen, ist der Kern dessen, worauf unsere Sammlungsprogramme abzielen.“


Für ihr HAYSTAC- Programm hat die IARPA bereits mehrere Aufträge an große Rüstungsunternehmen und Beratungsunternehmen mit Verbindungen zur Wissenschaft, NGOs und Technologieunternehmen vergeben.

Diese Verträge gingen an:


  • Forschungszentrum für Raytheon-Technologien
  • L3Harris Technologies, Inc.
  • STR
  • Kitware, Inc.
  • Leidos, Inc.
  • Novateur-Forschungslösungen
  • Deloitte Consulting LLP
  • Raytheon BBN


„Wenn die HAYSTAC- Systeme ausgereift sind, werden sie anhand der Erkennungswahrscheinlichkeit und der Fehlalarmleistung bei der Erstellung relevanter Warnungen bewertet. Letztendlich wird versucht, 80 % der anomalen Aktivitäten zu identifizieren und gleichzeitig normale Aktivitäten zu erzeugen, die nur zu 10 % erkennbar sind“, heißt es in dem Programm Beschreibung .



Dieser Artikel wurde ursprünglich von Tim Hinchliffe auf The Sociable veröffentlicht.