paint-brush
DARPA prepara programa para proteger usuários de realidade mista contra ataques cognitivospor@thesociable
6,250 leituras
6,250 leituras

DARPA prepara programa para proteger usuários de realidade mista contra ataques cognitivos

por The Sociable5m2023/10/23
Read on Terminal Reader

Muito longo; Para ler

A DARPA está montando o programa de pesquisa Segurança Cognitiva Intrínseca (**ICS**) “para construir sistemas táticos de realidade mista que protejam contra ataques cognitivos”. O Pentágono vê a realidade mista (MR) se tornando onipresente em futuras missões militares. Os maus atores poderiam manipular ambientes de realidade mista de maneiras nefastas. Essas proteções necessárias podem ser mapeadas em propriedades de ocultação, inobservabilidade e indetectabilidade.
featured image - DARPA prepara programa para proteger usuários de realidade mista contra ataques cognitivos
The Sociable HackerNoon profile picture
0-item


A DARPA está montando o programa de pesquisa Segurança Cognitiva Intrínseca ( ICS ) “para construir sistemas táticos de realidade mista que protejam contra ataques cognitivos”.


À medida que o Pentágono vê a realidade mista (MR) tornar-se omnipresente em futuras missões militares, a Agência de Projectos de Investigação Avançada de Defesa dos EUA ( DARPA ) procura proteger os utilizadores contra ataques cognitivos neste ambiente híbrido.


“O programa ICS busca inovação revolucionária para a ciência computacional para construir sistemas táticos de realidade mista que protejam contra ataques cognitivos”

DARPA, programa de Segurança Cognitiva Intrínseca (ICS), outubro de 2023


De acordo com a descrição do programa DARPA ICS , tais ataques podem incluir:


  • Inundação de informações para aumentar a latência do equipamento e induzir doenças físicas.
  • Plantar objetos do mundo real para sobrecarregar as exibições.
  • Subverter uma rede de área pessoal para semear confusão.
  • Injetar dados virtuais para distrair o pessoal.
  • Usar objetos para sobrecarregar um usuário com alarmes falsos confusos.
  • Avaliando o status do usuário por meio de um rastreador ocular.
  • E outros ataques potenciais.


Além das aplicações militares, o novo programa ICS da DARPA poderia fornecer-nos um vislumbre do futuro do metaverso comercial e de como os maus actores poderiam manipular ambientes de realidade mista de formas nefastas.


Grupos criminosos, governos e empresas poderiam transformar o metaverso em armas, manipulando sistemas de realidade mista em tempo real para poder ver o que você vê, saber o que você está sentindo e potencialmente plantar informações enganosas a fim de alcançar a reação desejada.


Um artigo de pesquisa publicado na Procedia Computer Science em 2020 lista cinco tipos de ameaças a ambientes de realidade mista:


  • Proteção de entrada : Envolve desafios para garantir a segurança e a privacidade dos dados coletados e inseridos na plataforma MR.


    • Exemplo : Os óculos MR podem capturar informações confidenciais na tela do desktop do usuário, como e-mails e registros de bate-papo. Essas proteções necessárias podem ser mapeadas para propriedades de ocultação, inobservabilidade e indetectabilidade e reconhecimento de conteúdo.


  • Proteção de Dados : Uma grande quantidade de dados coletados dos sensores é armazenada no banco de dados ou em outras formas de armazenamento de dados. As principais ameaças à coleta de dados são adulteração, negação de serviço e acesso não autorizado, entre outras.


    • Exemplo : Um adversário pode adulterar alvos de MR para obter uma resposta diferente do sistema ou negar completamente um serviço. Além das ameaças à segurança, a simpatia, a detectabilidade e a identificabilidade são algumas das ameaças à privacidade que resultam da coleta contínua ou persistente de dados.


  • Proteção de saída : após o processamento dos dados, o aplicativo envia a saída para o dispositivo MR que será exibido. No MR, os aplicativos podem ter acesso a outras saídas de aplicativos e, portanto, podem modificar essas saídas, tornando-as não confiáveis.


    • Exemplo : as exibições de saída são vulneráveis a ameaças de inferência física ou explorações de canais visuais, como ataques de navegação no ombro. Estas são as mesmas ameaças às entradas do usuário, especialmente quando as interfaces de entrada e saída estão no mesmo meio ou integradas.


  • Proteção de interação do usuário : MR inclui a utilização de outras interfaces de detecção e exibição para permitir interações imersivas. Uma das principais perspectivas é como os usuários podem compartilhar experiências de RM com garantia de segurança e privacidade das informações.


    • Exemplo : um usuário adversário pode potencialmente adulterar, falsificar ou repudiar ações maliciosas durante essas interações. Como consequência, os usuários genuínos podem passar pela negação de serviço. Além disso, os seus dados pessoais podem ter sido comprometidos, vazados e usados.


  • Proteção do dispositivo : As interfaces MR são expostas a interpretações maliciosas e prejudiciais, levando à descoberta de informações de exibição de entrada e saída.


    • Exemplo : Os head-mounted displays (HMDs) exibem o conteúdo através de suas lentes, que outras pessoas podem ver de fora, levando a vazamentos e observação externa. Dispositivos como uma câmera, que também são categorizados como dispositivos de captura visual, são usados para capturar e extrair essas informações que vazaram dos HMDs.


Um relatório daKaspersky acrescenta: “ É quase impossível anonimizar os dados de rastreamento de VR e AR porque os indivíduos têm padrões de movimento únicos. Usando as informações comportamentais e biológicas coletadas em headsets de VR, os pesquisadores identificaram os usuários com um alto grau de precisão – apresentando um problema real se os sistemas de VR forem hackeados .”


Para o programa ICS da DARPA, a hipótese técnica central é que “os métodos formais podem ser alargados com garantias e modelos cognitivos para proteger os utilizadores de realidade mista de ataques cognitivos”.


Como “os modelos cognitivos representam aspectos da percepção, ação, memória e raciocínio humanos”, o programa ICS da DARPA irá “estender os métodos formais, criando e analisando explicitamente modelos cognitivos e outros como parte do desenvolvimento do sistema de RM para proteger o combatente de ataques adversários”.


“A realidade mista integra mundos virtuais e reais em tempo real e será onipresente em futuras missões militares, incluindo missões envolvendo soldados desmontados”

DARPA, programa de Segurança Cognitiva Intrínseca (ICS), outubro de 2023


Durante anos, o Departamento de Defesa dos EUA (DoD) tem financiado pesquisas para equipar os seus combatentes com tecnologias para aumentar as suas capacidades .


Por exemplo, tanto a DARPA como a Unidade de Inovação de Defesa (DIU) têm procurado a realidade mista e dispositivos portáteis para os operadores interagirem com mais de 250 veículos autónomos através de uma táctica militar conhecida como enxameação.


Em 2018, a DARPA lançou seu programa OFFensive Swarm-Enabled Tactics ( OFFSET ) para aproveitar a realidade aumentada e virtual, juntamente com tecnologias baseadas em voz, gestos e toque, para permitir que os usuários interajam com potencialmente centenas de plataformas não tripuladas simultaneamente em tempo real.


E em março de 2021, a DIU procurava soluções comerciais que permitissem aos soldados operar vários tipos de veículos aéreos e terrestres não tripulados utilizando controladores vestíveis e portáteis.


Agora, o Pentágono procura proteger os usuários de ataques cognitivos nesses ambientes de realidade mista.


Será que as soluções provenientes do programa ICS da DARPA chegarão ao setor comercial para proteger os cidadãos no metaverso?


Será que a tecnologia e as tácticas desenvolvidas poderiam ser utilizadas em futuras operações psicológicas e influenciar as campanhas por si só?


O dia dos proponentes do programa ICS será realizado em 20 de outubro de 2023 em Arlington, Virgínia.



Este artigo foi publicado originalmente por Tim Hinchliffe no The Sociable.