paint-brush
La IA está fallando en el ámbito cibernéticopor@mackj01
912 lecturas
912 lecturas

La IA está fallando en el ámbito cibernético

por Mackenzie Jackson4m2024/10/22
Read on Terminal Reader

Demasiado Largo; Para Leer

La IA no es eficaz en materia de seguridad y es más una herramienta de marketing que algo útil en la actualidad. Necesitamos empoderar a los humanos y no reemplazarlos, y centrarnos en lo que la IA realmente hace bien: identificación y clasificación.
featured image - La IA está fallando en el ámbito cibernético
Mackenzie Jackson HackerNoon profile picture


En octubre de 2022 publiqué el artículo más vergonzoso de mi carrera, pero dos años después empiezo a pensar que quizá tenía razón.


Al pasear por el colosal salón de vendedores de BlackHat en 2022, cada puesto hacía alguna afirmación atrevida sobre la IA. “ Análisis impulsado por IA”, “Combinación de IA con detección en tiempo real” o algún otro eslogan. Siempre que hablas con el equipo de ventas para preguntar exactamente qué hizo su IA, recibes una sucesión de jerga de IA o una afirmación sobre equipos de investigación secretos en bóvedas subterráneas en la Antártida.


Después de eso, publiqué con confianza un artículo en el que denunciaba que la IA no era más que una tontería de marketing... “BlackHat 2022, más A que yo”. Un par de meses después, se lanzó ChatGPT. De repente, la IA se volvió real y, de repente, mi brillante artículo se convirtió en una broma y, descaradamente, en un error.


Pero, después de pasear por el salón de proveedores de BlackHat 2024 este año, tal vez no estaba tan lejos de la realidad.


Es innegable que la IA es real y que tiene un enorme potencial para cambiar el panorama. Y en muchos sentidos ya lo ha hecho. Algo que no creía hace dos años. Pero, al caminar por los amplios pasillos del Mandalay Bay para BlackHat 2024, todavía se ven los mismos eslóganes y todavía no he encontrado una implementación significativa de la IA en seguridad que pueda señalar y que coincida remotamente con las audaces afirmaciones.


“Una cosa que noté [en BlackHat] fue que la gente estaba cansada de la IA”

Ashish Rajan Podcast sobre ciberseguridad con inteligencia artificial


¿Por qué la IA no ha logrado ser efectiva en materia de seguridad?

Para anticiparme a sus objeciones, sé que los proveedores de seguridad están utilizando IA en sus productos, pero hasta ahora no hay resultados que cambien las reglas del juego y gran parte de esto se debe a cómo están implementando la IA.


Tras el lanzamiento de ChatGPT y los modelos de IA posteriores, muchos proveedores se apresuraron a agregar estas nuevas herramientas a sus plataformas. La implementación inicial fue "pautas de solución basadas en IA" y "contexto adicional en torno a las alertas".


Pero la realidad es la siguiente: la implementación beneficia principalmente al proveedor, no al usuario. Esto simplemente significa que no necesitan dedicar tanto tiempo a la documentación. No solo eso, la información contextual siempre está desactualizada al menos dos años para la mayoría de los modelos de IA comerciales.


La realidad es que gran parte de esta implementación fue simplemente una forma de cumplir las promesas de los proveedores detrás de sus productos impulsados por "IA".


Otro problema que limita la capacidad de la IA en materia de seguridad es la capacidad de entrenar modelos de IA con datos de seguridad específicos. Los modelos como ChatGPT son excelentes para mostrar lo que puede hacer un modelo de IA, pero están lejos de ser confiables para casos de uso específicos. Como dijo Dean De Beer en el Podcast de IA + A16z “ChatGPT es un gran martillo, [pero] ciertamente no lo recomendaría cuando comiences a producir y realizar tareas a gran escala” . Entrenar un modelo enfocado en la seguridad en este momento requiere una potencia computacional extraordinaria e incluso si (y es un gran si) una pequeña empresa pudiera comprar suficientes GPU para realizar esto, ¡el costo sería astronómico!


“Todavía no hemos llegado al momento en que la IA sea algo más que una característica del producto”

Caleb Sima Podcast sobre ciberseguridad con inteligencia artificial


Esto significa que solo unos pocos actores importantes tienen la capacidad de implementar funciones de IA que vayan más allá de enviar datos genéricos a modelos genéricos entrenados por IA. Hoy en día, la IA sigue siendo en su mayoría una función secundaria en la mayoría de las herramientas de seguridad, casi un truco que los equipos de marketing pueden lanzar al mundo.

¿Cómo se puede hacer una IA correcta?

A pesar de todo mi escepticismo, admito que hay algunas implementaciones interesantes de IA. IA púrpura Por SentinelOne, comercializado como un analista de seguridad de IA, ciertamente es impresionante verlo en acción (al menos en una demostración).


Entonces, ¿cómo se puede utilizar la IA, especialmente si no se dispone del presupuesto de un equipo de Fórmula 1?


  1. Empoderar a los humanos, no intentar reemplazarlos

    La verdad es que, en este momento, no confiamos ni deberíamos confiar en la IA para que sustituya a un ser humano. Siempre se quedará atrás si no confiamos en ella, y su capacidad es limitada. La IA es una herramienta poderosa para ayudar a los humanos.

  2. Concéntrese en lo que la IA hace bien en este momento: la clasificación.

    La fortaleza original de la IA era la clasificación. Podemos proporcionar a la IA mucho contexto en torno a una vulnerabilidad y obtener un modelo para clasificar y priorizar las vulnerabilidades.

  3. Asegúrese de utilizar el modelo correcto

    Cuanto más priorizamos la IA, más necesitamos un modelo que sea igualmente especializado. Entrenar estos modelos por nuestra cuenta puede estar fuera del ámbito de las posibilidades para la mayoría, pero hay muchos modelos que superarán a los martillos estándar.

¿La “A” será alguna vez “I” en seguridad?

Inteligencia es una palabra atrevida y bastante ambigua. Cada día la IA se integra más en nuestra vida cotidiana y las herramientas de seguridad tienen un potencial enorme para la IA. No tengo ninguna duda de que habrá implementaciones innovadoras y efectivas de IA en las herramientas de seguridad, pero aún no hemos llegado a ese punto.


Los proveedores de seguridad han estado ampliando sus capacidades de inteligencia artificial durante años y, cuando ChatGPT les lanzó un salvavidas, intentaron adaptar las herramientas a sus eslóganes. La realidad es que la implementación efectiva será diferente de lo que habíamos imaginado en un principio. La inteligencia artificial será eficaz cuando los eslóganes coincidan con la herramienta, y no al revés.