paint-brush
¿Qué es FraudGPT?por@zacamos
47,555 lecturas
47,555 lecturas

¿Qué es FraudGPT?

por Zac Amos5m2023/08/11
Read on Terminal Reader

Demasiado Largo; Para Leer

FraudGPT es un producto vendido en la web oscura que funciona de manera similar a ChatGPT pero ayuda a facilitar los ataques cibernéticos. Así es como se está utilizando.
featured image - ¿Qué es FraudGPT?
Zac Amos HackerNoon profile picture
0-item

ChatGPT ha captado la atención de las personas, cambiando sus flujos de trabajo y alterando la forma en que obtienen información en línea. Incluso aquellos que no lo han probado sienten curiosidad por saber cómo los chatbots de inteligencia artificial (IA) impactarán en el futuro.


Los ciberdelincuentes han explorado cómo podrían capitalizar el fenómeno. FraudGPT es un ejemplo reciente de eso.

¿Qué es FraudGPT?

FraudGPT es un producto vendido en la web oscura y Telegram que funciona de manera similar a ChatGPT pero crea contenido para facilitar los ataques cibernéticos. Miembros del equipo de investigación de amenazas de Netenrich lo identificó por primera vez y lo vio anunciado en julio de 2023. Un punto de venta importante fue que FraudGPT no tiene los controles y limitaciones integrados que evitan que ChatGPT realice o responda solicitudes inapropiadas.


Más detalles dicen que la herramienta se actualiza cada una o dos semanas y presenta diferentes modelos de IA bajo el capó. FraudGPT también tiene un modelo de precios basado en suscripción. Las personas pueden pagar $200 para usarlo mensualmente o $1,700 por un año.

¿Cómo funciona FraudGPT y qué puede hacer?

El equipo de Netenrich compró y probó FraudGPT. La interfaz se parece a ChatGPT, con un registro de las solicitudes anteriores del usuario en la barra lateral izquierda y la ventana de chat ocupando la mayor parte de la pantalla. Las personas solo necesitan escribir en la ventana Hacer una pregunta y presionar Entrar para generar la respuesta.


Una de las indicaciones de prueba le pidió a la herramienta que creara correos electrónicos de phishing relacionados con el banco. Los usuarios simplemente necesitaban formatear sus preguntas para incluir el nombre del banco, y FraudGPT haría el resto. Incluso sugirió en qué parte del contenido la gente debería insertar un enlace malicioso. FraudGPT podría ir más allá al crear páginas de destino fraudulentas que animen a los visitantes a proporcionar información.


Otras indicaciones solicitaron a FraudGPT que enumerara los sitios o servicios más específicos o utilizados. Esa información podría ayudar a los piratas informáticos a planificar futuros ataques. Un anuncio en la web oscura del producto mencionaba que podría crear código malicioso, generar malware indetectable, encontrar vulnerabilidades, identificar objetivos y más.


El equipo de Netenrich también identificó al vendedor de FraudGPT como alguien que anteriormente ofrecía servicios de hackers a sueldo. Además, vincularon a la misma persona con una herramienta similar llamada WormGPT.


Los investigadores de SlashNext dijeron que los algoritmos de la herramienta fueron entrenados en grandes cantidades de datos de malware. Ese equipo dijo que WormGPT tenía un potencial particular para crear mensajes realistas de phishing y compromiso de correo electrónico comercial.


La evidencia de estas herramientas demuestra que los ciberdelincuentes siguen evolucionando para que sus ataques sean cada vez más exitosos. ¿Qué pueden hacer los profesionales y entusiastas de la tecnología para mantenerse a salvo?

Consejos para la ciberseguridad en la era del fraudeGPT y herramientas similares

La investigación de FraudGPT destacó la necesidad de mantenerse alerta. Estas herramientas son nuevas, por lo que es demasiado pronto para decir cuándo los piratas informáticos podrían usarlas para crear amenazas nunca antes vistas, o si ya lo han hecho. Sin embargo, FraudGPT y otros productos utilizados con fines maliciosos podrían ayudar a los piratas informáticos a ahorrar tiempo. Podrían escribir correos electrónicos de phishing en segundos o desarrollar páginas de destino completas casi con la misma rapidez.


Eso significa que las personas deben seguir las mejores prácticas de seguridad cibernética, lo que incluye sospechar siempre de las solicitudes de información personal. Las personas con funciones de seguridad cibernética deben actualizar sus herramientas de detección de amenazas y saber que los malos actores pueden usar herramientas como FraudGPT para atacar e infiltrarse directamente en las infraestructuras en línea.

Los piratas informáticos no son las únicas amenazas

Más trabajadores están usando ChatGPT en sus trabajos, pero eso no es necesariamente bueno para la ciberseguridad. Los empleados podrían comprometer involuntariamente la información confidencial de la empresa al pegarla en ChatGPT. Las empresas, incluidas Apple y Samsung, han ya restringido cómo los trabajadores pueden usar la herramienta en sus funciones.


Un estudio encontró que El 72% de las pequeñas empresas cierran dentro Dos años de pérdida de datos. Muchas personas solo consideran que la actividad delictiva causa la pérdida de información. Sin embargo, las personas con visión de futuro también se dan cuenta del riesgo de pegar datos confidenciales o de propiedad exclusiva en ChatGPT.


Esos temores no son infundados. Un error de ChatGPT de marzo de 2023 filtró los detalles de pago de las personas que habían usado la herramienta durante una ventana de nueve horas y suscrito a la versión de pago. Además, las versiones futuras de ChatGPT se entrenan con la información ingresada por usuarios anteriores. Es fácil imaginar los problemas si los detalles confidenciales se convirtieran en parte de los datos que enseñan a los algoritmos a funcionar. Los usuarios pueden optar por no usar sus avisos para la capacitación, pero esa no es la configuración predeterminada.


También podrían surgir problemas si los trabajadores asumen que cualquier información que obtengan de ChatGPT es correcta. Las personas que utilizan la herramienta para tareas de programación y codificación han advertido que proporciona respuestas inexactas que los profesionales con menos experiencia pueden tratar como hechos.


Un artículo de investigación de agosto de 2023 de la Universidad de Purdue confirmó esa afirmación al probar ChatGPT en preguntas de programación. Las sorprendentes conclusiones que encontró la herramienta dio respuestas incorrectas en 52% de los casos y fue detallado el 77% del tiempo. Si ChatGPT también recibe mensajes incorrectos relacionados con la seguridad cibernética, podría plantear desafíos para los equipos de TI que intentan enseñar a los miembros del personal cómo prevenir los ataques.

ChatGPT podría convertirse en un patio de recreo para los piratas informáticos

Una cosa fundamental a tener en cuenta es que los piratas informáticos aún pueden causar daños extraordinarios sin pagar por productos como FraudGPT. Los investigadores de ciberseguridad ya han señalado que la versión gratuita de ChatGPT les permite hacer muchas de las mismas cosas. Las protecciones integradas de esa herramienta pueden dificultar la obtención inmediata de los resultados deseados. Sin embargo, los delincuentes saben cómo ser creativos, lo que puede incluir la manipulación de ChatGPT para que funcione como ellos quieren.


AI podría finalmente ampliar el alcance de los ciberdelincuentes y ayudarlos orquestar ataques más rápido. Por el contrario, muchos profesionales de la ciberseguridad utilizan la IA para aumentar la conciencia de las amenazas y acelerar la remediación. Por lo tanto, las personas pueden depender de la tecnología para fortalecer y erosionar las medidas de protección. No sorprende que una encuesta de junio de 2023 mostró que el 81% de los encuestados tenía seguridad y preocupaciones de seguridad sobre ChatGPT.


Otra posibilidad es que las personas puedan descargar lo que creen que es la aplicación ChatGPT genuina y recibir malware en su lugar. no pasó mucho tiempo para numerosas aplicaciones que se asemejan a la herramienta para aparecer en las tiendas de aplicaciones. Algunos solo funcionaban de manera similar y no parecían engañar a los usuarios a propósito. Sin embargo, otros tenían nombres parecidos, como "Chat GBT", que podían engañar fácilmente a personas desprevenidas.


Los piratas suelen incorporar malware en aplicaciones aparentemente legítimas. La gente también debería esperar que aprovechen la popularidad de ChatGPT de esa manera.

Las tecnologías emergentes requieren nuevos métodos de ciberseguridad

La investigación sobre FraudGPT es un recordatorio memorable de cómo los ciberdelincuentes seguirán cambiando sus técnicas para lograr el máximo impacto. Sin embargo, las herramientas disponibles gratuitamente también plantean riesgos de ciberseguridad. Cualquiera que use Internet o trabaje para asegurar infraestructuras en línea debe estar al tanto de las nuevas tecnologías y sus riesgos. La clave es usar herramientas como ChatGPT de manera responsable sin dejar de ser consciente del daño potencial.