Un soldado planeó un ataque explosivo con inteligencia artificial en Las Vegas. Matthew Livelsberger, miembro de las Fuerzas Especiales del Ejército de Estados Unidos, utilizó ChatGPT para planear un atentado en Las Vegas.
*
El soldado Matthew Livelsberger, de 37 años, ejecutó un ataque explosivo frente al Trump International Hotel en Las Vegas, causando siete heridos leves. Este “Boina Verde” utilizó ChatGPT para obtener información sobre explosivos y coordinar su plan, según confirmó la policía local.
El Departamento de Policía Metropolitana de Las Vegas señaló que Livelsberger realizó consultas en la plataforma sobre municiones y leyes relacionadas con pirotecnia en Arizona. El sheriff Kevin McMahill describió este caso como un hecho sin precedentes en el uso de inteligencia artificial para actos violentos.
El ataque ocurrió el miércoles pasado y culminó con la explosión de una Tesla Cybertruck. Livelsberger, quien estaba de permiso en Estados Unidos, llenó el vehículo con material pirotécnico y perdigones antes de detonar la carga.
El perfil y las motivaciones del atacante
Livelsberger dejó notas explicando sus motivaciones, describiendo el acto como un “llamado de atención” a la nación. En estos documentos, expresó su pesar por los compañeros caídos y los conflictos internos que enfrentaba.
El FBI y otras agencias investigan los escritos y un manifiesto de seis páginas hallado en su teléfono. Según The Guardian, el soldado criticaba la situación política en Estados Unidos y apoyaba a figuras como Donald Trump y Elon Musk.
A pesar de la violencia del ataque, Livelsberger no buscaba víctimas. Sus notas subrayaron que no deseaba ser visto como un terrorista.
Un uso alarmante de la tecnología
La utilización de ChatGPT para planear este acto ha generado preocupación en las autoridades. Esta herramienta de inteligencia artificial, lanzada en 2022, permite generar contenido basado en lenguaje natural, pero también plantea riesgos por su potencial mal uso.
El sheriff McMahill indicó que se están compartiendo detalles del caso con otras agencias para prevenir futuros ataques similares. Hasta el momento, OpenAI, desarrolladora de ChatGPT, no ha emitido comentarios sobre el incidente.
El caso Livelsberger no solo pone en evidencia los desafíos éticos de la inteligencia artificial, sino también la necesidad de reforzar medidas para evitar su explotación en actos violentos.
* Con información extraída de InfoBae