ChatGPT se ha convertido en una herramienta popular a nivel global, utilizada para redactar correos, programar, crear imágenes, automatizar tareas y responder preguntas. Sin embargo, un informe reciente de OpenAI advierte que, además de sus usos legítimos, la plataforma también ha sido empleada para impulsar campañas maliciosas, generar contenido sesgado y monitorizar conversaciones en redes sociales.
Desde febrero de 2024, OpenAI ha interrumpido la actividad de 40 redes que infringieron los términos de uso de ChatGPT. Según la compañía dirigida por Sam Altman, estas redes, localizadas en países como China, Rusia, Corea y Camboya, utilizaron el chatbot para desplegar ciberataques, estafas y operaciones de influencia encubiertas.
Cómo los ciberdelincuentes usan ChatGPT para cometer delitos
En Corea, los ciberdelincuentes desarrollaron malware y una infraestructura de comando y control mediante el uso de inteligencia artificial. Mientras tanto, una red con operaciones en Camboya, Birmania y Nigeria intentó emplear el chatbot para ejecutar campañas fraudulentas dirigidas a engañar a personas.
El informe de OpenAI también señala que en regímenes autoritarios se ha recurrido a ChatGPT para crear herramientas destinadas a la monitorización masiva de redes sociales. Además, los modelos de OpenAI han sido utilizados para generar contenido en plataformas como YouTube y TikTok, con el objetivo de difundir desinformación y manipular la opinión pública mediante información sesgada.
Phishing y malvertising: Los peligros más comunes
Los expertos en ciberseguridad destacan que los peligros más relevantes asociados al uso inadecuado de ChatGPT son el phishing y el malvertising. El phishing consiste en el envío de mensajes diseñados para engañar a los usuarios y obtener datos confidenciales, mientras que el malvertising hace referencia a anuncios falsos que redirigen a sitios web maliciosos.
A pesar de estos riesgos, OpenAI subraya que su chatbot se emplea con mayor frecuencia para identificar estafas que para cometerlas. Según datos de la compañía, ChatGPT se utiliza para identificar timos hasta tres veces más que para estafas.
Cómo ChatGPT ayuda a identificar estafas
Al copiar textos dudosos en ChatGPT, los usuarios pueden recibir una evaluación sobre la autenticidad de correos, anuncios o comunicaciones que podrían esconder intentos de phishing, suplantación de identidad o propuestas fraudulentas. El modelo puede destacar señales de alerta como errores de redacción, solicitudes inusuales de datos personales o enlaces a sitios no verificados.
Esta capacidad facilita la identificación rápida de riesgos, sobre todo para personas sin conocimientos avanzados de ciberseguridad. Además, la inteligencia artificial permite automatizar la revisión de grandes volúmenes de mensajes en empresas, ayudando a los equipos de seguridad informática a identificar patrones sospechosos.
Precauciones al usar inteligencia artificial en la vida cotidiana
El uso de herramientas de inteligencia artificial demanda una evaluación crítica constante por parte de los usuarios. Aunque ChatGPT puede ayudar a detectar estafas digitales, su análisis no es infalible y puede cometer errores tanto en la identificación de amenazas como en la interpretación de mensajes legítimos.
Los expertos sugieren no tomar decisiones basadas únicamente en el resultado que ofrece el chatbot, sino contrastar la información con fuentes confiables y emplear software de ciberseguridad actualizado. Además, es importante no compartir datos personales sensibles, contraseñas o información financiera a través de sistemas automatizados, ya que existe el riesgo de que estos datos sean interceptados o empleados por atacantes si la plataforma sufre vulneraciones.