Una investigación de Check Point revela cómo se están saltando las restricciones que OpenAI ha implementado en su inteligencia artificial
Sucedió en las primeras semanas de vida pública de ChatGPT y ahora se está repitiendo. Una investigación de la firma de ciberseguridad Check Point explica cómo los hackers han encontrado una forma de sortear las restricciones que OpenAI ha implementado en su popular inteligencia artificial conversacional para evitar que genere contenido potencialmente ilegal o dañino. Y no les ha resultado nada complicado, según recoge el medio Ars Technica.
“Durante diciembre/enero, todavía era fácil usar la interfaz de usuario web de ChatGPT para generar malware y correos electrónicos de phishing”, explica el equipo de Check Point Research. “Recientemente, los mecanismos anti-abuso en ChatGPT mejoraron significativamente, por lo que ahora los ciberdelincuentes cambiaron a su API que tiene muchas menos restricciones”, añade.
Esta API, Application Programming Interface o Interfaz de programación de aplicaciones, es un software con el que OpenAI facilita a los desarrolladores integrar la tecnología de OpenAI con sus aplicaciones.
De esta forma, un tercero puede usar un modelo de lenguaje de la compañía bajo su propia interfaz. Un ejemplo sería la app de aprendizaje de idiomas Duolingo que usa la API de OpenAI para proporcionar correcciones gramaticales a sus usuarios.
Los ciberdelincuentes han encontrado que esos “mecanismos anti-abuso” que OpenAI ha implementado en la web de ChatGPT no están presentes de la misma manera en la API y que esta versión no restringe la creación de contenido malicioso.
“La versión actual de la API de OpenAI es utilizada por aplicaciones externas (por ejemplo, la integración del modelo GPT-3 de OpenAI con canales de Telegram) y tiene muy pocas o ninguna medida contra el abuso”, señala Check Point Research. “Como resultado, permite la creación de contenido malicioso como correos electrónicos de phishing y código de malware, sin las limitaciones o barreras que ChatGPT ha establecido en su interfaz de usuario”, concluye.
En un foro de actividades cibercriminales, los investigadores encontraron anuncios de hackers que la empleaban para vender servicios ilícitos. Por ejemplo, un usuario vende uno que combina la API de OpenAI con Telegram. En la práctica, es como tener a ChatGPT en la aplicación de mensajería e interactuar con ella como si fuera un contacto más.
Los investigadores le pidieron que escribiera un correo electrónico de phishing suplantando a una entidad bancaria y un script con la capacidad robar documentos PDF en un equipo infectado, encargos que resolvió sin poner ninguna pega, al contrario de lo que habría sucedido con la versión web. Este usuario regala las primeras 20 interacciones con la API y cobra 5,50 dólares por cada paquete de 100.
No es el único caso detectado por Check Point Research. Otro usuario publicó un script básico que usa la API de OpenAI para sortear las restricciones anti-abuso. “Sí, puedes saltarte la restricción vía beta.openai.com y su API. Aquí tenéis un pequeño script para ayudaros a sortear las restricciones de ChatGPT para que haga lo que queráis, incluyendo desarrollo de malware”, dice su mensaje.
La investigación concluye que “vemos que los ciberdelincuentes continúan explorando cómo utilizar ChatGPT para sus necesidades de desarrollo de malware y creación de correos electrónicos de phishing. A medida que mejoran los controles que ChatGPT implementa, los ciberdelincuentes encuentran nuevas formas abusivas de usar los modelos OpenAI, esta vez abusando de su API.”