Noticias

ChatGPT y su papel como herramienta y amenaza en ciberseguridad

By 30/03/2023 No Comments

ChatGPT es un modelo de lenguaje desarrollado por OpenAI que ha revolucionado la forma en que las personas interactúan con las máquinas. Esta tecnología de inteligencia artificial (IA) es capaz de generar respuestas coherentes a preguntas formuladas en lenguaje natural, lo que la convierte en una herramienta valiosa para múltiples aplicaciones. Sin embargo también plantea

ChatGPT es un modelo de lenguaje desarrollado por OpenAI que ha revolucionado la forma en que las personas interactúan con las máquinas. Esta tecnología de inteligencia artificial (IA) es capaz de generar respuestas coherentes a preguntas formuladas en lenguaje natural, lo que la convierte en una herramienta valiosa para múltiples aplicaciones. Sin embargo también plantea desafíos en cuanto a la seguridad de la información.

Por un lado ChatGPT ofrece grandes oportunidades en el campo de la ciberseguridad. Gracias a su capacidad para procesar grandes cantidades de información en tiempo real se puede utilizar para identificar patrones y anomalías en los sistemas de seguridad, lo que permite una detección temprana de amenazas y una respuesta más rápida y efectiva.

Por ejemplo, ChatGPT puede ser utilizado para monitorear y analizar el tráfico de red en busca de comportamientos sospechosos, lo que permite a los expertos en seguridad detectar y neutralizar amenazas antes de que causen daño. También puede ser utilizado para realizar análisis de vulnerabilidades en sistemas y aplicaciones, lo que permite a los equipos de seguridad corregir problemas antes de que sean explotados por atacantes.

Riesgos mediante engaño

Sin embargo,el uso de ChatGPT en seguridad también presenta ciertos riesgos. Uno de los mayores desafíos es la capacidad de los atacantes para utilizar esta tecnología para llevar a cabo ataques de ingeniería social más efectivos. Al igual que los humanos ChatGPT es capaz de comprender y responder a los mensajes escritos en lenguaje natural, lo que significa que los atacantes pueden utilizarlo para generar mensajes convincentes y engañosos que parezcan haber sido escritos por un ser humano.

Por ejemplo un atacante podría utilizar ChatGPT para crear un correo electrónico de phishing que parezca haber sido escrito por un compañero de trabajo o un amigo, lo que aumenta la probabilidad de que la víctima abra un archivo adjunto malicioso o haga clic en un enlace peligroso. Además los atacantes pueden utilizar ChatGPT para crear chatbots maliciosos que parezcan ser reales y utilizados para interactuar con usuarios en sitios web o redes sociales, lo que puede llevar a la revelación de información confidencial o el robo de credenciales de inicio de sesión.

Otro desafío es la capacidad de ChatGPT para generar información falsa y desinformación a gran escala. Al igual que con cualquier tecnología de IA, la calidad de las respuestas generadas por ChatGPT depende en gran medida de la calidad y cantidad de los datos utilizados para entrenar al modelo. Si los datos utilizados están sesgados o son inexactos, esto puede llevar a que el modelo genere respuestas que contengan información errónea o engañosa.

Por lo tanto, los equipos de seguridad deben tener en cuenta estos riesgos al utilizar ChatGPT en su estrategia de ciberseguridad. Es importante que los profesionales de seguridad comprendan cómo los atacantes pueden utilizar esta tecnología para llevar a cabo ataques de ingeniería social más efectivos y cómo pueden detectar y mitigar estos ataques.

 

Riesgos pero también oportunidades

El Insight & Trends Center de Prosegur Research ha analizado las implicaciones de ChatGPT en materia de seguridad, identificando los principales riesgos y oportunidadesderivados de su aplicación en distintos ámbitos. Así los riesgos serían los siguientes:

  • Polarización social al generarse contenidos multimedia para difundir mensajes de odio y de carácter radical o extremista.
  • Phishing al generar de manera automatizada emails de apariencia real con gran calidad.
  • Desinformación mediante la generación de noticias falsas para influir en la opinión pública.
  • Doxing a través de la desinformación susceptible de afectar a empresas y organizaciones a través de la difusión de bulos o la creación de falsos perfiles laborales.
  • Fuga de información y robo de datos al compartir datos sobre la empresa en ChatGPT.
  • Fraudes y estafas con una mayor calidad.
  • Generación de chatbots maliciosos con objetivos delictivos.
  • Suplantaciones de identidad mediante deep fakes de imágenes y voz.
  • Generación de códigos maliciosos tales como virus, troyanos, malware, ransomware o spyware.
  • Lucha de poder geopolítico y geoeconómico por la utilización de esta tecnología en enfrentamientos entre gobiernos.

En cuanto a las oportunidades, serían estas:

  • Automatización de tareas rutinarias en funciones de seguridad.
  • Generación de chatbots más amigables, con perfiles más amables y humanos.
  • Acceso a ingentes cantidades de información de interés para la seguridad.
  • Análisis de riesgos.
  • Reconocimiento de patrones.
  • Análisis de inteligencia capaz de identificar tendencias y adelantar escenarios en seguridad.
  • Estructuración de recomendaciones en cuestiones de seguridad.
  • Analítica predictiva, avanzando probabilidades asociadas en base a la gran cantidad de datos suministrados.
  • Mejora de la ciberdefensa en áreas como la detección de phishing, pruebas de funcionamiento de código, identificación de vulnerabilidades, generación de contraseñas seguras…

Fuente: https://www.silicon.es/chatgpt-y-su-papel-como-herramienta-y-amenaza-en-ciberseguridad-2475490