Desde que se lanzó ChatGPT son muchas las bondades que se han resaltado de esta plataforma, que ha venido a revolucionar la tecnología.
Sin embargo, también es importante conocer cúal es la vulnerabilidad de este proceso de inteligencia artificial (IA).
Es por ello que la Agencia de la Unión Europea para la Cooperación Policial (Europol) alertó sobre la vulnerabilidad del ChatGPT.
En un documento titulado: “ChatGPT: el impacto de los modelos de lenguaje amplio en la aplicación de la ley”, se detallan estos riesgos.
Se enfoca específicamente en el riesgo de los sistemas basados en IA, que los delincuentes pueden utilizar para beneficio propio.
«A medida que se mejoran activamente las capacidades de los grandes modelos lingüísticos, como ChatGPT, la posible explotación de este tipo de sistemas de IA por parte de los delincuentes ofrece un panorama sombrío», dice el documento.
¿Qué pasaría si ChatGPT es usado por delincuentes?
Los expertos identificaron una serie de casos de uso ilegal de ChatGPT que también persisten en el modelo más avanzado de OpenAI, GPT-4.
En estos casos el potencial de las respuestas dañinas del sistema es incluso más avanzado, refiere dplnews.
También está el phishing, la práctica de enviar un correo electrónico falso para que los usuarios hagan clic en un enlace.
Según Europol, es esta un área de aplicación crucial, ya que en el pasado, estas estafas eran fácilmente detectables por la forma de los textos.
Asimismo, la capacidad de la IA para suplantar el estilo y el discurso de personas específicas puede dar lugar a varios casos de abuso en cuanto a suplantación, propaganda, incitación al odio y desinformación.
Otro riesgo es que estos grandes modelos de lenguaje puedan estar disponibles en la dark web sin ninguna protección y ser utilizados con datos particularmente dañinos.
El tipo de datos que alimentarán estos sistemas y cómo podrían ser vigilados son importantes interrogantes para el futuro, señala en el informe.