La Europol alerta de los peligros del uso que hacen los delincuentes de ChatGPT
El órgano subrayó que, aunque su uso puede resultar beneficioso, también representa un desafío para la aplicación de la ley, ya que los criminales pueden explotar sus usos de forma maliciosa
Desde su lanzamiento a finales del mes de noviembre, la inteligencia artificial ChatGPT se ha convertido en uno de los servicios de Internet que más ha crecido en los últimos meses, superando los 100 millones de usuarios en sus dos primeros meses de vida.
Una tecnología que, gracias a su capacidad de generar textos similares a los escritos por los humanos, puede beneficiar tanto a las empresas como a los usuarios. Sin embargo, la Europol, el órgano encargado de facilitar las operaciones de lucha contra la delincuencia en el seno de la Unión Europea, subrayó que también representa un desafío para la aplicación de la ley, ya que los ciberdelincuentes pueden explotar sus usos de forma maliciosa.
about:blank
«Los delincuentes suelen explotar rápidamente las nuevas tecnologías y ya han sido vistos explotando estos usos criminales, proporcionando los primeros ejemplos prácticos apenas unas semanas después del lanzamiento público de ChatGPT», se puede leer en el primer informe presentado por la entidad el pasado lunes y titulado ‘ChatGPT: el impacto de los modelos de lenguaje extenso en la aplicación de la ley’. Un documento que proporciona una descripción general del posible uso indebido de las tecnologías IA, como ChatGPT, que ofrece una perspectiva de lo que aún puede estar por venir.
Usos maliciosos de ChatGPT
Los expertos identificaron una serie de casos de uso ilegal de ChatGPT que también persisten en el modelo más avanzado de OpenAI, GPT-4, donde el potencial de las respuestas dañinas del sistema es incluso más avanzado.
Como ChatGPT puede generar información de lectura, Europol advierte que dicha tecnología emergente puede acelerar el proceso de investigación de un delincuente sin conocimiento previo de un área delictiva potencial como: allanamiento de morada, terrorismo, ciberdelincuencia o abuso sexual infantil. «Si bien toda la información que proporciona ChatGPT está disponible gratuitamente en Internet, la posibilidad de usar el modelo para proporcionar pasos específicos al hacer preguntas contextuales revela que es significativamente más fácil para los actores malintencionados comprender mejor y, posteriormente, llevar a cabo varios tipos de delitos», expone el informe.
Por otro lado, el phishing, la práctica de enviar un correo electrónico falso para que los usuarios hagan clic en un enlace, es, según Europol, un área de aplicación crucial. En el pasado, estas estafas eran fácilmente detectables debido a errores gramaticales o de idioma. Sin embargo, gracias a la utilización de estas tecnologías, el texto generado por la IA permite estas suplantaciones de forma mucho más realista.
De manera similar ocurre con el fraude en línea, ya que permite la posibilidad de crear una participación falsa en las redes sociales que podría ayudar a pasar como legítima una oferta fraudulenta. En otras palabras, gracias a estos modelos, «estos tipos de phishing y fraude en línea se pueden crear de forma más rápida, mucho más auténtica y a una escala significativamente mayor».