Se llama WormGPT y es el nuevo arma de la Dark Web para realizar ciberataques

Estimated read time 3 min read
Tiempo de lectura estimado: 2 Minutos

Algunos maleantes digitales comienzan a darse cuenta de la utilidad de la inteligencia artificial para sus cibercrímenes.

Imagen creada mediante IA que representa a un cibercriminal utilizando una nueva herramienta para defraudar.

La nueva era de herramientas de inteligencia artificial nos demuestra lo que la tecnología es capaz de hacer en pleno 2023. No sólo hablamos de generadores de imágenes como Midjourney, por ejemplo, o de chatbots como ChatGPT, sino que también empezamos a vislumbrar un futuro en el que las estafas y los fraudes online sean una mezcla del ingenio de habilidosos hackers y de la eficacia de la IA.

Nueva herramienta para el mal online: WormGPT

Bajo este curioso nombre, que podría traducirse como GusanoGPT, nos encontramos con un módulo de inteligencia artificial que se asienta sobre las bases de un modelo de lenguaje de gran tamaño denominado GPT-J, que, además es de código abierto.

Este último detalle es fundamental para entender cómo un modelo de lenguaje de código abierto puede ser modificado por hackers con malas intenciones para eliminar ciertas restricciones de los modelos convencionales y así poder, por ejemplo, crear virus y malware con el beneplácito de una tecnología pensada para ayudar al ser humano.

Los ataques de phishing han sido una de las primeras utilidades dadas a esta IA criminal, aunque dadas sus múltiples habilidades, entre las que destacan el soporte de caracteres ilimitados o el formateo de código, parece que solamente estamos ante la antesala de lo que podría estar por venir.

Sin duda alguna, los más modernos chatbots están alucinando a millones de usuarios alrededor del mundo por una causa fundamental: la sencillez de uso de su interfaz. En este caso, imagina si existiese una herramienta similar, pero con la capacidad de causar daño sin ningún tipo de límite. Este es el verdadero peligro de WormGPT.

https://twitter.com/FreeA_H/status/1720684749700640851

Eso sí, existen otros peligros fuera de WormGPT, como la posibilidad de corromper al propio ChatGPT para que realice acciones para las que no debería estar preparado. Y es que algunos hackers estarían utilizando el chatbot de OpenAI para extraer información sensible, generar contenido inapropiado o ejecutar códigos maliciosos.

La defensa contra este tipo de herramientas pasa por que los expertos en ciberseguridad utilicen los modelos de IA en su favor para detectar y contrarrestar este tipo de chatbots maliciosos y a los cibercriminales que utilizan la inteligencia artificial en favor de sus propios intereses. Además, la prevención y detección de cualquier tipo de estafa online debería ser uno de los grandes aspectos a integrar en la formación de cualquier tipo de trabajador.

Fuente: mundodeportivo.com


Radio City Córdoba https://radiocitycba.com.ar

Estamos con vos las 24 horas de forma ininterrumpida, no dudes en consultarnos
Contacto: [email protected]

No te pierdas

Elección del autor

+ There are no comments

Add yours

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.