Informática: FraudeGPT, la réplica malintencionada de ChatGPT que se emplea en actividades delictivas en la Deep Web.
La inteligencia artificial generativa se puede emplear para crear estafas altamente elaboradas.
Ciberdelincuentes actualmente se enorgullecen de utilizar las amplias capacidades de la inteligencia artificial generativa para desarrollar modelos con habilidades similares a las de ChatGPT y Bard de Google, pero especializados en actividades ilegales, como suplantar a un banco o presentar sitios web propensos a fraudes.
FraudGPT y WormGPT son ejemplos de estos nuevos sistemas maliciosos que están surgiendo en la Deep Web. Según la plataforma de análisis de datos Netenrich, estos sistemas posibilitan la creación de correos electrónicos fraudulentos, la ejecución de ataques de phishing altamente persuasivos y la potencial generación de deepfakes y campañas de desinformación.
De hecho, el primer chatbot se considera por algunos como el "gemelo malévolo de ChatGPT". Este servicio no es gratuito, con dos tipos de planes: uno mensual por 100 dólares y otro privado que cuesta 500 dólares.
Un cambio significativo en la ciberdelincuencia
La aparición de estas herramientas representa un cambio sustancial en la ciberdelincuencia, evidenciando que su uso se está perfeccionando y segmentando cada vez más. Los expertos advierten sobre el potencial desarrollo de malware más sofisticado gracias a la ayuda de la IA generativa.
Esta tecnología facilita a los atacantes la generación de correos maliciosos en varios idiomas sin los errores típicos que solían permitir su fácil detección en el pasado.
Para los expertos, estas herramientas delictivas pueden convertirse en un serio problema en el futuro, ya que los delincuentes con conocimientos técnicos limitados pueden preparar campañas maliciosas de todo tipo con una probabilidad considerable de éxito.
Nuevas formas de delincuencia
La empresa de seguridad cibernética Proofpoint ha identificado un aumento en el uso de inteligencia artificial para realizar estafas avanzadas, como la conocida "pig butchering" o "carnicería de cerdos", donde los estafadores ganan la confianza de sus víctimas antes de despojarlas de sus activos.
Esta técnica ha evolucionado y ahora también utiliza deepfakes, videos y audios manipulados, afectando principalmente a funcionarios gubernamentales, empresarios y celebridades, especialmente aquellas relacionadas con las inversiones en criptomonedas.
Los investigadores han observado cómo los atacantes del grupo delictivo cibernético TA499 recurren a videollamadas falsificadas mediante IA para suplantar a políticos y otras figuras públicas.
De los deepfakes a la creación de armas
Además de las implicaciones en ciberseguridad, preocupa a expertos en derecho y ética digital el abuso de la inteligencia artificial en la creación de contenido engañoso y material sensible, como la pornografía no consentida.
Estas técnicas de IA también se han utilizado con fines de manipulación política y social, como la creación de imágenes falsas de inmigrantes para influir en la opinión pública y en los resultados electorales.
Además, existe el riesgo de que la IA contribuya a la creación de armas bioquímicas y se infiltre en el software de infraestructuras críticas.
Mientras tanto, las regulaciones existentes no logran abordar eficazmente el espectro de amenazas que surgen con la inteligencia artificial generativa.
Recomendaciones
La educación y concienciación de los usuarios se mencionan como elementos clave para prevenir los riesgos de estas herramientas maliciosas, aunque también se reconocen como necesarias medidas regulatorias y soluciones tecnológicas.
En respuesta a los peligros emergentes, se sugiere la formación de equipos independientes para evaluar herramientas de este tipo contra abusos de IA y la posible prohibición de ciertos modelos de código abierto.
Sin embargo, el desafío para prevenir los daños causados por FraudGPT y herramientas similares radica en encontrar un equilibrio entre los objetivos éticos de la inteligencia artificial y la implementación práctica de medidas de seguridad y regulación.
Fuentes: // Yahoo! Noticias // Imagen de Google // Jimmy Pepinosa //
Comentarios
Publicar un comentario