Ir al contenido principal

Informática: FraudeGPT, la réplica malintencionada de ChatGPT que se emplea en actividades delictivas en la Deep Web.

 



La inteligencia artificial generativa se puede emplear para crear estafas altamente elaboradas.

Ciberdelincuentes actualmente se enorgullecen de utilizar las amplias capacidades de la inteligencia artificial generativa para desarrollar modelos con habilidades similares a las de ChatGPT y Bard de Google, pero especializados en actividades ilegales, como suplantar a un banco o presentar sitios web propensos a fraudes.

FraudGPT y WormGPT son ejemplos de estos nuevos sistemas maliciosos que están surgiendo en la Deep Web. Según la plataforma de análisis de datos Netenrich, estos sistemas posibilitan la creación de correos electrónicos fraudulentos, la ejecución de ataques de phishing altamente persuasivos y la potencial generación de deepfakes y campañas de desinformación.

De hecho, el primer chatbot se considera por algunos como el "gemelo malévolo de ChatGPT". Este servicio no es gratuito, con dos tipos de planes: uno mensual por 100 dólares y otro privado que cuesta 500 dólares.

Un cambio significativo en la ciberdelincuencia

La aparición de estas herramientas representa un cambio sustancial en la ciberdelincuencia, evidenciando que su uso se está perfeccionando y segmentando cada vez más. Los expertos advierten sobre el potencial desarrollo de malware más sofisticado gracias a la ayuda de la IA generativa.

Esta tecnología facilita a los atacantes la generación de correos maliciosos en varios idiomas sin los errores típicos que solían permitir su fácil detección en el pasado.

Para los expertos, estas herramientas delictivas pueden convertirse en un serio problema en el futuro, ya que los delincuentes con conocimientos técnicos limitados pueden preparar campañas maliciosas de todo tipo con una probabilidad considerable de éxito.

Nuevas formas de delincuencia

La empresa de seguridad cibernética Proofpoint ha identificado un aumento en el uso de inteligencia artificial para realizar estafas avanzadas, como la conocida "pig butchering" o "carnicería de cerdos", donde los estafadores ganan la confianza de sus víctimas antes de despojarlas de sus activos.

Esta técnica ha evolucionado y ahora también utiliza deepfakes, videos y audios manipulados, afectando principalmente a funcionarios gubernamentales, empresarios y celebridades, especialmente aquellas relacionadas con las inversiones en criptomonedas.

Los investigadores han observado cómo los atacantes del grupo delictivo cibernético TA499 recurren a videollamadas falsificadas mediante IA para suplantar a políticos y otras figuras públicas.

De los deepfakes a la creación de armas

Además de las implicaciones en ciberseguridad, preocupa a expertos en derecho y ética digital el abuso de la inteligencia artificial en la creación de contenido engañoso y material sensible, como la pornografía no consentida.

Estas técnicas de IA también se han utilizado con fines de manipulación política y social, como la creación de imágenes falsas de inmigrantes para influir en la opinión pública y en los resultados electorales.

Además, existe el riesgo de que la IA contribuya a la creación de armas bioquímicas y se infiltre en el software de infraestructuras críticas.

Mientras tanto, las regulaciones existentes no logran abordar eficazmente el espectro de amenazas que surgen con la inteligencia artificial generativa.

Recomendaciones

La educación y concienciación de los usuarios se mencionan como elementos clave para prevenir los riesgos de estas herramientas maliciosas, aunque también se reconocen como necesarias medidas regulatorias y soluciones tecnológicas.

En respuesta a los peligros emergentes, se sugiere la formación de equipos independientes para evaluar herramientas de este tipo contra abusos de IA y la posible prohibición de ciertos modelos de código abierto.

Sin embargo, el desafío para prevenir los daños causados por FraudGPT y herramientas similares radica en encontrar un equilibrio entre los objetivos éticos de la inteligencia artificial y la implementación práctica de medidas de seguridad y regulación.

Fuentes: // Yahoo! Noticias // Imagen de Google // Jimmy Pepinosa //




Comentarios

Entradas más populares de este blog

EL GATO SIN OJOS - Psicosis

Mas Conectados www.facebook.com/frassesnett www.twitter.com/frassesnett www.jumarilla.blogspot.com www.frassesnett.blogspot.com   www.turistaenargento.blogspot.com www.ligaargentinaysud.blogspot.com

Inversión: 6 grandes favoritas: Comentarios de Nike “reavivan” tesis de compra.

Las principales selecciones de analistas de las que puede haberse perdido desde ayer: Nike y Lululemon Athletica, y mejoras de HP, monday.com, Hess y DigitalOcean. Nike comenzó con una calificación de “Outperform” por Evercore ISI Evercore ISI inició la cobertura de Nike (NYSE:NKE) con una calificación de “Outperform” y un precio objetivo de 124.00 dólares. Los analistas sugieren que, a pesar de la fuerte demanda de productos Nike, la mayor oportunidad a corto plazo para aumentar los beneficios por acción reside en la recuperación de los 350 puntos base de los costos transitorios posteriores al COVID. A largo plazo, los analistas son bastante optimistas sobre la base de las observaciones formuladas en el primer trimestre, que indican que Nike está aplicando activamente estrategias para mejorar sustancialmente su cadena de suministro, almacenamiento y costes de cumplimiento. Los analistas creen que estas iniciativas refuerzan la tesis de que Nike se encuentra en la trayectoria de aument

Tecnología: No solo han muerto los discos duros, también los SSD.....

  👆👇 Mira 👉 Acá Fuentes: // Yahoo Noticias // Foto Archivo // Taringa, mabgia // Mas Conectados        www.facebook.com/jumarilla www.twitter.com/jumarilla instagram.com/amarillajuanm/