Informática: Google diseñó el generador de imágenes de Gemini con la intención de ser inclusivo, pero ha excedido los límites.
En los últimos días, los modelos de inteligencia artificial han estado mostrando sus limitaciones. ChatGPT, por ejemplo, generó textos confusos el martes pasado, y Google Gemini, que tiene la capacidad de generar imágenes, también ha cometido errores notables en su diseño.
Varios usuarios compartieron imágenes generadas por Gemini esta semana, en las que el modelo se mostraba excesivamente inclusivo o cometía errores al representar diferentes épocas históricas. Por ejemplo, mostró soldados negros y orientales en la época nazi, o mujeres vestidas con indumentaria de esa época.
En otro caso, un usuario solicitó imágenes de una pareja en la Alemania de 1820, y nuevamente las imágenes resultantes fueron sorprendentes al incluir personas negras, orientales e incluso indias (tanto de la India asiática como de los indios americanos).
Estos ejemplos también afectaron a otras creaciones, como retratos de físicos famosos del siglo XVI o imágenes de un Papa.
Ayer por la tarde, Google reconoció el problema con estas imágenes y declaró que “Gemini está generando inexactitudes en algunas representaciones históricas de generación de imágenes”. Aseguraron que están trabajando para corregir este problema.
Como mencionaron en su comunicado, la herramienta de Gemini normalmente genera una amplia variedad de personas, lo cual es positivo, pero en este caso, ha cometido errores notables.
Los responsables de Google han reconocido el problema y han tomado la decisión de “pausar la generación de imágenes de personas y lanzar una versión mejorada próximamente”. Es cierto que en estos momentos, Gemini no permite crear imágenes ni con IP de España ni utilizando una VPN para establecer una IP en Estados Unidos.
Este problema pone de manifiesto la dificultad de entrenar estos modelos para que se comporten de manera precisa en cualquier situación. No es la primera vez que enfrentamos una polémica de este tipo. En 2015, el sistema de reconocimiento facial de Google Fotos etiquetó a los amigos negros de un usuario como gorilas, lo que generó críticas hacia la compañía.
Facebook también se encontró en una situación similar en septiembre de 2016. La red social censuró una de las fotos más icónicas de la historia, “The Terror of War” de Nick Ut, y tapó a la niña desnuda protagonista de la foto, considerando que esto violaba su política tradicional contra desnudos infantiles.
En ambos casos, los algoritmos demostraron tener sesgos, ya que reflejaban los prejuicios de sus creadores. Ahora, el problema de Google ha sido el opuesto: su generador de imágenes intentó ser inclusivo, pero se excedió y provocó una controversia similar .
Fuentes: // Xataka // Imagen de Google // Pastor Javier //
Comentarios
Publicar un comentario