Google ha lanzado su nueva actualización 1.5 para su plataforma Gemini AI, que permite a los usuarios hacer preguntas. Desafortunadamente, la actualización incorpora la ideología marxista de «diversidad, igualdad e inclusión», una doctrina que busca imponer uniformidad de pensamiento bajo el pretexto de promover las diferencias.
Los usuarios han notado rápidamente que la IA de Gemini está obsesionada con el color de la piel, el sexo/género y la sexualidad. También evita representar a personas blancas, particularmente a hombres blancos. El blog Not The Bee hizo un desglose completo de todos los ejemplos y comparó los resultados con el generador de imágenes de Gab AI.
Por qué se activa la IA de imágenes de Google y cómo funciona
Cuando envía un mensaje de imagen a Gemini, Google toma el mensaje y lo ejecuta a través de su modelo de idioma en el backend antes de enviarlo al modelo de imagen.
El modelo de lenguaje tiene un conjunto de reglas en las que se le indica específicamente que edite el mensaje que proporciona para incluir diversidad y varias otras cosas que Google quiere insertar en su mensaje.
El modelo de lenguaje toma su mensaje, lo ejecuta a través de este conjunto de reglas y luego envía el mensaje de activación recién generado (al que no puede acceder ni ver) al generador de imágenes.
Si se dejara solo sin este proceso, el modelo de imagen generaría los resultados esperados para estas indicaciones. Google tiene que literalmente poner palabras en su boca cambiando en secreto su mensaje antes de enviarlo al generador de imágenes.
¿Cómo sabemos esto? Porque hemos creado nuestra propia IA de imágenes en Gab y entendemos muy bien cómo funciona esta tecnología. A diferencia de Google, no tomamos sus sugerencias ni le inyectamos diversidad. Ah, y también sabe cómo atraer a los blancos. ¡Pruébalo tú mismo haciendo clic a continuación y asegúrate de contárselo a un amigo!