IA de Elon Musk está generando imágenes realistas y falsas de Trump, Harris y Biden

El chatbot de inteligencia artificial de Elon Musk, Grok, comenzó el martes a permitir que los usuarios creen imágenes a partir de mensajes de texto y las publicen en X.

Al poco tiempo, los usuarios comenzaron a emplear la herramienta para llenar la red social con fotos falsas de personajes públicos, incluyendo a Musk, la vicepresidenta Kamala Harris y el expresidente Donald Trump. Algunas de estas imágenes mostraban a personajes públicos en situaciones inquietantes, como su implicación en los atentados del 11-S.

La herramienta fotográfica de inteligencia artificial Grok, desarrollada por la empresa de inteligencia artificial de Musk, xAI, parece no tener restricciones.

Por ejemplo, CNN logró fácilmente que Grok creara imágenes fotorrealistas y falsas de políticos y candidatos que, si se sacaban de contexto, podrían llevar a los votantes a equivocarse. Además, la herramienta generó imágenes convincentes pero benignas de personajes públicos, como Musk comiendo un filete en un parque.

Algunos usuarios de X publicaron imágenes que decían haber creado con Grok en las que aparecían figuras prominentes consumiendo drogas, personajes de dibujos animados cometiendo asesinatos violentos e imágenes sexualizadas de mujeres en bikini. En un post visto casi 400.000 veces, un usuario compartió una imagen creada por Grok de Trump asomado desde lo alto de un camión, disparando un rifle. Las pruebas de CNN confirmaron que la herramienta es capaz de crear ese tipo de imágenes.

Preocupaciones

La preocupación de que la inteligencia artificial pueda generar una explosión de información falsa o engañosa en Internet, en particular con respecto a las elecciones presidenciales de Estados Unidos, podría aumentar con esta herramienta. El uso incorrecto de estas herramientas podría generar confusión y caos entre los votantes, según han advertido legisladores, organizaciones de la sociedad civil e incluso líderes tecnológicos.

«¡Grok es la IA más divertida del mundo!», publicó Musk en X el miércoles, en respuesta a un usuario que elogiaba la herramienta por ser «sin censura».

Los investigadores descubrieron que los usuarios todavía pueden encontrar formas de eludir las regulaciones de aplicación, pero muchas otras compañías líderes en IA han tomado algunas medidas para evitar que sus herramientas de generación de imágenes de IA se utilicen para producir desinformación política. Para ayudar a los espectadores a distinguir las imágenes creadas con sus herramientas de IA, algunas compañías, como OpenAI, Meta y Microsoft, también incorporan tecnología o etiquetas.

Además, las plataformas de redes sociales rivales, como YouTube, TikTok, Instagram y Facebook, han adoptado medidas para etiquetar el contenido creado por la inteligencia artificial en los feeds de los usuarios; lo hacen mediante el uso de tecnología para detectarlo ellos mismos o solicitando a los usuarios que reconozcan cuándo lo están publicando.

X no respondió de inmediato a una solicitud de comentarios sobre si tiene alguna política contra Grok que pueda dar una imagen de candidatos políticos potencialmente engañosa.

¿Cuáles son los riesgos?

La política de la plataforma de redes sociales prohíbe el intercambio de «medios sintéticos, manipulados o fuera de contexto que puedan engañar o confundir a las personas y causar daño», aunque no está claro cómo se aplica. El mes pasado, Musk publicó en X un video que empleaba IA para dar la impresión de que Harris había dicho cosas que en realidad no había dicho, con un emoji de una cara riendo para sugerir a los seguidores que era falso.

La nueva herramienta de imágenes Grok llega cuando Musk enfrenta críticas por difundir afirmaciones falsas y engañosas en X sobre las elecciones presidenciales, incluyendo dudas sobre la seguridad de las máquinas de votación. Esto ocurre días después de que Musk recibiera a Trump en una conversación en la que el aspirante republicano hizo al menos 20 afirmaciones falsas sin que Musk se opusiera.

Otras herramientas de generación de imágenes por IA han sufrido reacciones negativas por diversos motivos. Google, Meta y TikTok han enfrentado críticas por problemas con la representación racial, la creación de desinformación y la falta de transparencia en sus herramientas de IA.

Grok parece tener algunas restricciones; por ejemplo, una solicitud de una imagen desnuda devolvió una respuesta diciendo: «desafortunadamente, no puedo generar ese tipo de imagen».

La herramienta también tiene «limitaciones en la creación de contenidos que promuevan o puedan ser considerados como apoyo a estereotipos dañinos, discursos de odio o desinformación» en una prueba independiente.

«Es importante evitar difundir falsedades o contenidos que puedan incitar al odio o la división. Si tienes otras peticiones o necesitas información sobre un tema diferente, no dudes en preguntar», dijo Grok.

No obstante, en respuesta a una solicitud adicional, la herramienta generó una representación de un personaje político junto a un símbolo de incitación al odio, lo cual indica que las limitaciones de Grok no parecen ser aplicadas de manera sistemática.

Te puede interesar: