Patrocinador oficial

ads header

News

La Alfabetización Mediática y las Imágenes Creadas por Inteligencia Artificial

 



 

Por Eduardo Portas

Director de Hitpoint.mx, portal especializado en cultura digital y temas de interés juvenil

En X: @EduPortas

 

 

De manera orgánica, las personas que usan con frecuencia servicios de creación de imágenes artificiales han logrado lo que parecía imposible: a partir de su insistencia creativa obligaron a los usuarios de internet a comenzar a dudar de lo que consumen en sus pantallas. Estas imágenes son detectadas, y, en el mejor de los casos, denunciadas claramente como falsas. Lo mismo pasa con los videos artificiales. Este es un ejemplo clásico de alfabetización mediática desde la base, de abajo hacia arriba, en donde el colectivo descentraizado aporta un beneficio a todos los usuarios de la red.

 

El uso de imágenes creadas artificialmente mediante programas de inteligencia artificial tuvo una explosión masiva en 2022. En ese año, diversas compañías, incluyendo la propia OpenAI, lanzaron sistemas de fácil acceso para que cualquier persona pudiera crear imágenes a partir de breves textos.

 

Los prompts más simples crearon imágenes que a primera vista parecían lo suficientemente reales como para creer que en tan solo unos años las personas tendrían dificultad para diferenciar entre aquello que era una imagen creada artificialmente y una auténtica.

 

Ahora el entormo ha cambiado. La ecología digital, la cual busca constatemente aprovecharse de los recursos gratuitos de los usuarios para hacer avanzar sus ideas, está en franco proceso de transformación tras ser aliementado por millones de órdenes de los usuarios.

 

El medio de las imágenes creadas con AI, entonces, ha sido sobrecalentado. Ha llegado al punto en donde las personas buscan lo opuesto frente a la saturación de lo artificial.

 

Apenas unos años después seguimos en ese lugar que los expertos llaman “uncanny valley”. Es decir, un espacio mental que los seres humanos creamos para identificar aquellas imágenes que parecen reales a primera vista, pero son detectadas como artificiales una vez que nuestra cognición las analiza aunque sea por tan solo unos segundos.

 

Diversos centros especializados como el Alan Turing Institute y el Institute for Strategic Dialogue, ambos del Reino Unido, así como el News Literacy Project en Estados Unidos, publicaron hace poco que la enorme mayoría de las personas pudo identificar claramente aquellas imágenes o videos de sus políticos que fueron creadas con inteligencia artificial.

 

Previamente, buena parte de los expertos en este tema habían afirmado que estos deepfakes jugarían un papel determinante en las elecciones de Estados Unidos y de diversos países de Europa que tuvieron importantes procesos electorales durante el último año.

 

El voto, dijeron, sería sesgado por las imágenes y videos de sus candidatos en situaciones falsas.

 

La realidad es que eso no pasó, salvo en muy contados casos, de acuerdo con un resumen del diario Financial Times.

Además de sus propios filtros cognitivos, los votantes contaron con una diversidad de herramientas para derrumbar la intención maliciosa en más del 90% de todas las miles de imágenes y videos producidos y circulados en las redes gracias a los bloqueos automáticos de los sistemas de AI, los comentarios de los usuarios de redes, así como la creciente obligación de prácticamente todas las plataformas para forzar a sus usuarios a declarar si en la creación de su contenido se usó algún tipo de AI.

 

Algunos estados como California, por si fuera poco, avanzaron desde el 2022 entramados legales para frenar y castigar la propagación de estas imágenes. Ciertos países, como México, dedican prepuesto público para frenar cualquier información creada artificialmente que consideren negativa y tiene el potencial de convertirse en una infodemia.

 

En síntesis: a pesar de que se crearon cientos de miles de imágenes y videos con fines políticos maliciosos en los últimos meses, estos no tuvieron el impacto necesario para influir en la dirección del voto de esos países.

 

Se puede afirmar, sin tener datos precisos, que en México pasó algo similar. Las imágenes y videos perjudiciales no tuvieron impacto en la decisión final de los votantes.

 

La estética catapultada por imágenes artificiales en 2022, se puede afirmar, ha quedado rebasada. Ya sea por razones prácticas o simple repetición, su uso se ha agotado. Lo mismo con los videos y los poco naturales movimientos que presentan a los juiciosos cibernautas.

 

Dicho eso, si bien nuestra cognición cuenta con los recursos suficientes para detectar, por lo pronto, imágenes y videos que considera falsos, existe un campo en donde no es tan bueno. Hablamos del audio, el cual ha resultado mucho más complicado de descifrar cuando se trata de grabaciones consideradas falsas. Este reto aumenta considerablemente cuando se añade video editado correctamente.

 

En el campo auditivo el uso malicioso de AI ha sido mucho más prolífico, empezando por las estafas bancarias y de falsos rescates a partir de llamadas en donde las voces de personas reales fueron clonadas.

 

Aquí la mente es mucho más fácil de convencer, ya sea porque no tiene el apoyo visual necesario o porque su estructura está hecha para detectar como cierto algo que suena a verídico.

 

Estos programas, sin embargo, siguen siendo relativamente poco conocidos y requieren un uso mucho más preciso que aquellos dedicados a la imagen.

 

Ningún experto creyó que el audio, y no la imagen o el video, serían el “coco” de nuestra lucha para usar la inteligencia artificial de manera ética. O citando a McLuhan, el oído no favorece un punto de vista en particular. O traducido para los neófitos: cuando se trata de audio el ser humano llena los espacios vacíos y de carencia informativa con sus propios sesgos.

 

 

No hay comentarios

Gracias por tu mensaje, en breve te respondemos