La Alfabetización Mediática y las Imágenes Creadas por Inteligencia Artificial
Por Eduardo Portas
Director de
Hitpoint.mx, portal especializado en cultura digital y temas de interés juvenil
En X: @EduPortas
De manera
orgánica, las personas que usan con frecuencia servicios de creación de
imágenes artificiales han logrado lo que parecía imposible: a partir de su
insistencia creativa obligaron a los usuarios de internet a comenzar a dudar de
lo que consumen en sus pantallas. Estas imágenes son detectadas, y, en el mejor
de los casos, denunciadas claramente como falsas. Lo mismo pasa con los videos
artificiales. Este es un ejemplo clásico de alfabetización mediática desde la
base, de abajo hacia arriba, en donde el colectivo descentraizado aporta un beneficio
a todos los usuarios de la red.
El uso de
imágenes creadas artificialmente mediante programas de inteligencia artificial
tuvo una explosión masiva en 2022. En ese año, diversas compañías, incluyendo
la propia OpenAI, lanzaron sistemas de fácil acceso para que cualquier persona
pudiera crear imágenes a partir de breves textos.
Los prompts más
simples crearon imágenes que a primera vista parecían lo suficientemente reales
como para creer que en tan solo unos años las personas tendrían dificultad para
diferenciar entre aquello que era una imagen creada artificialmente y una
auténtica.
Ahora el entormo
ha cambiado. La ecología digital, la cual busca constatemente aprovecharse de
los recursos gratuitos de los usuarios para hacer avanzar sus ideas, está en
franco proceso de transformación tras ser aliementado por millones de órdenes
de los usuarios.
El medio de las
imágenes creadas con AI, entonces, ha sido sobrecalentado. Ha llegado al punto
en donde las personas buscan lo opuesto frente a la saturación de lo
artificial.
Apenas unos años
después seguimos en ese lugar que los expertos llaman “uncanny valley”. Es
decir, un espacio mental que los seres humanos creamos para identificar
aquellas imágenes que parecen reales a primera vista, pero son detectadas como
artificiales una vez que nuestra cognición las analiza aunque sea por tan solo
unos segundos.
Diversos centros
especializados como el Alan Turing Institute y el Institute for Strategic
Dialogue, ambos del Reino Unido, así como el News Literacy Project en Estados
Unidos, publicaron hace poco que la enorme mayoría de las personas pudo
identificar claramente aquellas imágenes o videos de sus políticos que fueron
creadas con inteligencia artificial.
Previamente,
buena parte de los expertos en este tema habían afirmado que estos deepfakes
jugarían un papel determinante en las elecciones de Estados Unidos y de
diversos países de Europa que tuvieron importantes procesos electorales durante
el último año.
El voto, dijeron,
sería sesgado por las imágenes y videos de sus candidatos en situaciones
falsas.
La realidad es
que eso no pasó, salvo en muy contados casos, de acuerdo con un resumen del
diario Financial Times.
Además de sus
propios filtros cognitivos, los votantes contaron con una diversidad de herramientas
para derrumbar la intención maliciosa en más del 90% de todas las miles de
imágenes y videos producidos y circulados en las redes gracias a los bloqueos
automáticos de los sistemas de AI, los comentarios de los usuarios de redes,
así como la creciente obligación de prácticamente todas las plataformas para
forzar a sus usuarios a declarar si en la creación de su contenido se usó algún
tipo de AI.
Algunos estados
como California, por si fuera poco, avanzaron desde el 2022 entramados legales
para frenar y castigar la propagación de estas imágenes. Ciertos países, como
México, dedican prepuesto público para frenar cualquier información creada
artificialmente que consideren negativa y tiene el potencial de convertirse en
una infodemia.
En síntesis: a
pesar de que se crearon cientos de miles de imágenes y videos con fines
políticos maliciosos en los últimos meses, estos no tuvieron el impacto
necesario para influir en la dirección del voto de esos países.
Se puede afirmar,
sin tener datos precisos, que en México pasó algo similar. Las imágenes y
videos perjudiciales no tuvieron impacto en la decisión final de los votantes.
La estética
catapultada por imágenes artificiales en 2022, se puede afirmar, ha quedado
rebasada. Ya sea por razones prácticas o simple repetición, su uso se ha
agotado. Lo mismo con los videos y los poco naturales movimientos que presentan
a los juiciosos cibernautas.
Dicho eso, si
bien nuestra cognición cuenta con los recursos suficientes para detectar, por
lo pronto, imágenes y videos que considera falsos, existe un campo en donde no
es tan bueno. Hablamos del audio, el cual ha resultado mucho más complicado de
descifrar cuando se trata de grabaciones consideradas falsas. Este reto aumenta
considerablemente cuando se añade video editado correctamente.
En el campo
auditivo el uso malicioso de AI ha sido mucho más prolífico, empezando por las
estafas bancarias y de falsos rescates a partir de llamadas en donde las voces
de personas reales fueron clonadas.
Aquí la mente es
mucho más fácil de convencer, ya sea porque no tiene el apoyo visual necesario
o porque su estructura está hecha para detectar como cierto algo que suena a
verídico.
Estos programas,
sin embargo, siguen siendo relativamente poco conocidos y requieren un uso
mucho más preciso que aquellos dedicados a la imagen.
Ningún experto
creyó que el audio, y no la imagen o el video, serían el “coco” de nuestra
lucha para usar la inteligencia artificial de manera ética. O citando a
McLuhan, el oído no favorece un punto de vista en particular. O traducido para
los neófitos: cuando se trata de audio el ser humano llena los espacios vacíos
y de carencia informativa con sus propios sesgos.
No hay comentarios
Gracias por tu mensaje, en breve te respondemos