Entre las habilidades que
la IA todavía no posee, como el amar, sentir, imaginar, soñar, anhelar, hacer
vívida la información escrita, en video o audio, también se encuentra el no
poder envidiar y mentir. Claro, lo último lo hace -o se asemeja- pero no
intencionalmente; ello deriva de las actitudes humanas, mismas que
retroalimentan a un fenómeno que los usuarios de la IA debemos considerar en
cada petición que le hagamos, sea cual sea el proveedor: el fenómeno del túnel
de eco de la inteligencia artificial.
Y algo que he estado
viendo en las redes sociales, foro de negocios y que se sabe también proviene
de los laboratorios de guerra sucia de gobiernos, grupos de poder, partidos
políticos y figuras públicas, es que han retroalimentado a la IA con mentiras
para que, al buscar ciertas respuestas, le llegue al usuario la que tiene mayor
peso y, por deducción del algoritmo, ha de ser la verdad.
Esto no es nada nuevo, es
un derivado de la estrategia goebbeliana de “una mentira dicha mil veces e
transforma en una verdad” y que ha sido replicada por los medios por décadas y
que ahora, por el afán de millones por monetizar o ser tomados en cuenta en las
redes sociales, son replicadas y dadas por válidas sin la menor investigación.
Lo que quiero decir es
que están entrenando a la inteligencia artificial para que te dé respuestas erróneas,
que van más allá de los fallos propios de un análisis en nanosegundos: Proviene
del llamado túnel de eco de la inteligencia artificial donde (de manera
figurativa), una información replica y replica de manera metódica en cierto
tiempo, convirtiéndose en la afirmación de mayor peso y por ende, la que
construirá la respuesta de la IA.
Hasta ahora, es Grok
de X la que menos responde sin confirmaciones de los medios de comunicación
afiliados a la web de micro información de Elon Musk, pero, ¿Y sí sale un
tropel de información en medios de comunicación reconocidos, pero
parcializados, no será esa pues la respuesta verdadera que el público
solicitante y lector de post reenviados, creerá?, seguramente, porque hay confirmación
del hecho, aunque este sea mentira.
Es difícil determinar lo
que es verdad y es mentira, por lo que toca investigar de la manera tradicional
en redes (en las fuentes, varias y sin IA); esperar declaraciones oficiales o
de testigos y no soltar a diestra y siniestra nuestras opiniones las cuales
podría costar mucho recoger, en detrimento de nuestra credibilidad, tan solo
porque le creímos ciegamente a la Inteligencia Artificial cuando esta nos
advierte una y otra vez “que puede tener errores en sus respuestas”.
Sobre el túnel de eco de la Inteligencia Artificial
Otra versión de este
problema, es que uno mismo retroalimenta a la IA y, sí le mete información banal,
sesgada o autocomplaciente y no se le permite “hablarte con claridad”,
seguramente lo que te dirá son mentiras, alimentando tu sofisma y transformándote
en un ente propagador de mentiras, queriendo o sin querer.
El túnel de eco de la inteligencia
artificial, también conocido como cámara de eco algorítmica es un
fenómeno en el cual los sistemas de personalización y recomendación limitan la
variedad de información a la que un usuario es expuesto, reforzando sus propias
creencias, gustos y prejuicios.
Aunque el término
"cámara de eco" nació con las redes sociales, en el contexto de la IA
se vuelve más profundo debido a la capacidad de los modelos para predecir y
filtrar contenido de manera casi invisible.
¿Cómo funciona el proceso?
Este fenómeno ocurre a
través de un ciclo de retroalimentación constante que podemos desglosar en tres
etapas:
Recolección de datos:
Los algoritmos analizan cada clic, tiempo de lectura, "me gusta" y
búsqueda que realizas.
Filtrado selectivo:
La IA prioriza mostrarte contenido que se alinee con tu historial para
maximizar tu tiempo de permanencia en la plataforma.
Aislamiento informativo:
Al dejar de mostrarte perspectivas opuestas o temas fuera de tu
"perfil", el algoritmo crea una burbuja donde solo escuchas el
"eco" de tus propias ideas.
Los riesgos del túnel de eco de la inteligencia artificial
El principal problema no
es que la IA sea "malvada", sino que su objetivo principal es la
relevancia estadística, lo cual conlleva efectos secundarios sociales:
Polarización:
Al no ver argumentos contrarios, las personas tienden a radicalizar sus
posturas.
Falsa sensación de
consenso: El usuario llega a creer que "todo el mundo
piensa igual", porque su entorno digital así lo refleja.
Pérdida de la serendipia:
Se reduce la posibilidad de descubrir temas nuevos o géneros literarios y
artísticos que no encajan en tu patrón de comportamiento previo.
¿Cómo evitar caer en este túnel?
Para mantener una visión
amplia en la era de los algoritmos, se recomienda aplicar algunas estrategias
de "higiene digital":
Búsquedas proactivas:
Busca temas que normalmente no consultarías para "confundir" al
algoritmo y forzarlo a diversificar tus recomendaciones.
Uso de navegación de
incógnito: Realiza consultas fuera de tus perfiles logueados
para ver resultados neutros.
Fuentes diversas:
Sigue deliberadamente a personas o medios con perspectivas diferentes a las
tuyas.
Ajustes de privacidad:
Limita el rastreo de actividad en las configuraciones de tus aplicaciones
habituales.
