
El acceso a la comunicación y la libertad de expresión, en Occidente en general, están mucho más extendidos que décadas atrás. Pero la multiplicidad de medios, incluidos los digitales y las plataformas, conforma un mundo complejo. Conviven debates políticos, el humor, la música y el entretenimiento, y no siempre con análisis de sensatez, aunque queden en circulación en la nube para siempre. El rating que tradicionalmente se utilizaba para medir programas en radios y canales de televisión es un método hoy obsoleto; el éxito se computa en likes, retwits y hashtags.
Las novedades son infinitas. Por ejemplo, ya no hace falta un estudio profesional para producir contenidos audiovisuales de calidad suficiente como para tornarse masivos. A esto se suma el feedback inmediato de los comentarios que a su vez generan respuestas hasta formar verdaderas comunidades anónimas.
En este contexto, los instrumentos de inteligencia artificial, basados en algoritmos que recurren a información masiva de internet, pueden llenarse de datos falsos y erróneos. El Chat GPT, tan popular en estos tiempos, es uno de los sistemas de creación automática de textos más extendidos, y lo hace a partir de información en la web, por lo tanto, es obvio que contiene datos falsos. El problema radica en que estas tecnologías tienen la capacidad de multiplicar contenidos (verdaderos y falsos) a una velocidad irrefrenable y por ello pueden utilizarse como armas de desinformación.
En el negocio de la industria de contenidos, los algoritmos de los buscadores posicionan mejor las noticias redactadas y presentadas de manera tal de llegar mejor al potencial público/consumidor. Por lo tanto, los medios se rigen por la llamada “tiranía de los likes”, y los comunicadores también recurren a la composición de mensajes y fórmulas que garantizan el éxito, que se mide en reacciones. Una de las consecuencias es una alarmante estandarización de la información digital para sostener esas audiencias.
El cambio en los consumos de contenidos comenzó hace menos de una década. La masividad de los streamers orientados a los videojuegos, especialmente con largas transmisiones en vivo de Youtube y millones de seguidores, fueron la punta de lanza, sobre todo en grandes conglomerados urbanos. El contexto de la pandemia facilitó que entraran de forma permanente en los hogares y encontraran públicos en distintos contextos sociales.
Al presentar los riesgos futuros para la humanidad, el analista de política global Ian Bremer consideró que la desinformación florecerá y la confianza se erosionará aún más: “Seguirá siendo la moneda central de las redes sociales que, en virtud de su propiedad privada, su falta de regulación y su modelo de negocio que maximiza la participación, son el caldo de cultivo ideal para que los efectos disruptivos de la IA se vuelvan virales. Estos avances tendrán efectos políticos y económicos de largo alcance”.
¿A dónde nos llevan los algoritmos?
El problema no son los algoritmos en sí, sino la falta de su uso crítico y de la conciencia de las consecuencias de que los algoritmos moldeen nuestra cotidianeidad y, por lo tanto, de lo que los ciudadanos entendemos por realidad y verdad.
¿Qué pasa con los medios tradicionales que durante décadas fueron confiables para el público medio? Son atacados por muchos líderes globales, que suelen hablar de “medios de noticias falsas” para negarles la credibilidad. En efecto, están desprestigiados en todo el mundo inclusive aquellos que se rigen por ciertas normas periodísticas de chequeo de la información por criterios éticos. Según el Digital News Report del Reuters Institute, sólo el 40% de la gente sigue confiando en la información de los medios tradicionales.
El análisis del historiador Natalio Botana, una de las firmas más creíbles del periodismo argentino, es preocupante. ¿Se podrá distinguir lo cierto de las mentiras mediáticas? Quizá, una vez más, haya que saber distinguir las firmas más creíbles y confiables a la hora de analizar la información y realizar los análisis socio-políticos.
Por su parte, los politólogos David Barker y Morgan Marietta, en su libro Una nación, dos realidades (2019), basándose en estudios de campo en los Estados Unidos, sostienen que los valores de las personas son decisivos en relación con cómo perciben los hechos, y que la gente prefiere creer lo que es compatible con sus convicciones. Esta conclusión es válida independientemente de la orientación política de cada encuestado. Por el contrario, cuanto más polarizados están los valores y más prevalece la polarización política, más borrosa se vuelve la diferencia entre opinión y hecho de la realidad.
Las figuras globales más poderosas aprovechan las redes sociales para generar desconfianza en los medios tradicionales y difundir sus propias narrativas construidas para el formato de redes. El reciente anuncio de Mark Zuckerberg, fundador de Facebook y propietario de Meta, de que abandonaría la verificación externa de los contenidos confirma algo que ya conocemos: en las redes sociales cuentan las opiniones, no los hechos.
¿Cómo superar la crisis de la información? En principio, para recuperar la confianza, los medios de comunicación deben demostrar a diario su independencia y practicar un periodismo que no priorice la polémica sino que presente las ambigüedades, aporte el contexto de las noticias y compruebe los hechos antes de darlos por ciertos.
En cuanto a los ciudadanos de a pie, lo que intentamos es evitar la manipulación y la propagación de información falsa. En septiembre pasado, durante la IV Cumbre Global sobre Desinformación –organizada por la Sociedad Interamericana de Prensa (SIP), Proyecto Desconfío (Argentina) y la Fundación para el Periodismo (Bolivia) – se impulsó un enfoque multidisciplinar donde intervengan medios de comunicación, plataformas tecnológicas, el sector académico, las organizaciones multilaterales y la sociedad en su conjunto para resolver el desafío de la desinformación en las democracias contemporáneas.
Al cierre de esta edición se conoció que un nuevo chatbot de la startup china DeepSeek, con un costo mucho menor que sus predecesores, y por lo tanto con una capacidad mayor de acelerar la carrera tecnológica de la inteligencia artificial. Casi en simultáneo el Vaticano dio a conocer la Nota Antiqua et Nova, en referencia a la antigua y nueva sabiduría, y que analiza la relación entre la inteligencia artificial y la inteligencia humana. “Contrarrestar las falsedades impulsadas por la IA no es sólo trabajo de expertos de la industria, requiere los esfuerzos de todas las personas de buena voluntad”, afirma el documento. Elaborado en forma conjunta por el Dicasterio para la Doctrina de la Fe, que dirige el cardenal argentino Víctor Manuel “Tucho” Fernández, y el Dicasterio para la Cultura y la Educación, encabezado por el cardenal portugués José Tolentino de Mendonça, el documento advierte sobre la “profunda y melancólica insatisfacción en las relaciones interpersonales” asociadas a estas nuevas tecnologías.
En definita, se torna vital alimentar un enfoque crítico respecto de la información que consumimos y también de la que compartimos. La suma de educación, tecnología y ética social puede ser el mejor antídoto para las disyuntivas contemporáneas vinculadas a la información.