IA: manipulando el debate público

La inteligencia artificial (IA) está revolucionando el periodismo, pero no siempre para mejor. Durante la guerra contra Gaza, la IA se ha convertido en una herramienta poderosa para amplificar noticias falsas y favorecer narrativas que distorsionan la realidad y benefician a agendas políticas específicas como la del régimen genocida israelí. La IA, lejos de ser neutral, aprende de datos cargados de sesgos raciales, de género y económicos, y replica y perpetúa estos prejuicios. Cuando los algoritmos entrenan con información sesgada, las noticias que producen profundizan la invisibilidad de las minorías y refuerzan perspectivas dominantes.

Este sesgo informativo tiene un impacto directo en la diversidad de voces y el debate público. La IA tiende a favorecer una visión uniforme que beneficia principalmente a las élites y silencia a quienes cuestionan el statu quo. Esto se debe a que los algoritmos suelen amplificar las voces dominantes y los puntos de vista ya populares y dejar fuera las perspectivas críticas o alternativas. Un ejemplo de ello es cómo los algoritmos de recomendación de noticias en plataformas como Facebook o Google priorizan contenido de medios establecidos y sensacionalistas, mientras que las voces de medios independientes o activistas quedan enterradas, disminuyendo su alcance y visibilidad. En vez de democratizar el acceso a la información, la IA podría estar consolidando el poder en manos de grandes corporaciones y amplificando las desigualdades en el ecosistema mediático.

Cargando
No hay anuncios

Para mayor agravio, empresas como Meta o Google han utilizado durante años el contenido generado por medios de comunicación tradicionales para entrenar sus modelos de inteligencia artificial aprovechando una gran cantidad de artículos, reportajes y análisis sin ofrecer compensación ni reconocimiento a los creadores originales de esa información. Este uso no autorizado del contenido periodístico es un problema ético y económico que afecta directamente a los medios, particularmente a los locales y más pequeños, que ya enfrentan dificultades para competir en el panorama digital. Lo más alarmante es que estos mismos modelos de IA que han sido entrenados con contenido periodístico son después utilizados para generar nuevos productos informativos o publicitarios que compiten directamente con los medios que alimentaron su desarrollo. Esta dinámica no solo reduce la audiencia y los ingresos de los medios locales, sino que también erosiona la pluralidad de voces en el panorama informativo.

Cargando
No hay anuncios

Los periodistas tienen la responsabilidad de proporcionar información precisa y ética. Aunque la IA puede procesar grandes volúmenes de datos, no tiene juicio moral, lo que puede resultar en noticias sesgadas y manipulables. La falta de supervisión humana amenaza con debilitar la confianza en la prensa en un momento crítico. La calidad del periodismo, esencial para una democracia saludable, está en riesgo si permitimos que la IA controle el flujo de información sin un marco ético adecuado.

Las noticias creadas por máquinas que no comprenden las complejidades sociales podrían consolidar un sistema que beneficia a unos pocos y silencia a muchos. Exigir una mayor transparencia en la generación de información y responsabilizar a todos los actores involucrados es crucial para evitar que la tecnología perpetúe injusticias y debilite a nuestras sociedades.