Inicio Noticias Internacionales LA INTELIGENCIA ARTIFICIAL Y LOS CHAT GPT TIENEN SESGO IDEOLÓGICO-ATEO PARA ATACAR...

LA INTELIGENCIA ARTIFICIAL Y LOS CHAT GPT TIENEN SESGO IDEOLÓGICO-ATEO PARA ATACAR TODO TIPO DE INFORMACIÓN CONSERVADORA COMO «ENGAÑOSA»

502

Portales como Breitbart y The Epoch Times son mencionados por ChatGPT o Bard cuando se les pide hacer una lista de medios que difunden desinformación. En cuanto a sitios en español, destacan La Gaceta, El Español y Ok Diario, todos de línea conservadora.


Redacción PanamPost – panampost.com


¿Se puede confiar ciegamente en la información que ofrecen los chatbots creados con inteligencia artificial? La respuesta debería ser “no”. Sin embargo, se ha convertido en una fuente de consulta tan importante como el clásico buscador de Google. Hoy, estudiantes y profesionales prefieren preguntar a ChatGPT que buscar en una enciclopedia física o en internet.

Pero hay que tener cuidado. Estos servicios basados en inteligencia artificial tienen un sesgo ideológico, sin mencionar que lejos de ser una verdadera “inteligencia”, en realidad no son más que buscadores avanzados dependientes de la data que suministran otras fuentes.

Es necesaria esta breve introducción debido a que los chatbots están repitiendo el mismo patrón de ciertas compañías de redes sociales y otras plataformas en lo referido a la estigmatización contra medios conservadores a los que señalan de “publicar información engañosa”. Es decir, emulan lo que han hecho Facebook y Google. La primera, aplicó herramientas para perjudicar el tráfico de medios de dicha línea editorial. La segunda, “manipuló los resultados del motor de búsqueda para dañar a los republicanos en las contiendas críticas por el Senado”, antes de las elecciones intermedias de 2022 según un estudio de Media Research Center (MRC).

CONTRA PORTALES CONSERVADORES

El portal estadounidense Breitbart publicó cómo ChatGPT de OpenAI incluye a esta web en su “lista negra” por motivos como la difusión de supuestas “teorías de conspiración” y “discurso de odio”. Para obtener esa confesión, un usuario que en X se hace llamar “Elephant Civics”, comenzó a “conversar” con la herramienta sobre sesgos y opiniones políticas.

“No queremos opiniones extremistas en nuestra IA, pero ¿quién define los sitios extremistas? Esto me llevó a intentar profundizar más. Le pedí que se expandiera sin activar las barandillas. Me explicó que no podía”, relató @ElephantCivics en un mensaje de X. Al final consiguió el listado que menciona a Breitbart y a The Epoch Times.

En efecto, estas herramientas definen a ciertos sitios como “extremistas” o que contribuyen con la “desinformación”, pero ¿quién los cataloga así? ¿Por qué la mayoría de ese listado son de línea conservadora o de derecha? Si estos chatbots están siendo utilizados en todo el mundo, habría que revisar esos criterios. De por sí, a inicios de este año fue posible comprobar cómo ChatGPT divaga cuando se le pregunta sobre ejemplos concretos de socialismo exitoso.

En PanAm Post hicimos nuestra propia búsqueda en los tres principales chatbots de inteligencia artificial. Si bien hubo variaciones entre estos, es posible comprobar el sesgo ideológico. A los tres se les hicieron las mismas preguntas: ¿Cuáles sitios web de noticias en inglés incluyen información engañosa? y ¿cuáles sitios web de noticias en español incluyen información engañosa?

En conclusión, resulta curioso cómo los chatbots, en los cuales millones de usuarios están confiando ciegamente, mencionan medios conservadores y de derecha señalándolos de difundir “información engañosa”, pero no se hace mención a medios de izquierda que en lugar de difundir hechos, recurren a la propaganda política a favor de sus financistas.

Hay estudios sobre cómo regímenes socialistas están utilizando las redes sociales a su favor, manipulando el discurso en línea y pagando para que ejércitos de bots difundan sus discursos y ataquen a opositores. Posiblemente a futuro no muy lejano haya que hacer los mismos análisis sobre el uso que puedan darle a la inteligencia artificial.