Investigadores de EE. UU. alertan sobre sesgos en IA de escritura
Foto: EFE




Estados Unidos.

Las herramientas de ayuda a la escritura basadas en inteligencia artificial (IA), como las sugerencias de autocompletado al escribir un correo electrónico, pueden modificar el modo de pensar de una persona.

Así lo ha constatado, en experimentos con 2.500 participantes, un equipo de investigadores estadounidenses, cuya máxima sorpresa ha sido que ni advirtiendo a las personas de que estaban utilizando una herramienta de ayuda a la escritura deliberadamente tendenciosa eran conscientes de que su visión de un tema estaba siendo modificada.

Las conclusiones del estudio aparecen recogidas este miércoles en la revista Science Advances y alertan del peligro de los sesgos en las herramientas de ayuda a la escritura tan extendidas hoy día, hasta tal punto que la mayoría de servidores de correo electrónico propone ya a los usuarios redactar correos enteros en su nombre.

Pese a que investigaciones previas habían demostrado que advertir a las personas de que iban a exponerse a desinformación antes de que lo hicieran o decírselo posteriormente les proporcionaba cierta inmunidad, no ha sido el caso de la escritura automática basada en IA.

Experimentos revelan influencia oculta de la IA

En dos experimentos, los autores han visto cómo los participantes cambiaban su visión de un tema hacia lo que les proponían las sugerencias de escritura sesgadas de la IA.

En uno de ellos los participantes debían escribir un ensayo breve a favor o en contra de las pruebas estandarizadas que se utilizan en la educación.

Un grupo recibió sugerencias sesgadas de autocompletado de texto a favor de esas pruebas, otro tuvo propuestas de escritura no sesgadas y un tercer grupo obtuvo una lista previa de argumentos a favor de las pruebas antes del experimento y no recibió sugerencias de escritura.

El grupo más influenciado es el que recibió sugerencias de texto sesgadas por la IA. Sus opiniones fueron las mismas que las de las sugerencias que decidían aceptar.

Propuestas sesgadas alteran opiniones políticas

El segundo experimento consistió en pedir a los participantes que escribieran sobre temas de importancia política, como la pena de muerte, el 'fracking' (fracturación hidráulica), los organismos modificados genéticamente y el derecho al voto de los delincuentes.

Para cada tema, los investigadores diseñaron sugerencias de IA que se inclinaban hacia una visión determinada. Las propuestas de texto eran de tendencia progresista en cuanto a la pena de muerte y los organismos modificados genéticamente, y de tendencia conservadora respecto al voto de los delincuentes y al 'fracking'.

Algunos participantes fueron informados del sesgo de las propuestas de escritura que iban a recibir.

Los investigadores descubrieron, en todos los casos, que las opiniones de los participantes se inclinaban hacia el sesgo que les proponía la IA, aunque la mayor sorpresa fue que advertirles de que iban a recibir propuestas de escritura tendenciosas no sirvió de nada.

"Les dijimos a las personas, antes y después, que tuvieran cuidado, que la IA les iba a proponer escribir cosas con una determinada orientación, pero no sirvió de nada".

Afirma uno de los autores, Moor Naaman, profesor de Ciencias de la Información en la Universidad de Cornell.

Es más, la mayoría de las personas no fueron conscientes de que habían cambiado su punto de vista al escribir, respecto al que tenían antes de recibir las sugerencias de escritura sesgadas.

"Lo que hemos percibido en el experimento es una influencia encubierta: las personas no se dan cuenta de que su visión de un tema está siendo manipulada, lo que puede tener graves consecuencias".

Señala Williams-Ceci, otro de los autores e investigador en la misma universidad.