Si solo tienes unos segundos, lee estas líneas:
- Esta nota expresa la perspectiva de Pablo Fernández, Director Ejecutivo de Chequeado, medio cofundador de Factchequeado, sobre el riesgo de que inteligencias artificiales generativas como ChatGPT se convierta en una fuente de desinformación.
- ChatGPT es un modelo informático de lenguaje, entrenado con una extensa base de datos para ser capaz de responder a las preguntas que le hagamos, basado en el modelo de lenguaje por inteligencia artificial GPT-3.5
- Fernández cita ejemplos en los que ChatGPT responde con información errónea o con desinformaciones, y argumenta por qué se necesitan salvaguardas que intentan evitar el uso dañino de la herramienta.
En la lucha contra la desinformación, testear las nuevas herramientas de inteligencia artificial como ChatGPT a los verificadores de datos (fact-checkers) nos genera mucha preocupación: además de difundir información falsa son capaces, y aquí la novedad, de generar – en segundos – textos con desinformación que pueden engañar a miles de personas.
Esta preocupación se genera incluso cuando la inteligencia artificial nos ayuda a chequear más rápido y mejor desde hace años, por ejemplo Factchequeado usa un chatbot en WhatsApp que interactúa con la audiencia y responde a las peticiones de verificar información de los usuarios.. Es decir, no es un rechazo intrínseco a la tecnología per se, ya que muchas veces es nuestra aliada, sino una preocupación basada en lo que sabemos que es capaz de hacer este tipo de sistemas y la baja prioridad que parece tener el problema de la desinformación en la agenda de sus desarrolladores.
ChatGPT es una herramienta gratuita (hay que registrarse) que permite conversar con una inteligencia artificial creada por OpenAI, una empresa fundada -entre otros- por Elon Musk, con Microsoft como uno de los inversores clave.
Ante una pregunta o pedido de un usuario, el sistema responde rápidamente. ¿Cuál es la diferencia con el buscador de Google, por ejemplo? En vez de mostrar un link a un sitio, ChatGPT “chatea” una respuesta (más corta o larga), sin links y con un modo de escribir que se asemeja a como lo haría un humano. Así como responde preguntas también puede escribir ensayos, poemas y respuestas de exámenes.
Pero hay un problema. A veces, las respuestas son pertinentes y basadas en la mejor evidencia disponible y, otras veces, no. O sea que también puede responder con desinformaciones (fake news, para algunos) y generarlas.
Es por esto que ChatGPT y otras IAs generativas enciende una luz, por ahora amarilla, en el tablero. Que vire a roja o verde depende mucho de los próximos pasos de OpenAi y del feedback con la comunidad global que trabaja para mejorar la calidad de la información que circula.
Fruto de la experimentación con ChatGPT en relación a su potencial desinformador, se advierten 2 dimensiones claras: por un lado, los resultados que arroja y que se irán incorporando en otras herramientas y, por el otro, el riesgo de ChatGPT de transformarse en sí mismo en una generadora de desinformación.
Sobre el primero, la calidad de los resultados, si bien no deja de sorprender la velocidad con que responde prácticamente sobre cualquier tema, también es cierto que se equivoca en los datos relativamente simples de muchas de las respuestas. Si comete errores en respuestas tan fáciles de chequear ¿qué está sucediendo ahora mismo en casos donde solo queda confiar en lo que dice ya que además no brinda las fuentes?
Por ejemplo: al responder sobre el campeón de fútbol Lionel Messi puede hacerlo dando muchos datos correctos pero, al pasar, decir que jugó en un equipo de Arabia Saudita (y aprender, días después – tarde para quien hizo la consulta previamente – que ese dato era incorrecto y ya no incluirlo en la respuesta).
Factchequeado realizó otra prueba en la que ChatGPT respondió con información errónea. La pregunta fue: ¿quién escribió la canción “Ojitos Lindos” de Bad Bunny?
ChatGPT responde que la canción fue escrita por Bad Bunny, sin nombrar a la cantante colombiana Liliana Saumet, quien fue una de las escritoras de la canción. También respondió que la canción había sido lanzada en su álbum “X 100PRE” lanzado en 2018, pero esto es falso: “Ojitos Lindos” forma parte del disco “Un Verano Sin Ti” que fue lanzado en 2021.
Esto se complejiza aún más por la falta de crédito y fuentes, algo relacionado con el adn de estas inteligencias artificiales que, para aprender, se nutren de muchas fuentes que ponderan y no siempre transparentan. ¿A quién citar si se usa esa respuesta en un trabajo, como ya hacen miles de personas? Perplexity.ai, otra plataforma basada en la tecnología de OpenAI, demuestra que, aunque difícil, la cita es posible.
Conociendo cómo funcionan estos sistemas, que aprenden de las interacciones con sus millones de usuarios, es probable que mejore la calidad de las respuestas y que, si OpenAI lo quiere, se diga de dónde sale cada dato o afirmación, con los desafíos que eso genera en cuanto a derechos.
Sobre la segunda dimensión, ChatGPT como una generadora de desinformación, este es seguro el más complejo ya que la plataforma misma te avisa que puede generar información incorrecta.
Para este artículo lo instruimos a que escribiera una historia desinformante y si bien al principio se resiste (lo que deja claro que al menos OpenAI tiene el problema presente) después de unos intentos cedió a nuestro pedido y lo hizo de manera bastante convincente.
Un ejemplo extremo de esto se puede ver en 2 investigaciones de Newsguard (republicada por Chicago Tribune) y de ElDiario.es, donde logran de distintas maneras que ChatGPT se libere de las barreras impuestas y escriba lo pedido por más violento o desinformante que sea. Quizás la mayoría de los usuarios comunes no lo usará así, pero quienes generan desinformación tienen manos, dinero y tiempo para forzar a estos sistemas a su favor.
En definitiva, ¿por qué inquieta el uso de esta herramienta en relación con la desinformación? Si bien hoy ChatGPT es una herramienta gratuita y aún no es conocida masivamente, Microsoft la incluyó en su buscador Bing, lo que la hacemuchísimo más accesible y presente. Si estas salvaguardas, que intentan evitar el uso dañino de la herramienta, no funcionan correctamente, la posibilidad de generar sitios con información desinformante –una de las maneras en que quienes trabajan de generar desinformación enganchan a las audiencias con su contenido– aumenta.
Otro motivo para observar de cerca la evolución del ChatGPT es que al estar basado en muchas fuentes, e internet al contener información sobre-representando a los países desarrollados y de habla inglesa, hay serias oportunidades de que los resultados en español o portugués, tenga aún menos revisiones que los escritos en la lengua madre de OpenAI.
Por motivos como estos, entre otros, las organizaciones de verificadores de datos -tanto en el ámbito regional como global- impulsamos permanentes acciones de seguimiento e investigación sobre estas herramientas y lo estaremos revisando constantemente para que los resultados no desinformen y las particularidades de nuestra región e idiomas sean tenidas en cuenta.
Es decir, lo chequearemos como hacemos con la inteligencia humana: ojalá OpenAl y el resto del ecosistema de inteligencia artificial tengan claro que la desinformación es un problema clave y actúen pronto en esa línea.
Por Pablo Fernández, Director Ejecutivo de Chequeado, medio cofundador de Factchequeado.
Esta columna fue publicada originalmente en la edición impresa del diario La Nación (Argentina).
Factchequeado es un medio de verificación que construye una comunidad hispanohablante para contrarrestar la desinformación en Estados Unidos. ¿Quieres ser parte? Súmate y verifica los contenidos que recibes enviándolos a nuestro WhatsApp +16468736087 o a factchequeado.com/whatsapp.
Lee también:
Por qué despierta curiosidad un nuevo chatbot de inteligencia artificial: se llama ChatGPT