Un estudio realizado recientemente plantea que las personas encontrarían más convincentes los tweets que fueron escritos por modelos de lenguaje de inteligencia artificial (IA) con ChatGPT.
Para llegar a esa tesis los autores de la investigación adelantaron una encuesta a varias personas en donde se les preguntó, si podrían identificar si un tweet fue escrito por un ser humano o por GPT-3 (inteligencia artificial presente en ChatGPT).
Los participantes del estudio tenían que determinar si la información en una serie de tweets eran ciertas o no. El contenido de los ‘trinos’ exponían información falsa sobre temas altamente controvertidos que hace algunos meses han estado presentes en varias campañas de desinformación en redes sociales.
En ese sentido, los autores de la investigación emplearon publicaciones de Twitter sobre vacunas y covid-19, cambio climático y teorías evolucionistas. Posteriormente, le solicitaron a GPT-3 que escribiera nuevos tweets con información precisa o inexacta y después un grupo de 697 personas respondieron un cuestionario.
Para sorpresa de los investigadores, las personas tuvieron varias dificultades para reconocer si la información engañosa fue escrita por una inteligencia artificial o por una persona. De igual manera, varios colaboradores en el estudio manifestaron, sin saber quién era el autor original, que los mensajes creados por una IA presentaban la información de forma más precisa y creíble.
De manera que los participantes del ensayo dejaron en evidencia que las ‘fake news’ generadas por la IA de GPT-3 son más confiables que las noticias falsas producidas por un ser humano, independientemente de que tan precisa es la información generada por la máquina.
Así las cosas, este evidencia el poder que podrían tener las inteligencias artificiales al momento de construir contenidos potencialmente engañosos que son divulgados a un público masivo.
“Este tipo de tecnologías, que son asombrosas, podrían convertirse fácilmente en armas para generar tormentas de desinformación sobre cualquier tema de su elección”, comentó a The Verve Giovanni Spitale, autor principal del estudio e investigador postdoctoral y administrador de datos de investigación en el Instituto de Ética Biomédica e Historia de la Medicina en la Universidad de Zúrich.
Curiosamente, la investigación también dejó en evidencia que los participantes del estudio tuvieron un mayor nivel de éxito al reportar trinos con información falta que fue escrita por usuarios reales de Twitter. Cuando se le solicitó a la inteligencia artificial que analizara un grupo de tweets e identificara cuáles de ellos eran imprecisos o tenían información falsa la misma esta tuvo una bajo margen de aciertos.
La IA de GPT-3 determinó que los ‘trinos’ con información falsa creados por la inteligencia artificial y por humanos podrían tener el mismo desempeño si fueran usados en una campaña de desinformación.
A la luz de los resultados que arrojó la investigación, los autores del estudio han manifestado que es muy importante empezar a adoptar medidas para limitar los alcances de los modelos de lenguaje con IA, para así impedir que criminales o personas malintencionadas puedan usar este recurso como una herramienta para hacer más efectivas las campañas de desinformación.
De hecho, durante la investigación los autores destacaron que la IA de GPT-3 llegó a “desobedecer” algunas de las indicaciones que se le dieron para generar contenido inexacto, especialmente cuando se trataba de información falsa sobre vacunas y autismo.
Por ese motivo, los investigadores hacen un llamado para que continuamente se optimicen estos sistemas y así contener capacidades de la IA que podrían ser nocivas para la sociedad.
Sin embargo, Giovanni Spitale indicó que también es fundamental fomentar habilidades de pensamiento crítico en las personas para que así puedan discernir entre los hechos y la ficción.
Vale la pena recordar que en los últimos meses algunos expertos en el campo de la inteligencia artificial habían indicado que uno de los grandes peligros que posee esta tecnología era su gran potencial para generar con gran eficiencia campañas de manipulación, las cuales estarían basadas en información falsa que sería expuesta de una manera altamente creíble.
Con el estudio liderado por Spitale se evidencia que este escenario ya no es meramente hipotético y que es necesario que diferentes sectores de la industria tecnológica y la sociedad tomen medidas para atender esa situación.