Sports Illustrated es la más reciente compañía de medios de comunicación que ve afectada su reputación por ser poco sincera — por no decir abiertamente deshonesta — sobre quién o qué redacta sus textos.
La otrora influyente publicación anunció que despedirá a una compañía que produjo artículos para su sitio web escritos bajo la firma de autores que aparentemente no existen. Pero rechazó un reporte publicado según el cual los artículos como tal fueron redactados por una herramienta de inteligencia artificial.
Hace unos meses, los experimentos con la IA salieron mal tanto en la cadena de periódicos Gannett como en el sitio web de tecnología CNET. Muchas compañías están poniendo a prueba la nueva tecnología en un momento en el que los empleados humanos temen que les pueda costar su trabajo. Pero el proceso es difícil en el periodismo, el cual construye y comercializa sus productos en torno a las nociones de verdad y transparencia.
Aunque no tiene nada de malo que las compañías de medios de comunicación experimenten con la inteligencia artificial, “el error está en intentar ocultarlo y hacerlo mal”, comentó Tom Rosenstiel, profesor de ética periodística en la Universidad de Maryland.
“Si quieres dedicarte a decir la verdad, que es lo que los periodistas dicen que hacen, no deberías decir mentiras”, señaló Rosenstiel. “Un secreto es una forma de mentir”.
Versiones contradictorias
Sports Illustrated, que ahora es un sitio web y una publicación mensual de Arena Group, en su momento fue un semanario en el grupo de revistas de Time Inc. conocido por su excelente redacción. “Sus ambiciones eran grandes”, dijo Jeff Jarvis, autor de “Magazine”, un libro que describe como un elogio de la industria.
El lunes, el sitio web Futurism reportó que Sports Illustrated utilizó historias para reseñas de productos firmadas por autores que no pudo identificar. Futurism encontró la fotografía de uno de los autores mencionados, Drew Ortiz, en un sitio web que vende retratos generados por IA.
El perfil del autor en la revista decía que “Drew ha pasado gran parte de su vida al aire libre y está encantado de guiarte a través de su interminable lista de los mejores productos para evitar que caigas ante los peligros de la naturaleza”.
Después de cuestionar a Sports Illustrated, Futurism dijo que todos los autores con retratos generados por IA desaparecieron del sitio web de la revista. No se ofreció ninguna explicación.
Una persona no identificada que trabaja en la revista dijo a Futurism que también utilizaron inteligencia artificial para crear un poco del contenido, “por mucho que digan que no”.
Sports Illustrated dijo que los artículos en cuestión fueron producidos por una compañía externa, AdVon Commerce, la cual le aseguró a la revista que fueron redactados y editados por seres humanos. AdVon hizo que sus escritores utilizaran un seudónimo, “acciones que no aprobamos”, dijo Sports Illustrated.
“Estamos retirando el contenido mientras continúa nuestra investigación interna y hemos puesto fin a la colaboración”, declaró la revista. AdVon no respondió de inmediato a mensajes en busca de comentarios el martes.
En un comunicado, el sindicato Sports Illustrated se expresó horrorizado por la historia de Futurism.
“Exigimos respuestas y transparencia por parte de la dirección del grupo Arena sobre qué se ha publicado exactamente bajo el nombre de SI”, dijo el sindicato. “Exigimos que la empresa se comprometa a adherirse a las normas básicas del periodismo, incluido el no publicar historias escritas por personas falsas”.
No es la primera vez
Gannett suspendió un experimento en algunos de sus periódicos este verano en los que se utilizó IA para generar artículos sobre eventos deportivos escolares, después de que encontraron algunos errores. Los artículos estaban firmados por “LedeAI”.
Parte de la desagradable publicidad se pudo haber evitado si los periódicos hubieran sido claros sobre el papel de la tecnología y cómo esta ayudaba a crear artículos que los periodistas no hubieran podido hacer, dijo Jarvis. Gannett dijo que la falta de personal no tuvo nada que ver con el experimento.
El pasado invierno se informó que CNET había utilizado IA para crear artículos explicativos sobre temas de servicios financieros atribuidos al “personal de CNET Money”. La única forma de que los lectores supieran que había tecnología implicada en la redacción era hacer clic en esa atribución de autor.
Fue solo después de que se descubriera y se comentara el experimento en otras publicaciones que CNET lo hizo público a sus lectores. En una nota, la entonces editora Connie Guglielmo dijo que se habían publicado 77 artículos generados por máquinas y que varios de ellos requerían correcciones. Posteriormente, el sitio dejó en claro cuando se utilizaba IA en la creación de historias.
“Puede que el proceso no sea siempre fácil o bonito, pero vamos a seguir adoptándolo, así como cualquier nueva tecnología que creamos que hace la vida mejor”, escribió Guglielmo.
Otras empresas han sido más abiertas sobre sus experimentos. Buzzfeed, por ejemplo, atribuyó un artículo de viajes a la escritora Emma Heegar y a Buzzy the Robot, “nuestro asistente creativo de IA”.
*Con infromación de AP