LinkedIn despedirá más de 700 trabajadores.
Con su reciente actualización del Acuerdo de Servicio, LinkedIn está trasladando la responsabilidad a los usuarios por cualquier información inexacta generada por inteligencia artificial que decidan compartir. | Foto: Getty Images / SOPA Images

Tecnología

Nueva política de LinkedIn: usted será el responsable si comparte información errónea generada por IA

LinkedIn ha anunciado una actualización en su Acuerdo de Servicio que entrará en vigor en noviembre de 2024, estableciendo que los usuarios serán responsables de compartir información errónea generada por inteligencia artificial.

Redacción Tecnología
10 de octubre de 2024

A partir de noviembre de 2024, LinkedIn implementará una actualización en su Acuerdo de Servicio que cambiará significativamente la forma en que los usuarios interactúan con el contenido generado por inteligencia artificial (IA). Esta medida establece que cualquier información errónea o engañosa compartida por los usuarios, particularmente aquella creada mediante herramientas de IA, será de su completa responsabilidad. Esta decisión refleja una tendencia más amplia en el mundo digital, donde las empresas buscan protegerse frente a los riesgos asociados con la proliferación de información no verificada.

El auge de la responsabilidad del usuario

La actualización de LinkedIn se produce en un momento en que las preocupaciones sobre la veracidad del contenido generado por IA están en aumento. La plataforma ha decidido trasladar la carga de la moderación del contenido a los usuarios, enfatizando que, dado que nadie puede garantizar la exactitud del material producido por estas herramientas, es fundamental que los individuos verifiquen y editen la información antes de compartirla.

El resumen es una parte muy importante para lograr un perfil atractivo.
A partir de noviembre de 2024, LinkedIn responsabilizará a sus usuarios por la difusión de contenido engañoso creado con herramientas de inteligencia artificial, según una reciente actualización de sus políticas. | Foto: NurPhoto via Getty Images
  • La política deja claro que los usuarios son responsables de asegurarse de que lo que comparten cumpla con las Políticas de la Comunidad Profesional de LinkedIn. “Por favor, revise y edite dicho contenido antes de compartirlo con otras personas. Como todo el contenido que compartes en nuestros Servicios, eres responsable de asegurarte de que cumple con nuestras Políticas de la Comunidad Profesional, incluyendo no compartir información engañosa”, mensaje de Lindin citado por Softonic.

Aprendiendo de los errores: el ejemplo de Microsoft

Esta decisión de LinkedIn sigue el ejemplo de su empresa matriz, Microsoft, que a principios de 2024 ya había actualizado sus términos de servicio para recordar a los usuarios que no debían confiar ciegamente en los servicios de IA. Microsoft advirtió que estas herramientas no están diseñadas para sustituir el asesoramiento profesional, destacando las limitaciones inherentes a la tecnología.

El experto Álvaro Montes señala que Colombia debe trabajar en preparar a su fuerza laboral para la llegada completa de la IA.
La red profesional LinkedIn ha implementado una nueva política que exige a los usuarios revisar y verificar la información generada por inteligencia artificial antes de compartirla, advirtiendo que la responsabilidad recae en ellos. | Foto: Editorial Planeta / Archivo del autor

Ambas empresas están reaccionando a un panorama donde el contenido automatizado es cada vez más prevalente, pero a la vez más propenso a errores. Con la intención de proteger su reputación y la calidad de la información en sus plataformas, LinkedIn ha tomado la decisión de hacer que los usuarios se conviertan en los moderadores del contenido que producen y comparten.

Una nueva era de cautela en la generación de contenido

La nueva política de LinkedIn también implica un cambio en la percepción de las herramientas de IA. A pesar de que la plataforma continuará ofreciendo funciones que permiten la creación automatizada de contenido, lo hará con la advertencia de que dicha información puede no ser fiable. Esto refuerza la necesidad de que los usuarios adopten un enfoque crítico al utilizar estas herramientas, entendiendo que el contenido generado no siempre será exacto.

La responsabilidad recae ahora sobre los usuarios no solo para crear contenido, sino también para verificar su validez. En un entorno donde la información se mueve rápidamente, esta llamada a la responsabilidad individual se convierte en un aspecto crucial para mantener la integridad de la plataforma.