A partir de noviembre de 2024, LinkedIn implementará una actualización en su Acuerdo de Servicio que cambiará significativamente la forma en que los usuarios interactúan con el contenido generado por inteligencia artificial (IA). Esta medida establece que cualquier información errónea o engañosa compartida por los usuarios, particularmente aquella creada mediante herramientas de IA, será de su completa responsabilidad. Esta decisión refleja una tendencia más amplia en el mundo digital, donde las empresas buscan protegerse frente a los riesgos asociados con la proliferación de información no verificada.
El auge de la responsabilidad del usuario
La actualización de LinkedIn se produce en un momento en que las preocupaciones sobre la veracidad del contenido generado por IA están en aumento. La plataforma ha decidido trasladar la carga de la moderación del contenido a los usuarios, enfatizando que, dado que nadie puede garantizar la exactitud del material producido por estas herramientas, es fundamental que los individuos verifiquen y editen la información antes de compartirla.
- La política deja claro que los usuarios son responsables de asegurarse de que lo que comparten cumpla con las Políticas de la Comunidad Profesional de LinkedIn. “Por favor, revise y edite dicho contenido antes de compartirlo con otras personas. Como todo el contenido que compartes en nuestros Servicios, eres responsable de asegurarte de que cumple con nuestras Políticas de la Comunidad Profesional, incluyendo no compartir información engañosa”, mensaje de Lindin citado por Softonic.
Aprendiendo de los errores: el ejemplo de Microsoft
Esta decisión de LinkedIn sigue el ejemplo de su empresa matriz, Microsoft, que a principios de 2024 ya había actualizado sus términos de servicio para recordar a los usuarios que no debían confiar ciegamente en los servicios de IA. Microsoft advirtió que estas herramientas no están diseñadas para sustituir el asesoramiento profesional, destacando las limitaciones inherentes a la tecnología.
Ambas empresas están reaccionando a un panorama donde el contenido automatizado es cada vez más prevalente, pero a la vez más propenso a errores. Con la intención de proteger su reputación y la calidad de la información en sus plataformas, LinkedIn ha tomado la decisión de hacer que los usuarios se conviertan en los moderadores del contenido que producen y comparten.
Una nueva era de cautela en la generación de contenido
La nueva política de LinkedIn también implica un cambio en la percepción de las herramientas de IA. A pesar de que la plataforma continuará ofreciendo funciones que permiten la creación automatizada de contenido, lo hará con la advertencia de que dicha información puede no ser fiable. Esto refuerza la necesidad de que los usuarios adopten un enfoque crítico al utilizar estas herramientas, entendiendo que el contenido generado no siempre será exacto.
La responsabilidad recae ahora sobre los usuarios no solo para crear contenido, sino también para verificar su validez. En un entorno donde la información se mueve rápidamente, esta llamada a la responsabilidad individual se convierte en un aspecto crucial para mantener la integridad de la plataforma.