Tecnología
Nueva política de LinkedIn: usted será el responsable si comparte información errónea generada por IA
LinkedIn ha anunciado una actualización en su Acuerdo de Servicio que entrará en vigor en noviembre de 2024, estableciendo que los usuarios serán responsables de compartir información errónea generada por inteligencia artificial.
A partir de noviembre de 2024, LinkedIn implementará una actualización en su Acuerdo de Servicio que cambiará significativamente la forma en que los usuarios interactúan con el contenido generado por inteligencia artificial (IA). Esta medida establece que cualquier información errónea o engañosa compartida por los usuarios, particularmente aquella creada mediante herramientas de IA, será de su completa responsabilidad. Esta decisión refleja una tendencia más amplia en el mundo digital, donde las empresas buscan protegerse frente a los riesgos asociados con la proliferación de información no verificada.
El auge de la responsabilidad del usuario
La actualización de LinkedIn se produce en un momento en que las preocupaciones sobre la veracidad del contenido generado por IA están en aumento. La plataforma ha decidido trasladar la carga de la moderación del contenido a los usuarios, enfatizando que, dado que nadie puede garantizar la exactitud del material producido por estas herramientas, es fundamental que los individuos verifiquen y editen la información antes de compartirla.
- La política deja claro que los usuarios son responsables de asegurarse de que lo que comparten cumpla con las Políticas de la Comunidad Profesional de LinkedIn. “Por favor, revise y edite dicho contenido antes de compartirlo con otras personas. Como todo el contenido que compartes en nuestros Servicios, eres responsable de asegurarte de que cumple con nuestras Políticas de la Comunidad Profesional, incluyendo no compartir información engañosa”, mensaje de Lindin citado por Softonic.
Aprendiendo de los errores: el ejemplo de Microsoft
Esta decisión de LinkedIn sigue el ejemplo de su empresa matriz, Microsoft, que a principios de 2024 ya había actualizado sus términos de servicio para recordar a los usuarios que no debían confiar ciegamente en los servicios de IA. Microsoft advirtió que estas herramientas no están diseñadas para sustituir el asesoramiento profesional, destacando las limitaciones inherentes a la tecnología.
Ambas empresas están reaccionando a un panorama donde el contenido automatizado es cada vez más prevalente, pero a la vez más propenso a errores. Con la intención de proteger su reputación y la calidad de la información en sus plataformas, LinkedIn ha tomado la decisión de hacer que los usuarios se conviertan en los moderadores del contenido que producen y comparten.
Lo más leído
Una nueva era de cautela en la generación de contenido
La nueva política de LinkedIn también implica un cambio en la percepción de las herramientas de IA. A pesar de que la plataforma continuará ofreciendo funciones que permiten la creación automatizada de contenido, lo hará con la advertencia de que dicha información puede no ser fiable. Esto refuerza la necesidad de que los usuarios adopten un enfoque crítico al utilizar estas herramientas, entendiendo que el contenido generado no siempre será exacto.
🚨LinkedIn new Terms of Service just dropped. Use the link below to opt out of AI training: pic.twitter.com/3OlQQy1EcE
— Luiza Jarovsky (@LuizaJarovsky) October 8, 2024
La responsabilidad recae ahora sobre los usuarios no solo para crear contenido, sino también para verificar su validez. En un entorno donde la información se mueve rápidamente, esta llamada a la responsabilidad individual se convierte en un aspecto crucial para mantener la integridad de la plataforma.