Este lunes Facebook pidió disculpas por un error en el mecanismo de Inteligencia Artificial (IA) el cual recomienda videos en su red social, después de que esta identificara a personas de “raza negra’' como primates, y decidió desactivar este sistema hasta investigar el motivo del error.
El error de Facebook apareció para algunos usuarios de la red social después de ver un vídeo del Daily Mail que mostraba a personas de color. La IA de recomendación de videos les aconsejaba ‘seguir viendo vídeos de primates’, como ha informado el diario The New York Times.
“Fue claramente un error inaceptable”, reconoció un portavoz de Facebook en declaraciones a The Verge, donde pidió puntualmente disculpas a los usuarios que hayan podido ver estas “recomendaciones ofensivas”.
Asimismo, Facebook deshabilitó completamente su función de recomendaciones de videos a través de la IA -que analiza automáticamente el contenido de los videos para sugerir otros relacionados- hasta investigar la causa del error y prevenir que vuelva a ocurrir de nuevo.
“Si bien hemos realizado mejoras en nuestra IA, sabemos que no es perfecta y tenemos más avances que hacer”, admitió la compañía estadounidense.
Rediseño página de ‘Ajustes’
Con el objetivo de simplificar la búsqueda de las herramientas de configuración que contiene, con nuevas categorías y ubicaciones para opciones que hasta ahora estaban de forma independiente, Facebook rediseñó la página de Ajustes.
El rediseño de los Ajustes se ha organizado en torno a seis grandes categorías: Cuenta, Preferencias, Audiencia y visibilidad, Permisos, Tu información, y Estándares de la comunidad y políticas legales. Cada una de ellas acoge varias herramientas de configuración.
El cambio, además, supone la recolocación de algunas opciones de configuración. La compañía cita como ejemplo los ajustes del tablón de noticias (‘Newsfeed’), que hasta ahora estaban en una categoría independiente, pero se han incorporado a Preferencias.
La nueva distribución se acompaña de una búsqueda simplificada para localizar aquellos ajustes que el usuario no tiene claro dónde se encuentran ni cuál es el nombre que tienen. Por ello, han renombrado algunas herramientas, para hacerlas más intuitivas.
Para acceder a las herramientas de Seguridad y Privacidad, la compañía ha creado un acceso directo a la Verificación de privacidad, que se encuentra en la parte superior de la página de inicio de los Ajustes de configuración.
Estos cambios se han implementado este miércoles en todas las versiones de Facebook (iOS, Android, web móvil y Lite).
Por otra Facebook está investigando la forma de analizar los datos protegidos por encriptación sin desencriptarlos, un trabajo para el que ha formado un equipo de investigadores y que permitiría segmentar la publicidad a partir de los mensajes de WhatsApp.
La compañía tecnológica se ha adentrado en la investigación de lo que se conoce como ‘criptografía homomórfica’, un tipo de cifrado que que evita las potenciales fugas información al no necesitar desencriptar los datos o carecer de la clave que los desencripta.
Según explica la Agencia Española de Protección de Datos, se trata de “una técnica que permite realizar operaciones sobre los datos cifrados y obtener resultados, también cifrados, equivalentes a las operaciones realizadas directamente sobre la información original”.
Este tipo de cifrado se indica como idóneo para datos de tipo médico o financieros, con sobre él ya trabajan empresas como Microsoft, Google y Amazon, y también Facebook, como ha señalado The Information.
En concreto, y como han indicado fuentes al medio citado, Facebook está formando un equipo de investigadores en inteligencia artificial para que se centren en la criptografía homomórfica, para lo que cuenta con un antiguo trabajador de Microsoft.
El fin de estos trabajos sería dirigir anuncios basados en mensajes cifrados en WhatsApp, o cifrar los datos que recopila sobre millones de usuarios sin que esto afecte a las capacidades de los anuncios dirigidos.
*Con información de Europa Press