SEMANA: ¿Qué hechos críticos llevaron a Facebook a crear el consejo que modere contenidos? Catalina Botero: Hay dos casos muy importantes. El primero fue el de un exministro europeo que publicó la famosa foto de la niña que corre en Vietnam tras un bombardeo de napalm. Esa foto icónica muestra el horror de la guerra y tuvo un impacto enorme… Pero la niña está desnuda y Facebook la sacó porque el desnudo viola sus políticas de prohibición de pornografía infantil. Absurdo. El segundo fue al revés: se mantuvo un contenido nocivo. Ocurrió en Myanmar y fue gravísimo. Allá difundieron discursos de odio contra una población que estaba siendo brutalmente asesinada. Esos discursos circularon en la plataforma y se volvieron una espiral de justificación de la violencia. Hay otros muchos casos que han generado enorme polémica. Debido a eso, a finales de 2018 Mark Zuckerberg anunció que iba a adoptar un modelo distinto de regulación.
SEMANA: ¿Qué alcance tiene el consejo y quiénes lo integran? C.B.: Estará conformado por 40 personas, hasta ahora van 20 escogidas. Hay gente de todas las ideologías y de distintas disciplinas. Somos cuatro copresidentes que, además del tema esencial de moderar los contenidos, tenemos roles de gestión, administración y supervisión. SEMANA: Tratándose de una iniciativa de Zuckerberg, dueño de Facebook, ¿qué tanta independencia tienen? C.B.: Es un consejo independiente, transparente y diverso. La selección de los copresidentes y los miembros que van se dio tras consultas con cerca de 2.000 personas en todo el mundo. No somos empleados de Facebook, la compañía no nos paga ni nos puede despedir. Los recursos están asegurados en una fiducia de 130 millones de dólares irrevocable. Esa plata ya no es de Facebook. La fiduciaria administra el dinero para que dure seis años. Además, Facebook se comprometió a atender las decisiones del Consejo y el costo reputacional de eso es muy alto.
SEMANA: Facebook tiene 2.400 millones de usuarios e Instagram 1.000 millones. ¿Es realmente posible controlar tal volumen y velocidad de contenidos? C.B.: La apuesta es por encontrar un equilibrio entre la libertad de expresión y los derechos humanos. El consejo se ocupará de los casos más graves y emblemáticos. No nos ocuparemos de los mensajes directos, como WhatsApp o Messenger. Si la gente considera que un contenido de Facebook no debe estar en la plataforma tiene la opción de denunciarlo. Luego, si no se está de acuerdo con la decisión que tomó Facebook, entonces se acude al consejo, que tendrá 90 días para decidir. Pero también existe la opción de atender casos de manera expedita, Facebook puede solicitarle eso al consejo. SEMANA: ¿De haber existido este consejo antes no se habría presentado el fenómeno de Cambridge Analytica? C.B.: En Cambridge Analytica hubo dos componentes. El primero relacionado con identificación de audiencias acumulando datos personales, nosotros no tenemos que ver con esa dimensión. Facebook tiene la obligación de proteger al máximo los datos de sus usuarios y esa responsabilidad no se traslada al consejo. El segundo componente tiene que ver con que una vez Cambridge Analytica tuvo perfiladas las audiencias empezó a enviar mensajes políticos por la plataforma para desestimular a los votantes de Hillary Clinton o para enardecer a los de Trump. Ese tipo de contenidos específicos, llamados contenidos orgánicos, pueden ser objeto de un caso para el consejo.
SEMANA: Las fake news son un problema complejo. ¿Cómo determinarán qué es información falsa y qué no? C.B.: Facebook tiene un equipo externo de verificación, los fact-checking. Mucha información pasa por ahí. Pero supongamos que es una información que además escala al consejo. El Derecho Internacional de los DD. HH. no prohíbe las noticias falsas por su simple falsedad. Lo que sí prohíbe son las noticias falsas que generen un daño desproporcionado sobre otro derecho humano. Hay que evitar ese daño. No importa si el alcance de una noticia o de un contenido es local o internacional. Lo relevante es el daño que pueda causar y sobre eso es que el consejo actuará. No seremos una policía de la verdad. SEMANA: ¿A qué se refiere cuando dice que no serán ‘la policía de la verdad’? C.B.: Quiero decir que el criterio que el consejo va a usar no es el de evaluar si la noticia es falsa o verdadera. Eso es muy difícil porque hay distintas maneras de ver el mundo, porque las opiniones no son ni falsas ni verdaderas, porque la sátira no se puede ubicar en ese escenario y porque además no todas las mentiras generan daño. No se trata de rotular la información entre verdadera y falsa y sacar esta última. Hacer eso en una red social sería gravísimo. Se trata de evitar que cierta información produzca un daño sustancial sobre los derechos de otras personas, algo que no es admisible por el Derecho Internacional de los DD. HH.
SEMANA: Facebook es la red más robusta, pero no la única. ¿Qué se puede hacer para lograr moderación en tantas otras como Twitter? C.B.: Creo que este es un buen modelo, supongo que las otras plataformas van a ver cómo funciona. Es un experimento interesante, raro y arriesgado. Si funciona bien creo que con adecuaciones las distintas plataformas lo podrán adoptar. Lo más parecido a esto son los consejos editoriales de los medios serios y la figura del ombudsperson, que regula como independiente.