Zuckerberg anunció profundos cambios en la moderación de contenido de Instagram y Facebook
El cofundador de Facebook publicó un texto en el que explica que modificará la manera en que se modera el contenido en Facebook e Instagram, promoviendo el uso de Notas Comunitarias al estilo de X, que publican los propios usuarios para poner en contexto alguna publicación polémica.

El gigante de las redes sociales Meta anunció este martes que cesará su programa de fact-checking (verificación digital) en Estados Unidos, un importante retroceso en sus políticas de moderación de contenido. ”Vamos a eliminar a los fact-checkers (verificadores de contenido) para reemplazarlos por notas comunitarias similares a las de X (antes Twitter), empezando en Estados Unidos”, escribió en las redes el fundador y CEO de Meta, Mark Zuckerberg.
Recibí las noticias en tu email
Accedé a las últimas noticias desde tu emailEste anuncio de Meta repite muchas de las quejas de los republicanos y del dueño de la red X, Elon Musk, sobre los programas de verificación de hechos que muchos conservadores consideran una censura. Musk sostuvo que “las recientes elecciones (del 5 de noviembre) se sienten como un punto de inflexión cultural hacia, una vez más, priorizar la libertad de expresión”. Este anuncio de cambio de estrategia ocurre en momentos en que Zuckerberg ha estado haciendo esfuerzos para reconciliarse con el presidente electo de Estados Unidos, Donald Trump, que incluyen una donación de un millón de dólares a su fondo de investidura. El republicano asumirá en la Casa Blanca el 20 de enero.
Según Joel Kaplan, el flamante jefe de asuntos globales dentro de Meta, “en los últimos años hemos desarrollado sistemas cada vez más complejos para gestionar el contenido en nuestras plataformas, en parte como respuesta a la presión social y política para moderar el contenido. Este enfoque ha ido demasiado lejos. Por muy bien intencionados que hayan sido muchos de estos esfuerzos, se han ampliado con el tiempo hasta el punto en que cometemos demasiados errores, frustramos a nuestros usuarios y, con demasiada frecuencia, obstaculizamos la libre expresión que nos propusimos permitir. Se censura demasiado contenido inofensivo, demasiadas personas se encuentran encerradas por error en la “cárcel de Facebook” y, a menudo, somos demasiado lentos para responder cuando lo hacen.” Y agregó en el comunicado: “Por ejemplo, en diciembre de 2024, eliminamos millones de contenidos todos los días. Si bien estas acciones representan menos del 1% del contenido producido cada día, creemos que una o dos de cada 10 de estas acciones pueden haber sido errores (es decir, es posible que el contenido en realidad no haya violado nuestras políticas). Esto no tiene en cuenta las acciones que tomamos para hacer frente a ataques de spam adversarios a gran escala. Planeamos ampliar nuestros informes de transparencia para compartir cifras sobre nuestros errores de forma regular para que la gente pueda seguir nuestro progreso. Como parte de eso, también incluiremos más detalles sobre los errores que cometemos al aplicar nuestras políticas de spam.”