La empresa matriz de Instagram y Facebook dijo el martes que ya no utilizará un sistema de verificación de datos de terceros para su plataforma en Estados Unidos. Más bien, durante los próximos meses, Meta pasará a un sistema de verificación de datos modelado a partir del sistema de Notas de la comunidad utilizado por X de Elon Musk, anteriormente conocido como Twitter. Las Notas de la comunidad permiten a los usuarios agregar contexto a publicaciones potencialmente engañosas.
Además, la compañía dijo que relajará las restricciones sobre el contenido que trata ciertos temas. En cambio, la plataforma centrará sus esfuerzos de aplicación de reglas en violaciones ilegales y de alta gravedad de sus políticas de moderación de contenido. Meta dijo que también permitirá que el discurso político se difunda más fácilmente en sus plataformas.
¿Por qué Meta está haciendo todo esto? Meta comenzó a utilizar un sistema de verificación de datos de terceros en 2016, pero dejó en claro que no tenía la intención de ser el árbitro de la verdad, dijo la compañía. La plataforma quería contar con expertos independientes que utilizaran sus conocimientos sobre determinados temas para contrarrestar los engaños virales en línea. Pero esos expertos incorporaron sus propios prejuicios y perspectivas a su trabajo, al tiempo que señalaron contenido que, de hecho, era un discurso legítimo, dijo la compañía. Al hacerlo, provocaron que los sistemas automatizados de Meta etiquetaran erróneamente la voz y redujeran su distribución.
Meta dijo que fue testigo del éxito del enfoque de Notas de la comunidad utilizado por X. Un enfoque de Notas de la comunidad permite que una colección diversa de usuarios de redes sociales brinde contexto sobre diferentes declaraciones, videos y fotos, dijo Meta. Como resultado, los usuarios deberían tener información más completa y menos sesgada sobre lo que ven, dijo la compañía.
En cuanto a sus planes de flexibilizar las restricciones a determinadas expresiones, la empresa admitió que anteriormente había ido demasiado lejos al regular determinados contenidos. La empresa confesó que reguló demasiado contenido y fue dura en la aplicación de sus reglas. En diciembre de 2024, Meta dijo que eliminó aproximadamente el 1% del contenido total publicado en su sitio, lo que equivalía a millones de contenidos diarios. Y aproximadamente uno de cada cinco de esos contenidos no violaba las políticas de moderación de contenido de la empresa, admitió la empresa.
Meta dijo que estaba utilizando sistemas automatizados para buscar todas las violaciones de políticas. Pero centrarse en cada pequeña violación ha resultado en demasiados errores y demasiada censura, afirmó la compañía. Como tal, Meta dijo que ahora rediseñará sus sistemas automatizados para buscar sólo contenido ilegal y violaciones de alto nivel de sus reglas, dijo la compañía. Dicho contenido incluiría material de abuso sexual infantil, estafas, contenido relacionado con el terrorismo y consumo de drogas.