

Con una base de 2 mil millones de usuarios, las directrices de contenido de Facebook han experimentado múltiples modificaciones a lo largo del tiempo. Sin embargo, un elemento constante ha sido la escasa participación de los usuarios en lo que ocurre después de seleccionar la opción “reportar” -hasta este momento.
Facebook ha comunicado recientemente su intención de extender el procedimiento de apelación, lo que posibilitará a los usuarios de la plataforma solicitar de manera oficial que se revise nuevamente una decisión tomada por la red social en relación a un contenido específico.
La compañía también comparte un nuevo conjunto de reglas comunitarias actualizadas, que ofrece una visión más detallada de sus políticas y su implementación.
Los cambios se producen en un momento en el que Facebook busca mejorar la transparencia en relación con diversas políticas, después de recibir críticas sobre la gestión de la privacidad de los datos y otros asuntos.
En lo que respecta a las normas de la comunidad, una de las principales críticas que recibe la compañía es la falta de opciones para los usuarios que consideran que Facebook ha tomado una decisión incorrecta.
En el próximo año, Facebook planea ampliar su sistema de apelaciones para que esté disponible para un mayor número de usuarios. En un principio, esto implica que aquellos cuyo contenido haya sido eliminado por infringir las normas de la empresa sobre discurso de odio, desnudez, actividad sexual y violencia podrán solicitar a Facebook que revise la decisión. Posteriormente, Facebook también permitirá apelaciones en situaciones donde se haya informado sobre contenido sin que este haya sido eliminado.
Monika Bickert, Vicepresidenta de Política de Productos de Facebook, menciona que, debido a la magnitud de la plataforma, se requiere un sistema de apelaciones más sólido.

“Con una gran cantidad de informes semanales, aunque mantengas una precisión del 99 por ciento, seguirás cometiendo muchos errores”, explicó. “Ofrecer las apelaciones fue una forma de expresar que queremos asegurarnos de que tengas una voz. Se trata de capacitar a los miembros individuales de nuestra comunidad para que se hagan escuchar”.
La compañía asegura que los comentarios serán revisados por moderadores humanos en lugar de herramientas de inteligencia artificial, y que se completará el proceso en un plazo de 24 horas. Además, los usuarios recibirán una notificación si su comentario es restablecido tras la revisión.
Esta ampliación es importante porque antes los recursos de apelación solo estaban disponibles para aquellos cuyos perfiles, páginas o grupos habían sido eliminados, lo que implicaba que la mayoría de las decisiones diarias sobre publicaciones individuales no podían ser revisadas fácilmente por otra persona.
Los mismos criterios, pero con mayor nivel de especificidad.
En adición, Facebook se encuentra en proceso de clarificar sus políticas actuales mediante un nuevo conjunto de directrices comunitarias. Estas directrices ofrecen información detallada sobre las normas de Facebook que antes solo estaban disponibles para los moderadores de contenido de la compañía.
Aunque las políticas en cuestión no son novedosas, los usuarios de Facebook ahora tienen la oportunidad de observar cómo la plataforma aplica sus políticas generales en situaciones concretas. Por ejemplo, la política de la empresa respecto al contenido de autolesiones ha sido ampliada de 88 a 397 palabras, y su política sobre amenazas de violencia ha aumentado de 62 a 535 palabras.
Según Mary deBree, la responsable de la política de contenido en Facebook, el objetivo del documento es representar con precisión todo lo que se encuentra en el ámbito interno.
El desafío para Facebook radica en determinar si la implementación de estos nuevos estándares publicitarios influirá en la percepción de los usuarios sobre sus políticas. Es probable que la mayoría de los 2 mil millones de usuarios de Facebook no hayan leído detenidamente sus normas comunitarias, y extenderlas considerablemente probablemente no los motive a hacerlo ahora.
Sin embargo, al proporcionar una explicación más detallada, la empresa podría influir en algunos de sus críticos más severos, quienes argumentarían que carece de un historial sólido en la implementación de sus políticas.
Las recientes directrices llegan en un momento en el que la desconfianza y la insatisfacción hacia la compañía están en niveles elevados constantemente. Al mismo tiempo, las políticas de contenido son más coherentes que nunca, sobre todo al expandirse la red social hacia nuevos mercados donde Facebook es prácticamente sinónimo de Internet.
En estas regiones, las decisiones de Facebook acerca de qué contenido permitir pueden tener consecuencias más graves que en Estados Unidos y otros países donde hay otras fuentes de información accesibles.
Durante el pasado fin de semana, The New York Times publicó un artículo detallado que describe las graves repercusiones de la falta de acción por parte de Facebook para detener el contenido que promueve el odio y la violencia.
Resolver estas problemáticas no se limitará a simplemente incluir más apelaciones o difundir un gran número de directrices de contenido. Según Facebook, ha incrementado su equipo de revisores de contenido a 7.500, lo que representa un aumento del 40% con respecto al año anterior.
Al dar estos pasos, Facebook está logrando algo que anteriormente no había podido hacer: permitir a los usuarios responsabilizar a la empresa por sus decisiones.
Medios sociales

Karissa es una periodista especializada en tecnología con sede en San Francisco, que se enfoca en cubrir temas relacionados con redes sociales, Silicon Valley y el impacto de la tecnología en nuestra vida diaria. Su trabajo ha sido publicado en varias revistas y sitios web importantes. En su tiempo libre, disfruta del snowboard y de ver videos de gatos en Instagram. Puedes seguirla en Twitter como @karissabe.





