Facebook lanza 'botón de contexto' para combatir la desinformación

Facebook ofrecerá información sobre los editores de las noticias que se publiquen en la red social. La idea de la popular red es brindar información detallada sobre la fuente de la información apoyándose en entradas de Wikipedia, según explica el sitio especializado "TechCrunch". Es así que empezó las pruebas del botón 'i'.

El estudio de resultados del 'botón de contexto' inició el pasado jueves, según indica Facebook en su blog. Aparece en los enlaces compartidos en el News Feed y despliega un panel informativo con la mencionada entrada de Wikipedia sobre el editor y un enlace al perfil completo para ayudar a los usuarios a identificar si la fuente es fiable.

En caso la fuente carezca de un perfil en Wikipedia, dicho espacio aparecerá vacío. Esto sería un primer indicativo sobre la legitimidad de la fuente y si puede ser considerado como un editor honesto.

"La gente nos ha dicho que quiere más información sobre lo que está leyendo", dice Sara Su, gerente de producto de Facebook en declaraciones a "TechCrunch". "Ellos [los usuarios] quieren mejores herramientas para ayudarles a entender si un artículo es de un editor en el que confían y evaluar su la historia sí es creíble", añade.

Basado en lo dicho por Su, la nueva herramienta también muestra la página de Facebook del editor de noticias, así el enlace analizado haya sido compartido por un tercero, datos sobre cómo el enlace es compartido dentro de la red social y un botón para seguir a la página en la red social de la fuente.

Por otra parte, el 'botón de contexto' revelará artículos relacionados en todos los enlaces compartidos, ya no de forma exclusiva en las noticias populares o bajo sospecha de ser noticias falsas como Facebook estuvo promocionando hasta ahora.

Facebook

El estudio de resultados del 'botón de contexto' inició el pasado jueves. (Foto: Facebook)

El estudio de resultados del 'botón de contexto' inició el pasado jueves. (Foto: Facebook)

Facebook

A la vez, tendrá un espacio para explicar si el artículo en cuestión forma parte de un tema que es tendencia.

Como es evidente, esta prueba es la más reciente acción de la empresa de Mark Zuckebrerg para garantizar la integridad de las noticias compartidas en Facebook. Según dice Su, a más información que se ofrece se crean más vectores potenciales para la desinformación.

"Este trabajo refleja la retroalimentación de nuestra comunidad, incluyendo editores que colaboraron en el desarrollo de funciones como parte del Facebook Journalism Projetc", dice.

Ante la posibilidad de que Facebook recurra a entradas en Wikipedia que puedan haber sido alteradas y volver a 'pecar' en ofrecer desinformación, un portavoz de la red social afirma que esa clase de eventos desafortunados son muy raros y solucionados de forma rápida.

"El vandalismo en Wikipedia es un evento raro y desafortunado que normalmente se resuelve rápidamente. Contamos con Wikipedia para resolver rápidamente estas situaciones y les remitimos a ellos para obtener información sobre sus políticas y programas que abordan el vandalismo".

Mientras que para evitar la distribución de noticias falsas, Facebook explica que los artículos relacionados "serán sobre el mismo tema y serán de una amplia variedad de editores que publican regularmente contenido de noticias en Facebook que obtienen un alto compromiso con nuestra comunidad".

Más noticias de Tecnología en...

Tags Relacionados:

Facebook

Con la tecnología de Blogger.