Meta asegura que eliminó o marcó como inadecuadas 795.000 publicaciones tras estallar la guerra entre Israel y Hamás

La compañía informó de que suprimió "diariamente siete veces más contenidos por infringir nuestra política de Organizaciones e Individuos Peligrosos, sólo en hebreo y árabe".

Al igual que X (anteriormente Twitter), Meta también plantó cara al terrorismo de Hamás. Según aseguró la compañía propietaria de Whatsapp, Facebook o Instagram, la empresa eliminó o marcó como inadecuadas 795.000 publicaciones que hallaron tras estallar la guerra entre Israel y la agrupación terrorista. Así lo aseguró la propia Big Tech en un comunicado de prensa en el que detalló cómo estaban monitorizando ese contenido:

Desde los atentados terroristas perpetrados por Hamás contra Israel el sábado y la respuesta israelí en Gaza, equipos de expertos de toda nuestra empresa han estado trabajando sin descanso para supervisar nuestras plataformas, protegiendo al mismo tiempo la capacidad de los ciudadanos para utilizar nuestras aplicaciones con el fin de arrojar luz sobre los importantes acontecimientos que se están produciendo sobre el terreno.

Una de las medidas, informó la compañía, se había tomado únicamente para supervisar los contenidos en hebreo y árabe. Sólo en esos idiomas, aseguró Meta, habían suprimido las 795.000 publicaciones de las que notificaron al principio.

Ese material, encontrado entre el 7 y el 10 de octubre, suponía eliminar "diariamente siete veces más contenidos por infringir nuestra política de Organizaciones e Individuos Peligrosos". Para ello, realizaron la siguiente acción, que según detallaron en la nota de prensa, sólo habían realizado en hebreo y en árabe:

Rápidamente establecimos un centro de operaciones especiales con expertos, entre ellos hablantes fluidos de hebreo y árabe, para seguir de cerca y responder en tiempo real a esta situación en rápida evolución. Esto nos permite eliminar más rápidamente los contenidos que infringen nuestras normas o directrices comunitarias, y sirve como otra línea de defensa contra la desinformación.

Otras medidas realizadas por Meta

Además, la Big Tech aseguró que había tomado precauciones adicionales para proteger la identidad de los rehenes. Para ello estaban "ampliando temporalmente" las políticas que mantienen sobre violencia e incitación así como suprimiendo los contenidos que identifican claramente a los rehenes "incluso si se hace para condenar o concienciar sobre su situación". En este aspecto, aseguró Meta, estas eran las acciones que sí permitía la compañía:

Permitimos contenidos con imágenes borrosas de las víctimas pero, en línea con las normas establecidas por la Convención de Ginebra, daremos prioridad a la seguridad y privacidad de las víctimas de secuestro si no estamos seguros o no podemos hacer una evaluación clara.