Censura Big Tech: la sección 230 llega al Tribunal Supremo

El Supremo estudia dos casos que involucran el artículo que exime a las plataformas tecnológicas de la responsabilidad por el contenido que aparece publicado en ellas.

La sección 230 de la Ley de Decencia de las Comunicaciones de 1996 llega al Tribunal Supremo. En concreto, este organismo se encargará de juzgar dos casos que involucran esta medida. El artículo, considerado para muchos esencial para el desarrollo de las compañías tecnológicas, afirma que "ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o hablante de cualquier información proporcionada por otro proveedor de contenido de información".

Con estas palabras, la ley protege a las grandes plataformas tecnológicas (Twitter, Facebook o Instagram, entre otras) de posibles demandas que puedan caerles basadas en el contenido publicado por los usuarios. Es decir, eximen a estas empresas de la responsabilidad por el contenido que aparece publicado en ellas. Hasta ahora. El Tribunal Supremo admitió el recurso de dos casos que podrían cambiarlo todo. Son, además, los primeros casos que obligan a las grandes tecnológicas a presentarse ante esta corte, lo que no había sucedido desde que se creó Internet.

Google, ¿culpada por la matanza del Bataclán?

Gonzalez, Reynaldo y otros contra Google, determinará hasta qué punto se puede culpar a Google por la matanza del Bataclán que tuvo lugar a mediados de noviembre de 2015 en París. Los tribunales inferiores rechazaron la demanda y, ahora, el Supremo, acepta hacerse cargo del caso.

En la demanda, presentada por los familiares de una de las víctimas, Nohemi Gonzalez, alegan que la Big Tech debería asumir parte de la responsabilidad al encontrarse días después vídeos que incitaban a la violencia islamista en YouTube:

Si la Sección 230 [la norma que en principio descarga de responsabilidad a las compañías por los contenidos de sus usuarios] se aplica a estas recomendaciones generadas por algoritmos es de enorme importancia práctica [...]. Los servicios informáticos interactivos dirigen constantemente esas recomendaciones, de una forma u otra, a prácticamente todos los adultos y niños de Estados Unidos que utilizan las redes sociales.

Google intentó defenderse. La compañía argumentó que el único vínculo entre el atacante de París y YouTube fue que uno de los terroristas utilizaba frecuentemente la plataforma y que, en una ocasión, salió en un vídeo de propaganda del ISIS: "Este tribunal no debe adoptar a la ligera una lectura de la sección 230 que amenace las decisiones organizativas básicas del internet moderno".

Las Big Tech, ¿demandadas por presunta complicidad en actos terroristas?

El segundo, Twitter contra Taamneh, se refiere al atentado que tuvo lugar en una discoteca de Estambul en 2016 y que acabó con la vida de 39 personas. Al contrario que en la demanda por lo ocurrido en Bataclán, en esta ocasión, los tribunales inferiores sí que decidieron aceptar el caso. Ellos dictaminaron que Twitter, Facebook y Google deberían asumir alguna responsabilidad por lo ocurrido en el club Reina durante la fiesta de Nochevieja de 2016. Ahora, será el Tribunal Supremo quién dicte sentencia.

Este caso, al contrario que el anterior, no tienen nada que ver con los contenidos recomendados por el algoritmo. Determina si las redes sociales pueden ser demandadas por supuesta complicidad en un acto terrorista. Aquí se intenta delimitar la responsabilidad de estas plataformas cuando han albergado publicaciones de usuarios apoyando a grupos terroristas, aunque no se refieran a un atentado en concreto.

El desarrollo de estos dos casos podrían cambiar Internet tal y como lo conocemos pero, sobre todo, vuelve a poner sobre la mesa el problema que muchos detectan en las Big Tech: la censura.