WASHINGTON - La Corte Suprema de Estados Unidos sentó este miércoles en el banquillo a Twitter para estudiar si la empresa de Elon Musk es responsable de ayudar a instigar un atentado terrorista al no eliminar correctamente contenido publicado por organizaciones como ISIS.
La red social fue denunciada junto con Facebook y Google (como dueña de YouTube) por la familia del jordano Nawras Alassaf, quien murió el 1 de enero de 2017 en un club nocturno en Estambul, Turquía, a manos de Abdulkadir Masharipov, un terrorista que irrumpió en el lugar y asesinó a 39 personas.
Recibe las noticias locales y los pronósticos del tiempo directo a tu email. Inscríbete para recibir newsletters de Telemundo Colorado aquí.
Los denunciantes argumentan que puesto que la organización terrorista utiliza estas plataformas "para reclutar miembros, emitir amenazas terroristas, difundir propaganda, infundir miedo e intimidar a la población civil", las compañías tecnológicas fueron responsables de instigar este atentado.
EL CASO SE BASA EN UNA DEMANDA POR LA MUERTE DE UN HOMBRE EN EL ATAQUE EN UN CLUB NOCTURNO EN ESTAMBUL EN EL 2017
En su opinión, brindaron así apoyo material a ISIS al proporcionar la infraestructura y los servicios que le permiten "promover y llevar a cabo sus actividades terroristas", al no monitorear y eliminar de manera proactiva el contenido terrorista.
Los denunciantes se abrazan a la Ley Antiterrorista (ATA) y a la Ley de Justicia contra los Patrocinadores del Terrorismo (JASTA), que permiten a las víctimas del terrorismo presentar demandas de responsabilidad primaria y secundaria contra cualquier entidad que ayude a un acto terrorista.
Los jueces de la Corte Suprema tendrán que dirimir si, según la Ley Antiterrorista, se puede considerar que las plataformas de redes sociales que alojan contenido de usuarios han ayudado e instigado un acto de terrorismo internacional por su supuesta falla a la hora de filtrar y eliminar suficientemente el contenido publicado por organizaciones terroristas.
En la vista de este miércoles, el abogado de Twitter, Seth Waxman, centró su defensa en que no hacer todo lo posible para hacer cumplir las reglas y políticas de Twitter que prohíben este tipo de contenido "no equivale a la provisión consciente de asistencia sustancial" a los proveedores de los contenidos violentos.
"Si el jefe de policía de Estambul hubiera venido a Twitter diciendo 'hemos estado siguiendo tres cuentas y estas personas parecen estar planeando algún tipo de acto terrorista' y Twitter no lo hubiera investigado, en ese caso habríamos asumido la culpabilidad", relató.
La tecnológica de Elon Musk asegura que el hecho de que ISIS haya utilizado la plataforma no constituye una asistencia "consciente", una postura que comparte la administración de Joe Biden.
Según el procurador general adjunto Edwin Kneedler, representante del gobierno, la empresa no puede ser considerada responsable en virtud de la Ley Antiterrorista porque el Congreso se aseguró de que esta ley "no tenga un alcance tan amplio como para inhibir actividades legítimas e importantes de empresas, organizaciones benéficas y otros", apuntó en su intervención.
Pero en opinión de varios de los jueces de la Corte Suorema, Twitter "sabía todo eso y no hizo nada al respecto", apuntó la magistrada progresista Elena Kagan.
"¿Cómo se puede decir que Twitter no brindó asistencia sustancial?", preguntó la jueza, quien aseguró que la red social "está ayudando al brindar servicio a aquellas personas con el conocimiento explícito de que esas personas lo están utilizando para promover el terrorismo".
Según explicaron a la prensa tras la vista los abogados de la familia de Nawras Alassaf, la denuncia busca acabar con la "inmunidad de las redes sociales", apuntó la letrada Nitsana Darshan-Leitner.
"Cada ataque terrorista comienza y termina en las redes sociales, que han sido inmunes durante demasiados años. Permitieron que las organizaciones los usaran como una herramienta (...), pero las redes sociales tienen responsabilidad social y tienen que cuidar todo el contenido de Internet", añadió.
La sesión de este miércoles se celebró un día después de que la Corte Suprema sentara en el banquillo a Google para evaluar si es responsable de las recomendaciones que sus algoritmos hacen a sus usuarios, en un caso con implicaciones en la libertad de expresión.
Google, propietaria de Youtube, fue denunciada por la familia de Nohemi González, una estadounidense de 23 años de origen mexicano y asesinada en París en los atentados de noviembre de 2015 de ISIS, que mataron en total a 130 personas.
En opinión del también abogado Keith Altman, "es fundamental" que la Corte Suprema analice los dos casos y que "trate de brindar alguna orientación". "Se trata de pedirles a las empresas que actúen de manera razonable y responsable en la forma en que administran su contenido y no simplemente decir, bueno, no hay nada que puedan hacer al respecto", apuntó.
La del martes fue la primera vez que la máxima instancia judicial estadounidense analizó la sección 230 de la Ley de Decencia de las Comunicaciones, aprobada en 1996, cuando internet se encontraba en sus albores, y que blinda a las plataformas frente a las demandas que las tratan como responsables de la información suministrada por otra fuente.
En ambos casos, la decisión de la Corte Suprema, de mayoría conservadora, no llegará hasta el verano y su fallo podría tener repercusiones en la forma en la que funciona internet.