Twitter, Facebook y Google se aferran a la protección de los usuarios frente al Senado de EEUU
Los jefes de Twitter, Facebook y Google coinciden al menos en una cosa: la ley de inmunidad en la red, que muchos funcionarios electos quieren reformar, no protege solo a las plataformas sino también a los usuarios, incluidas las personalidades políticas.
En la víspera de su audiencia en el Senado de Estados Unidos este miércoles, defendieron la Sección 230 de la Ley de Decencia en las Comunicaciones, que impide acciones legales vinculadas al contenido publicado en la red por terceros.
Esta ley se considera la piedra angular de la libertad de expresión en internet.
Pero para los senadores que convocaron a los jefes, es sobre todo una forma de que las plataformas no asuman responsabilidades.
La Sección 230 "fomenta la expresión" y "permite que las plataformas moderen el contenido", afirma Mark Zuckerberg, director de Facebook, en el discurso que está previsto que lea ante el Comité de Comercio del Senado.
Sin esta ley, las plataformas censurarían más contenido y se expondrían a demandas por eliminar mensajes que inciten al odio o la violencia, argumenta.
"No creo que nadie en esta sala o el pueblo estadounidense quiera menos libertad de expresión o más acoso en línea", señalará en su intervención Jack Dorsey, fundador de Twitter.
Esta comparecencia llega menos de una semana antes de las elecciones del 3 de noviembre. Los gigantes tecnológicos reciben críticas, especialmente desde la izquierda, por no hacer el papel de moderador y por dejar pasar demasiado contenido racista, violento o insultante.
"Bebé" Trump
En el lado contrario, muchos conservadores estadounidenses los acusan, sin pruebas tangibles, de favorecer al campo demócrata.
En junio, el gobierno y los funcionarios electos se movilizaron para convertir la ira de Donald Trump hacia Silicon Valley en una reforma de la Sección 230.
El presidente del Comité de Comercio del Senado, el republicano Roger Wicker, ha propuesto una ley que erosionaría la inmunidad de las plataformas, obligándolas a demostrar "el carácter razonable y objetivo" de su decisión cuando eliminan contenido.
"Al menor tuit marcado como falso, Trump llora como un bebé", comenta Hany Farid, especialista en plataformas de UC Berkeley. "¡Las redes están dominadas por voces conservadoras!".
"Deberían tener cuidado con lo que quieren, porque sin la Sección 230 todos estos racistas, homófobos, xenófobos e islamófobos serían expulsados de las plataformas", continúa.
Este investigador, que declaró en el Congreso sobre el artículo 230, apoya la reforma de la ley, pero por motivos muy distintos a los de la derecha.
Farid culpa a las redes sociales por su "negligencia", que, según él, condujo a la violencia en el mundo real, como las masacres en Birmania, e interferencias en las elecciones estadounidenses de 2016 y en otros lugares.
"En YouTube (Google), el 70% de los videos vistos son 'recomendados'. Entonces estas plataformas son editores, no solo anfitriones, ya que ellos deciden, con sus algoritmos, qué contenido ves", explica.
Monopolios
Facebook y Twitter afirman estar a favor de una mayor transparencia en su proceso de moderación de contenidos. Zuckerberg ha indicado en varias ocasiones que está a favor de regular los mensajes.
El fundador de Facebook está de acuerdo en actualizar la Sección 230 "para asegurarse de que funcione como se esperaba".
Dorsey no va tan lejos y le preocupa que una reforma favorezca los monopolios existentes.
"En determinadas circunstancias, las regulaciones más estrictas pueden fortalecer a las empresas con grandes cuotas de mercado y que cuentan con los recursos para aplicar las nuevas normas a gran escala", advierte, señalando que Twitter tiene menos medios que sus rivales.
Este argumento podría enfadar a sus competidores, como Google, Facebook, Apple y Amazon, en momentos en que estas empresas están acusadas de abuso de su posición dominante.
El razonamiento de Dorsey es compartido por muchos activistas, ya que la Sección 230 también protege a los responsables de foros y blogs de las repercusiones legales sobre el contenido inadecuado de sus usuarios.
Para Shireen Mitchell, integrante del "Real Facebook Oversight Board", un grupo de activistas y académicos que acusa a las plataformas de no hacer lo suficiente contra el contenido polémico, antes de cambiar la Sección 230 deberían ser la redes las que apliquen sus propias regulaciones.
"Si aplicaran sus propias reglas, no tendríamos la mitad de estos problemas", dijo.