Silicon Valley tiene un dilema con el control de los contenidos

Puede convenirle una solución intermedia como la que propone IBM

Dos usuarios de ordenador, con el logotipo de YouTube de fondo.
Dos usuarios de ordenador, con el logotipo de YouTube de fondo.

Instagram tardó horas en eliminar las espeluzantes fotos del cuerpo de Bianca Devins, una joven asesinada a principios de julio en EE UU. En marzo, se acusó a YouTube, Twitter y Facebook de tardar demasiado en eliminar el vídeo de un tiroteo en una mezquita de Nueva Zelanda, y otros contenidos que lo promovían. En EE UU no hay consecuencias legales para las empresas cuyas plataformas se usan para difundir un contenido tan perturbador.

Eso es gracias a una disposición de aprobada hace 23 años por el Congreso conocida como Sección 230. Cada vez recibe más ataques, no solo por parte de legisladores preocupados por el creciente poder de Silicon Valley, sino incluso desde dentro: IBM es una de las últimas que ha llamado a reevaluar su uso. Pero eliminarla por completo tampoco resolvería el problema. “Sección 230” se refiere simplemente a su lugar en la Ley de Decencia en las Comunicaciones de 1996, y se diseñó para abordar un incentivo perverso generado por dos procesos legales a principios de la década.

Uno determinó que CompuServe no tenía ninguna responsabilidad por nada de su plataforma, ya que era simplemente un distribuidor de contenido y no lo moderaba. En el otro, Prodigy fue considerada responsable, ya que vigilaba material de terceros. El mensaje, en otras palabras, era que para las empresas era mejor hacer la vista gorda, incluso si, por ejemplo, se encontrara pornografía infantil en sus plataformas.

Así que el Congreso creó la Sección 230 para dar protección legal a lo que denominó servicios informáticos interactivos si publicaban contenido ofensivo de terceros, y si eliminaban cierto material, como comentarios que promovieran la violencia. La ley establece también que un proveedor de un servicio informático interactivo no será tratado como editor de contenido de terceros. El senador demócrata Ron Wyden, que ayudó a escribir la Sección 230, la describió como un “escudo” tanto como una “espada”.

Ahora, IBM quiere que las amplias protecciones de la Sección 230 se limiten, pero solo un poco. El jefe de regulación de la compañía, Ryan Hagemann, señaló a principios de julio que la disposición debe actualizarse para devolver más responsabilidad de la supervisión a las plataformas.

Uno de los enfoques que propone IBM es introducir un estándar de “precaución razonable”. Esto, según el argumento, garantizaría que una empresa hiciera esfuerzos de buena fe para eliminar material cuestionable generado por los usuarios lo más pronto posible.

Es verdad que Big Blue no está en el negocio de los contenidos generados por usuarios. Pero la idea es que un cambio rotundo de la Sección 230 podría ir mucho más allá de las plataformas online y hacer responsables también a otros, como las empresas de alojamiento web y de almacenamiento de datos.

Facebook, Twitter y otros portales están mejorando en cuanto a retirar material de grupos como ISIS. Pero sus reglas son a veces poco claras o demasiado laxas. Y suelen ser incapaces de mantenerse al día con la cantidad de contenido que inundan sus plataformas. Unos 4.500 millones de personas usan internet, frente a solo 36 millones en 1996.

Hay otros problemas. Por ejemplo, los algoritmos de YouTube sugieren vídeos similares basados en el historial de visualización de un usuario. Así, vídeos aparentemente inocentes de niños jugando en una piscina pueden ser explotados por los depredadores. La compañía dice que solo en el primer trimestre retiró más de 800.000 videos que violaban las políticas de seguridad infantil, además de desactivar los comentarios y limitar las recomendaciones.

El Congreso de EE UU se ha centrado en cambiar la ley desde que se descubrió la intromisión de Rusia en las elecciones de 2016. Algunos legisladores piden que se establezcan excepciones a la Sección 230 que dejen a las plataformas legalmente expuestas en ciertos temas, como la que se introdujo el año pasado para el contenido sobre tráfico sexual. Podría aplicarse, por ejemplo, a las ventas de opioides. Pero puede enturbiarse: el senador Josh Hawley presentó un proyecto de ley que quiere exigir a los editores de internet con más de 500 millones de dólares en ingresos anuales que se sometan a auditorías externas que demuestren que sus políticas de eliminación de contenido son políticamente neutrales.

Si se da marcha atrás con la Sección 230, una opción es que las empresas vuelvan a confiar en los precedentes judiciales y dejen de moderar el contenido. Sin embargo, lo más probable es que tomen medidas enérgicas. Así que es posible que ya no se permita a la gente publicar libremente blogs, comentarios y otros materiales. Los sitios de internet se convertirían en lugares muy vigilados.

Pero eso cambiaría radicalmente internet. Twitter puede no ser capaz de mantener su modelo de negocio actual. Un portal como Yelp (páginas amarillas con comentarios sobre las empresas) podría desaparecer, junto con Wikipedia, Medium y Reddit. Los gigantes de la tecnología no serían los únicos que sufrirían. Cada servicio online con una sala de chat o sección de comentarios también estaría sujeto a responsabilidad legal: desde sistemas de pago como Venmo hasta plataformas de juego como Steam.

La excepción para el tráfico sexual ya ha tenido efectos. Por ejemplo, Craigslist retiró los anuncios personales. Puede que no parezca un gran cambio, pero cuantas más grietas surjan en la vieja armadura, más cerca estará de desmoronarse. La política ya no tiene paciencia con las tecnológicas, por lo que puede que a estas les convenga apoyar una solución similar a la de IBM en lugar de arriesgarse a ser destruidas por completo.

Los autores son columnistas de Reuters Breakingviews. Las opiniones son suyas. La traducción, de Carlos Gómez Abajo, es responsabilidad de CincoDías

Normas