Meta y YouTube condenados: y ahora qué?
Como reaccionen los legisladores en el mundo marcará la diferencia entre respuestas adecuadas y la vigilancia con censura
Cómo respondan los reguladores determinará si esto es una victoria para todos los usuarios o para los censores de internet.
En menos de 48 horas, dos jurados en Estados Unidos le asestaron un golpe importante a las grandes plataformas tecnológicas. En Nuevo México, un jurado declaró a Meta responsable de violar leyes de protección al consumidor por no proteger a menores de depredadores sexuales en Instagram y Facebook, e impuso una multa de 375 millones de dólares. Un día después, en Los Ángeles, otro jurado determinó que Meta y YouTube fueron negligentes en el diseño de sus plataformas y que esa negligencia contribuyó a los daños en la salud mental de una joven que las usaba desde los seis años. La indemnización inicial fue de 6 millones de dólares entre daños compensatorios y punitivos, una cifra irrelevante para empresas de ese tamaño. Pero el precedente no lo es. Hay una gran cantidad de demandas similares pendientes y varios juicios programados para este año.
Lo que establecieron estos fallos es que las plataformas actuaron con negligencia al priorizar el engagement por sobre la seguridad, y que esa negligencia fue un factor contributivo en los daños. Los jurados no establecieron que las redes sociales causen, por sí solas, depresión, ansiedad o trastornos alimentarios. Establecieron que las empresas conocían los riesgos de sus decisiones de diseño y no hicieron lo suficiente para mitigarlos.
Es un avance positivo. Responsabilizar a las plataformas por sus decisiones de diseño y operación (no por contenido de terceros que no podían haber previsto razonablemente) es una forma de regulación significativa y necesaria. Estoy a favor.
Pero la distinción que trazaron los jurados es precisa, y ya se está perdiendo. En la cobertura mediática y el discurso político, estos veredictos están siendo absorbidos por una narrativa más amplia: que las redes sociales son inherentemente dañinas, adictivas como una sustancia, y deben ser restringidas en consecuencia. La relación entre redes sociales y salud mental adolescente es una pregunta científica genuinamente abierta: hay correlaciones documentadas, pero establecer causalidad directa es otro asunto, y buena parte de la investigación que circula como evidencia definitiva tiene problemas metodológicos serios. Nada de eso cambia el hecho de que Meta ocultó documentación interna y YouTube optimizó el autoplay para maximizar engagement sin importar la edad del usuario. Son bases legítimas de responsabilidad. Pero hay una distancia enorme entre eso y un marco regulatorio que trate a las plataformas como tratamos al tabaco. Si el encuadre pasa de diseño negligente a adicción inherente, las respuestas de política pública que sigan van a ser toscas, expansivas y muy difíciles de contener.
Donde la línea se desdibuja
El caso de Los Ángeles se centró en cómo están diseñadas las aplicaciones, no en el contenido que circula en ellas. Scroll infinito, autoplay, notificaciones constantes, métricas de likes, etc. son decisiones de diseño que las empresas controlan, optimizadas para retener atención. No se trata de lo que publica un usuario sino de los mecanismos que la plataforma construye alrededor de eso. Es una forma sólida de avanzar en la rendición de cuentas de las plataformas sin caer en los problemas de libertad de expresión que generan las regulaciones basadas en contenido.
La complicación son los algoritmos de recomendación. Técnicamente, son decisiones de diseño: la plataforma determina qué información prioriza, con qué criterios, para qué usuarios. Pero a diferencia del autoplay o el scroll infinito, los algoritmos de recomendación son inseparables del contenido. Su función entera es seleccionar y mostrar contenido específico a personas específicas. Responsabilizar a una plataforma por tener scroll infinito es una cosa. Responsabilizarla por lo que su algoritmo recomendó es otra, porque la pregunta pasa a ser inmediatamente: qué contenido, y según el criterio de quién.
Si un jurado puede determinar que un algoritmo que optimizaba para engagement fue negligente porque expuso a un menor a contenido dañino, se abre un conjunto de preguntas sin respuesta. ¿Qué nivel de optimización por engagement se considera seguro? ¿Depende del tipo de contenido recomendado, o todos los temas se tratan igual? Si la respuesta depende de qué se recomendó y no de cómo funciona el sistema, el enfoque centrado en diseño que esquivó los problemas de la Sección 230 y la Primera Enmienda vuelve como un problema de contenido por la puerta de atrás.
Un ejemplo ilustra lo rápido que esto se vuelve incómodo. Un padre reaccionario que se opone a la orientación sexual de su hijo podría demandar a una plataforma argumentando que el algoritmo expuso al menor a “demasiado” contenido LGBT que “influyó” en sus decisiones. La lógica es idéntica a la del caso de Los Ángeles: el diseño del sistema de recomendación expuso al menor a contenido que contribuyó a un daño. Lo único que cambia es quién define el daño. Y en un sistema donde la responsabilidad legal recae sobre la plataforma por lo que su algoritmo recomienda, las empresas no van a esperar a que un jurado lo resuelva. Van a eliminar todo lo que sea remotamente controversial y pueda generar una demanda.
Este es el problema regulatorio central que estos veredictos dejan abierto. La responsabilidad por decisiones de diseño como el autoplay o las notificaciones que maximizan engagement es directa: el mecanismo es el problema, independientemente del contenido. La responsabilidad por algoritmos de recomendación no puede separarse limpiamente de juicios sobre qué contenido es aceptable y cuál no. Los tribunales y legisladores que no tracen esa línea con claridad van a producir regulación represiva, incentivando a las plataformas a suprimir cualquier cosa que implique riesgo legal.
La alternativa que nadie está buscando
Que los algoritmos de recomendación sean problemáticos no significa que la respuesta correcta sea dejar que un jurado, un legislador o la propia plataforma decida qué contenido es apropiado. Significa que la forma en que funcionan estos sistemas debe ser transparente, y que los usuarios deben tener control real sobre ellos.
Transparencia algorítmica significa que las plataformas publiquen los parámetros con los que operan sus sistemas de recomendación, las métricas que optimizan y cómo clasifican el contenido. Control real del usuario significa la posibilidad de optar por timelines no algorítmicos, limitar tipos de contenido, elegir si se quieren recibir recomendaciones y bajo qué criterios. Todo claro, accesible, y no enterrado en menús de configuración que nadie lee.
Este camino carece del atractivo político de una prohibición y del impacto mediático de un veredicto millonario. Pero es el único enfoque que respeta al mismo tiempo la seguridad de los menores, la privacidad de todos los usuarios y la libertad de expresión.
Los jurados en California y Nuevo México resolvieron casos específicos, con evidencia específica, sobre plataformas que ocultaron documentación interna. Eso es legítimo. Lo que no es legítimo es construir sobre esos fallos un régimen donde cualquier decisión de diseño algorítmico o cualquier contenido que alguien considere problemático se convierta en base para una demanda. La distancia entre esos dos escenarios es exactamente el terreno que los legisladores están por recorrer. Qué tipo de internet queda del otro lado depende de que entiendan la diferencia.
