La diligencia debida de las plataformas digitales: hacia un nuevo estándar de responsabilidad por diseño

El reciente veredicto de un jurado en Los Ángeles contra Meta Platforms y Google marca un punto de inflexión en la evolución de la responsabilidad jurídica de las grandes plataformas digitales. Más allá de la cuantía indemnizatoria o de su eventual revisión en apelación, lo verdaderamente relevante es el criterio jurídico que subyace: la posible configuración de un deber de diligencia reforzada en el diseño y funcionamiento de productos digitales dirigidos —o accesibles— a menores.

Perfil de la Empresa: Meta Platforms, Inc.

  • Fundadores: Mark Zuckerberg, Eduardo Saverin, Andrew McCollum, Dustin Moskovitz, Chris Hughes
  • Año de Fundación: 2004
  • Sede Central: Menlo Park, California, EE. UU.
  • Valoración (Market Cap): > $1.2 Billones (Trillion) USD (a fecha de 2024)
  • Inversores Clave (Iniciales): Accel, Breyer Capital, Peter Thiel
  • Enlaces: Web Oficial | LinkedIn | X (Twitter)

Perfil de la Empresa: Google (Alphabet Inc.)

  • Fundadores: Larry Page, Sergey Brin
  • Año de Fundación: 1998
  • Sede Central: Mountain View, California, EE. UU.
  • Valoración (Market Cap de Alphabet): > $2 Billones (Trillion) USD (a fecha de 2024)
  • Inversores Clave (Iniciales): Sequoia Capital, Kleiner Perkins
  • Enlaces: Web Oficial | LinkedIn | X (Twitter)

1. De la neutralidad tecnológica al deber de cuidado

Durante años, las plataformas han construido su defensa sobre la idea de neutralidad: no crean el contenido, sino que lo alojan o distribuyen. Este argumento, reforzado en Estados Unidos por la Sección 230 de la Communications Decency Act, ha limitado significativamente su responsabilidad.

Sin embargo, el caso introduce un desplazamiento conceptual clave: la responsabilidad no deriva del contenido, sino del diseño del sistema. Elementos como el scroll infinito, los algoritmos de recomendación o los sistemas de notificaciones dejan de ser funcionalidades neutrales y pasan a ser evaluados como decisiones de ingeniería con impacto directo en el comportamiento del usuario.

Desde esta perspectiva, el estándar aplicable se aproxima al de la responsabilidad por producto defectuoso o diseño negligente: si el sistema está concebido de forma que maximiza la adicción o el tiempo de uso sin considerar adecuadamente los riesgos para colectivos vulnerables, puede entenderse que existe una falta de diligencia debida.

2. La diligencia debida como obligación de diseño (duty of care by design)

El elemento más relevante del caso es la consolidación de una idea que ya venía desarrollándose en el ámbito europeo: la diligencia debida no es solo reactiva, sino estructural.

Evolución del Estándar de Responsabilidad Digital

 

Neutralidad (Safe Harbor)

 

Moderación Activa

 

Diseño Responsable (Duty of Care)

El nivel de exigencia legal se desplaza de la gestión de contenidos a la arquitectura fundamental del producto.

En la Unión Europea, normas como el Digital Services Act ya imponen obligaciones específicas a las plataformas muy grandes (VLOPs), incluyendo:

  • Evaluaciones de riesgos sistémicos (incluidos los efectos sobre menores).
  • Medidas de mitigación frente a adicción, desinformación o daño psicológico.
  • Mayor transparencia algorítmica.
  • Protección reforzada de menores como categoría especialmente vulnerable.

Este enfoque puede resumirse en una idea: compliance by design. No basta con retirar contenidos ilícitos; es necesario diseñar sistemas que no generen daños previsibles. El caso estadounidense, aunque en un marco jurídico distinto, parece converger hacia esta misma lógica.

3. El diseño adictivo como fuente de responsabilidad

Uno de los puntos más delicados es la calificación jurídica del denominado “diseño adictivo”. Tradicionalmente, la adicción se ha asociado a sustancias o conductas específicas. Sin embargo, en el entorno digital, las plataformas operan mediante sistemas de refuerzo conductual (dopamina, recompensas variables, personalización extrema) que pueden generar patrones de uso compulsivo, especialmente en menores.

Desde un punto de vista jurídico, esto abre varias vías:

  • Negligencia por omisión de advertencia: no informar adecuadamente de los riesgos.
  • Negligencia por diseño: crear sistemas que explotan vulnerabilidades cognitivas.
  • Responsabilidad agravada: cuando el público objetivo incluye menores.

El salto cualitativo es evidente: ya no se trata de lo que ocurre en la plataforma, sino de cómo la plataforma está diseñada para que eso ocurra.

4. Menores como sujetos de protección reforzada

El factor decisivo en este tipo de litigios es la condición de menor del usuario afectado. En prácticamente todos los sistemas jurídicos, los menores son considerados sujetos especialmente vulnerables, lo que implica un estándar de diligencia más elevado, un mayor deber de previsión del daño y una menor tolerancia a riesgos derivados del diseño del producto.

Esto conecta con tendencias regulatorias globales, como el Age Appropriate Design Code en Reino Unido o iniciativas legislativas en Estados Unidos y la UE. En este contexto, permitir —o fomentar— un uso intensivo mediante técnicas de captación de atención puede interpretarse como una vulneración de ese deber reforzado de protección.

Cronología: Hitos en la Responsabilidad de las Plataformas

 

1996: Nace el «Safe Harbor»

Se aprueba la Sección 230 de la Communications Decency Act en EE. UU., otorgando a las plataformas inmunidad por el contenido publicado por terceros.

 

2020: El Código de Diseño para Menores

Entra en vigor en Reino Unido el Age Appropriate Design Code, el primer marco regulatorio centrado en el diseño de servicios digitales para proteger a los niños.

 

2022: La Ley de Servicios Digitales (DSA)

La Unión Europea adopta la DSA, imponiendo obligaciones de evaluación de riesgos y mitigación a las grandes plataformas (VLOPs), con un foco especial en menores.

 

2024: El Veredicto de Los Ángeles

Un jurado estadounidense sienta un precedente al considerar la responsabilidad de las plataformas no por el contenido, sino por el diseño adictivo de sus productos.

5. Implicaciones: del “safe harbor” al “safe design”

Si esta línea jurisprudencial se consolida, podríamos estar ante un cambio estructural: de la inmunidad por contenido (safe harbor) a la responsabilidad por arquitectura (safe design). Las plataformas ya no serán evaluadas únicamente por lo que alojan, sino por cómo están construidas.

Implicaciones Clave: Del «Safe Harbor» al «Safe Design»

  • Cambio de Paradigma: La responsabilidad se traslada del contenido de terceros a la arquitectura y diseño del sistema.
  • Aumento de Litigios: Se abre la puerta a demandas por daños psicológicos o conductuales derivados del «diseño adictivo».
  • Auditorías Obligatorias: Las empresas necesitarán auditar sus algoritmos y diseños para evaluar y mitigar riesgos, especialmente para menores.
  • Nuevos Estándares: Impulso al desarrollo de estándares técnicos y legales sobre «diseño responsable» y «compliance by design».

6. Conexión con la jurisdicción de internet y la ley digital

Desde la perspectiva de la jurisdicción de internet, este caso refuerza una idea central: el código no es neutral. Las plataformas no son meros intermediarios, sino verdaderos arquitectos normativos que configuran conductas, incentivos y resultados. Actúan como legisladores de facto dentro de sistemas digitales cerrados.

La consecuencia es clara: si el código es ley, el diseño del código implica responsabilidad jurídica. Y en ese punto, la diligencia debida deja de ser una obligación externa para convertirse en un elemento interno del propio sistema: una capa jurídica que, idealmente, debería integrarse en el diseño tecnológico desde su origen.

Por Ignacio Ferrer-Bonsoms, abogado digital, https://bacsociety.com/

spot_img