Tecnológicas:

Suscribir

Un tribunal de EEUU dictamina que la IA sin supervisión legal anula el secreto profesional

La irrupción de la inteligencia artificial generativa en el ámbito jurídico ya no es una cuestión teórica. Es una realidad práctica y, como acaba de demostrar un tribunal federal estadounidense, potencialmente peligrosa desde el punto de vista procesal. Una resolución judicial ha sentado un precedente que redefine las fronteras del secreto profesional en la era de la IA.

El Veredicto Clave

Documentos generados por una inteligencia artificial sin la dirección explícita de un abogado no están protegidos por el privilegio abogado-cliente ni por la doctrina del ‘work product’.

La decisión fue dictada el pasado 10 de febrero de 2026 por el juez Jed Rakoff del Tribunal del Distrito Sur de Nueva York (SDNY) en el caso United States v. Heppner. Este fallo, analizado por firmas como A&O Shearman, establece un criterio claro: la tecnología no altera la naturaleza jurídica de los actos, y los principios tradicionales de protección legal siguen vigentes.

El Caso: Cuando el Cliente Usa IA por su Cuenta

En el centro de la disputa se encuentra un procedimiento penal por fraude de valores. El acusado utilizó la herramienta de IA Claude, desarrollada por Anthropic, para generar una serie de documentos relacionados con su estrategia de defensa. Posteriormente, remitió estos archivos a sus abogados, asumiendo que estarían protegidos.

31
Documentos Generados por IA

2
Figuras de Protección Alegadas

La defensa argumentó que los materiales debían considerarse confidenciales bajo el privilegio abogado-cliente o, alternativamente, bajo la doctrina del work product, que ampara los documentos preparados en anticipación razonable de un litigio. El tribunal rechazó ambas tesis de forma contundente.

Cronología Clave del Caso

Fecha Indet. El acusado, por iniciativa propia, utiliza el modelo de IA Claude para generar 31 documentos para su defensa.
Posteriormente Los documentos son enviados a su equipo legal, que alega que están protegidos por secreto profesional.
10/02/2026 El juez Jed Rakoff dictamina que los documentos no son privilegiados, sentando un importante precedente.

El Razonamiento del Tribunal: Cuatro Pilares

El análisis del juez Rakoff se basó en principios clásicos del derecho probatorio, aplicados al nuevo contexto tecnológico:

  1. 1. Falta de comunicación directa: El privilegio protege comunicaciones confidenciales entre cliente y abogado. Los documentos fueron creados por el cliente interactuando con una IA, sin participación ni dirección del letrado en ese momento.
  2. 2. Ausencia de dirección letrada: La doctrina del work product exige que el material sea preparado por o para el abogado. La actuación autónoma del cliente rompe este vínculo esencial.
  3. 3. Riesgo de confidencialidad: El tribunal cuestionó si una plataforma de IA de terceros puede garantizar la confidencialidad absoluta que requiere el privilegio. Si el entorno tecnológico no asegura esa reserva, la protección se debilita.
  4. 4. Irrelevancia del envío posterior: Remitir un documento no privilegiado a un abogado no lo convierte mágicamente en privilegiado. El estatus se define en el momento de la creación.

Perfil: Anthropic

Anthropic es una compañía de investigación y seguridad en inteligencia artificial, fundada en 2021 por ex-miembros de OpenAI, incluyendo a los hermanos Dario y Daniela Amodei. Con sede en San Francisco, su misión es desarrollar sistemas de IA fiables, interpretables y seguros. Su producto estrella es la familia de modelos de lenguaje grande (LLM) llamada Claude, diseñada para ser un asistente de IA conversacional útil y honesto.

Implicaciones Globales y Estratégicas

Aunque la decisión emana de un tribunal estadounidense, su eco es global. La cuestión de la confidencialidad en entornos de IA es universal y afecta a todas las jurisdicciones, incluyendo Europa, donde el secreto profesional es especialmente robusto. Este caso introduce un riesgo probatorio claro: lo que un cliente considera un «borrador privado» puede convertirse en prueba admisible en un juicio.

La paradoja es evidente: la IA promete eficiencia, pero su uso no supervisado crea vulnerabilidades. La solución no es prohibir la tecnología, sino integrarla correctamente. El criterio es que la generación de contenido debe estar dirigida por el abogado, dentro de un marco de confidencialidad contractual y como parte de una estrategia jurídica formal.

Este precedente obliga a despachos y empresas a repensar sus protocolos:

1. Políticas de Uso para Clientes

Es crucial advertir a los clientes sobre los riesgos de usar herramientas de IA de forma autónoma en contextos litigiosos.

2. Análisis de Términos Tecnológicos

Se debe analizar a fondo las condiciones de servicio de las plataformas de IA en materia de confidencialidad y uso de datos.

3. Integración Supervisada

La IA debe ser una herramienta integrada dentro del perímetro del asesoramiento jurídico formal, no una actividad externa del cliente.

En definitiva, el SDNY ha enviado un mensaje inequívoco: la inteligencia artificial no es un escudo procesal automático. Es una herramienta que, para ser jurídicamente segura, requiere estructura, dirección profesional y control. En el nuevo ecosistema digital, la frontera entre innovación y vulnerabilidad probatoria es más fina de lo que parece.

Ignacio Ferrer-Bonsoms, abogado digital, https://bacsociety.com/

spot_img
Activar Notificaciones OK No gracias