Skip to Content

Otro documento judicial con “alucinaciones” de la IA pone de relieve la diferencia entre Silicon Valley y el resto del mundo

Análisis por Allison Morrow, CNN

Puede que acabemos de presenciar el caso más flagrante de negligencia laboral hasta la fecha, y es importante, no solo porque es objetivamente gracioso, sino también porque refleja un matiz poco comentado sobre cómo funciona (o falla) la IA generativa en diferentes industrias.

Tengan paciencia conmigo.

El sábado, un abogado de alto rango de uno de los bufetes de abogados más prestigiosos del planeta se disculpó profusamente en una carta dirigida a un juez tras presentar ante el tribunal un documento plagado de errores, incluidas citas falsas, generadas por inteligencia artificial.

“Lamentamos profundamente lo sucedido”, escribió Andrew Dietderich, codirector de la división de reestructuración de Sullivan & Cromwell, en la carta, que incluía una lista de tres páginas donde se identificaban y corregían los más de 40 errores. (Para colmo, Dietderich afirmó que se enteró de los problemas solo después de que la parte contraria, Boies Schiller Flexner, los detectara).

En la carta, Dietderich atribuyó los errores a “alucinaciones” en las que las herramientas de IA “fabrican citas de casos, citan erróneamente a las autoridades o generan fuentes legales inexistentes”.

También afirmó que, si bien la firma cuenta con medidas de seguridad en torno a la IA para prevenir “precisamente esta situación”, dichas políticas no se siguieron en la elaboración de ese documento en particular.

Ahora bien, este no fue ni mucho menos el primer caso (ni probablemente será el último) de abogados de alto nivel que se topan con la furia de la IA.

Este tipo de situaciones ocurren con sorprendente frecuencia, aunque rara vez las vemos en firmas como Sullivan & Cromwell, un bufete de élite de Wall Street cuyos socios, según se informa, cobran alrededor de US$ 2.000 la hora por casos de bancarrota. (La firma no respondió a la solicitud de comentarios).

Pero uno de los aspectos más llamativos de este episodio es cómo pone de manifiesto la brecha de utilidad de la IA.

Tras más de tres años de la euforia desbordante que se desató con el lanzamiento de ChatGPT, resulta evidente que la IA generativa puede ser muy útil para un tipo de trabajador muy específico —los programadores— y puede convertirse en un fiasco vergonzoso para otros.

Esto se debe a que la programación es fundamentalmente determinista, lo que significa que existen resultados de sí o no, correctos o incorrectos. En los trabajos de programación, el software que se desarrolla funciona o no funciona.

Otras modalidades de trabajo de oficina suelen desarrollarse en zonas grises: ¿Cómo creamos un eslogan que refleje nuestros valores? ¿Mi jefe preferirá títulos con o sin serifa en esta presentación? ¿Qué jurisprudencia debo citar para respaldar mejor el caso de mi cliente?

En trabajos que no implican programación, existen distintos grados de funcionalidad que dependen de juicios de valor. (Este boletín, por ejemplo, se publica incluso con erratas, como bien señalan mis lectores habituales). Claro que se puede consultar a un chatbot o usarlo como caja de resonancia, pero no existe una respuesta única e irrefutable a este tipo de preguntas.

Esta distinción entre ciencia y arte es importante, porque actualmente las empresas tecnológicas y los inversores de Wall Street están apostando fuerte por la IA.

Sin embargo, como el inversor Paul Kedrosky le comentó a Derek Thompson, presentador del podcast “Plain English”, el mes pasado, estos inversores suelen basar sus estimaciones de demanda en la experiencia de los primeros usuarios de tecnología, quienes “no representan en absoluto al resto del mundo laboral real”.

El trabajo de los programadores también es excepcionalmente extenso, argumentó Kedrosky. En otras palabras, cuanto más código se escribe, más potencia requiere. La mayoría de las demás aplicaciones de IA para profesionales tienden a ser más concisas: “Tengo un informe enorme, no quiero leerlo, solo quiero los puntos clave”.

Esto no significa que la IA no sea (o no vaya a ser algún día) útil para abogados, investigadores, periodistas, profesionales del marketing y similares.

Simplemente, la promesa de una revolución de la IA surgió de personas como Sam Altman, Dario Amodei y Mark Zuckerberg, personas que no solo se enriquecerían mucho si todos empezáramos a usar la IA, sino que también son quienes mejor conocen el mundo de la tecnología.

Y eso es importante a la hora de demostrar qué es publicidad engañosa y qué es una promesa real. Podría decirse que tres años no son suficientes para que los grandes modelos de lenguaje demuestren ser lo revolucionarios que prometen ser.

Pero las LLM no son la única aplicación de IA que el mundo ha visto. El sistema de “conducción totalmente autónoma” de Tesla, por ejemplo, todavía no cumple del todo con lo prometido a los clientes, incluso una década después de que el CEO Elon Musk predijera que conduciría de forma totalmente autónoma, de costa a costa, en dos años.

Eso no ha impedido que Tesla venda el sistema basándose en la idea de que funciona, a veces o a menudo, según las condiciones, con la ayuda de un humano. Ha mejorado, pero aún no es suficiente para reemplazar a todos los taxistas.

Y quizás ahí es donde realmente se dirige la IA en general. ¿Podría ser una amenaza inminente para el mundo? Tal vez. ¿O podría ser simplemente algo que ayuda, pero que aún necesita la asistencia humana para evitar el desastre, al menos en un futuro previsible?

O, más concretamente, esta otra: ¿Podrían los modelos de IA procesar todos los textos legales jamás escritos, demostrando así que no necesitaremos tantos abogados o asistentes legales humanos?

La respuesta, como tantas respuestas en el trabajo de cuello blanco: ¡Tal vez! A la luz de la metedura de pata de Sullivan & Cromwell, es justo decir que los LLM aún no están del todo listos para representar a humanos ante un tribunal.

The-CNN-Wire
™ & © 2026 Cable News Network, Inc., a Warner Bros. Discovery Company. All rights reserved.

Article Topic Follows: CNN - Spanish

Jump to comments ↓

CNN Newsource

BE PART OF THE CONVERSATION

KION 46 is committed to providing a forum for civil and constructive conversation.

Please keep your comments respectful and relevant. You can review our Community Guidelines by clicking here

If you would like to share a story idea, please submit it here.