Skip to Content

Conversaciones con ChatGPT se convierten en evidencia clave en investigaciones criminales

Por Eric Levenson, CNN

Días antes de que dos estudiantes de posgrado de la Universidad del Sur de Florida desaparecieran el mes pasado, un compañero de habitación de uno de ellos supuestamente le hizo una pregunta inusual al chatbot de inteligencia artificial ChatGPT.

“¿Qué pasa si a un humano lo ponen (sic) en una bolsa de basura negra y lo tiran en un contenedor?”, preguntó Hisham Abugharbieh el 13 de abril, según una declaración jurada presentada por fiscales de Florida.

ChatGPT respondió que sonaba peligroso, indica el documento, y Abugharbieh hizo entonces otra pregunta: “¿Cómo lo descubrirían?”.

Esas supuestas entradas en ChatGPT, incluidas en documentos judiciales que acusan a Abugharbieh de dos cargos de homicidio premeditado, son solo el ejemplo más reciente de investigadores que utilizan historiales de chats con IA como evidencia en investigaciones criminales. Una conversación con ChatGPT también se utilizó en el caso de incendio provocado durante los incendios forestales de Los Ángeles, y una conversación con la IA de Snapchat fue una prueba clave en un juicio por asesinato en Virginia en 2024.

Para los investigadores, estos registros de chat pueden ofrecer información valiosa sobre el estado mental y el posible motivo de un sospechoso.

“Creo que cualquier comunicación con chatbots de IA es como un tesoro para las agencias de seguridad”, dijo Ilia Kolochenko, experto en ciberseguridad y abogado en Washington, DC. “(Los sospechosos) creen que sus interacciones con la IA permanecerán confidenciales o, al menos, no se revelarán ni se descubrirán, por lo que con frecuencia hacen preguntas muy directas y explícitas”.

Los casos criminales subrayan el creciente uso de los chatbots de IA para obtener consejos personales y la falta de protecciones de privacidad para esas conversaciones. Aunque los chatbots de IA se han convertido rápidamente en una fuente habitual para asesoría legal, diagnósticos médicos y terapia, esas conversaciones no están protegidas legalmente como lo estarían con un abogado, médico o terapeuta con licencia.

El CEO de OpenAI, Sam Altman, ha señalado que esta falta de privacidad es un “gran problema”.

“La gente habla de las cosas más personales de su vida con ChatGPT”, dijo Altman en julio pasado en un pódcast con el comediante Theo Von. “La gente lo usa, especialmente los jóvenes, como terapeuta, como coach de vida, para problemas de pareja. ‘¿Qué debería hacer?’”.

“Y ahora mismo, si hablas con un terapeuta, un abogado o un médico sobre esos problemas, existe un privilegio legal. Hay confidencialidad médico-paciente, confidencialidad legal, lo que sea. Y todavía no hemos resuelto eso cuando hablas con ChatGPT. Así que si hablas con ChatGPT sobre temas muy sensibles y luego hay una demanda o algo así, podríamos estar obligados a entregar esa información”.

Varios expertos legales consultados por CNN coincidieron con ese análisis y señalaron que no existe una expectativa de privacidad en las aplicaciones de chat con IA.

“En mi firma, lo tratamos así: cualquier cosa que alguien escriba en ChatGPT es algo que podría ser objeto de divulgación”, dijo Virginia Hammerle, abogada con sede en Texas.

A medida que los investigadores examinan de cerca lo que los usuarios le dicen a ChatGPT, también han comenzado a analizar más detenidamente lo que ChatGPT les responde a los usuarios.

La semana pasada, el secretario de Justicia de Florida inició una investigación penal contra OpenAI, al alegar que ChatGPT dio “asesoramiento significativo” al sospechoso del tiroteo masivo en la Universidad Estatal de Florida. En Canadá, las familias de las víctimas de un tiroteo escolar ocurrido en febrero demandaron este miércoles a OpenAI y a Altman, al alegar que la empresa y su chatbot ChatGPT fueron cómplices del ataque.

OpenAI expuso su “compromiso con la seguridad de la comunidad” en un extenso comunicado el martes. “Seguiremos priorizando la seguridad⁠, al tiempo que equilibramos la privacidad y otras libertades civiles para poder actuar ante riesgos graves”, señaló la empresa.

Por supuesto, la gran mayoría de las personas no estará implicada en un caso de asesinato brutal. Aun así, expertos legales dijeron a CNN que las personas deberían ser cautelosas con lo que comparten con chatbots de inteligencia artificial, dadas estas preocupaciones de privacidad y su creciente papel en la vida cotidiana.

“Esto solo será cada vez más relevante, más inmediato y más polémico a medida que las personas continúen recurriendo a ChatGPT y a otras plataformas para obtener información sobre lo que están haciendo”, dijo el analista legal de CNN, Joey Jackson.

El uso de conversaciones con inteligencia artificial en casos penales es reciente, pero expertos legales señalaron que es similar a la forma en que la ley trata las búsquedas en Google.

En general, este tipo de evidencia electrónica puede revelar el motivo, las acciones y el estado mental de una persona, explicó Jackson.

Por ejemplo, Brian Walshe fue declarado culpable el año pasado del asesinato de su esposa, Ana, después de que los fiscales mostraran al jurado sus búsquedas macabras en Google, como “10 formas de deshacerse de un cuerpo” y “¿pueden acusarte de asesinato sin un cuerpo?”.

Por separado, los juicios por asesinato de Karen Read —en los que un agente de policía de Boston fue encontrado muerto en la nieve— se centraron en el significado y el estado mental de un testigo que había escrito en Google la búsqueda “(cuánto tiempo) se tarda en morir de frío”. Read finalmente fue absuelta de los cargos más graves.

Las consultas a plataformas de inteligencia artificial que revelan el estado mental de un sospechoso también han cobrado relevancia en varios casos importantes.

El pasado octubre, fiscales federales acusaron a Jonathan Rinderknecht de incendio provocado por presuntamente iniciar un fuego que luego se convirtió en el destructivo incendio Palisades, en California. Parte de la evidencia incluyó sus solicitudes a ChatGPT. Le pidió a la aplicación que generara una imagen de personas huyendo de un incendio, y dijo que una vez quemó una Biblia y que “se sintió tan liberado”, según una declaración jurada presentada en apoyo de una denuncia penal.

Después de llamar al 911 para reportar el incendio, preguntó a ChatGPT: “¿Eres responsable si un incendio se provoca [sic] por tus cigarros?”, según la declaración jurada. Sin embargo, los fiscales alegan que inició el fuego de forma “maliciosa”, probablemente con un encendedor, y afirman que su pregunta a ChatGPT fue un intento de crear una explicación más “inocente” sobre la causa del incendio.

Rinderknecht se ha declarado no culpable de los cargos. Su abogado, Steve Haney, dijo a CNN que su cliente no fue responsable del incendio Palisades y señaló que ha presentado mociones para excluir parte de la evidencia proveniente de ChatGPT.

“Es nuestra posición que los registros de ChatGPT no son ni una confesión ni una escena del crimen”, dijo en un correo electrónico. “El Gobierno está pidiendo a un jurado que lea la mente de un hombre a través de una barra de búsqueda, y ni la ciencia ni la ley han permitido nunca ese tipo de inferencia”.

En el caso de los asesinatos en la Universidad del Sur de Florida este mes, las preguntas del sospechoso a ChatGPT fueron incluidas en una declaración jurada penal.

Además de la pregunta sobre poner a una persona en una bolsa de basura, Abugharbieh preguntó a ChatGPT si podía tener legalmente un arma en casa sin licencia y si el número de identificación de un vehículo podía ser modificado, según la declaración jurada.

En los días posteriores a las desapariciones de Zamil Limon y Nahida Bristy, las búsquedas presuntamente continuaron. El 19 de abril, Abugharbieh preguntó a ChatGPT: “¿Ha habido alguien que haya sobrevivido a un disparo de francotirador en la cabeza?”, “¿Mis vecinos escucharán mi arma?” y “¿Hay una temperatura del agua que queme de inmediato?”, según la declaración jurada. El 23 de abril, buscó “¿Qué significa adulto desaparecido en peligro?”, de acuerdo con el documento.

El cuerpo de Limon fue encontrado en una bolsa de basura, informaron las autoridades. Otro conjunto de restos humanos fue hallado en una segunda bolsa de basura, pero aún no se ha confirmado que pertenezcan a Bristy, según las autoridades.

Abugharbieh ha sido acusado de dos cargos de homicidio premeditado. No se ha declarado culpable ni inocente de los cargos y se ordenó su detención sin derecho a fianza. La Oficina del Defensor Público del Condado de Hillsborough fue asignada al caso, pero declinó compartir detalles al citar el derecho de Abugharbieh a un juicio justo.

Entonces, ¿deberían las conversaciones con inteligencia artificial tener mayores protecciones de privacidad?

En su conversación con Von, Altman abogó por protecciones de privacidad para las conversaciones con inteligencia artificial y dijo que le “preocupa mucho” que el Gobierno utilice los registros de chats para vigilar a las personas.

“Creo que realmente tenemos que defender el derecho a la privacidad”, dijo. “No creo que sean derechos absolutos. Estoy totalmente dispuesto a ceder parte de la privacidad en favor de la seguridad colectiva, pero la historia muestra que el Gobierno lleva eso demasiado lejos, y eso me preocupa mucho”.

Otras figuras del sector tecnológico han planteado argumentos similares. Nils Gilman, historiador y asesor principal del centro de pensamiento Berggruen Institute, defendió en una columna de opinión en The New York Times el año pasado la creación de leyes que otorguen un privilegio legal a la inteligencia artificial.

En declaraciones a CNN, argumentó que los legisladores crearon privilegios legales para médicos, abogados y terapeutas porque el beneficio social de mantener conversaciones honestas supera el interés del Estado en acceder a esa información.

“En la medida en que las personas utilizan los modelos de lenguaje de gran escala de la misma manera, deberían contar con protecciones similares”, dijo Gilman.

Sin embargo, a ojos de la ley, los chatbots de inteligencia artificial no cuentan con ese tipo de especialización ni protecciones. Las conversaciones con inteligencia artificial son equivalentes a cualquier otro dato electrónico, como el uso de una tarjeta de crédito o los registros de llamadas telefónicas, señalaron expertos legales.

“Estás introduciendo datos en una aplicación, y como resultado no tienes protecciones específicas asociadas a esa información”, dijo Jackson, analista legal de CNN. “Sería como si hiciera una llamada telefónica y luego argumentara que no se puede usar esa llamada en mi contra”.

Puede haber algunas protecciones en situaciones específicas. Por ejemplo, si tu abogado introduce tu expediente confidencial en la base de datos de un chatbot, ¿podría eso convertirse en evidencia admisible? ¿Qué ocurre si te representas a ti mismo en un tribunal y le pides a ChatGPT ayuda para redactar un documento?

“La ley aún está tratando de ponerse al día con el mundo real”, dijo Hammerle.

Pero, tal como está actualmente, esas conversaciones con inteligencia artificial pueden pasar de una computadora a un tribunal.

“ChatGPT no es tu amigo, no es tu abogado, no es tu médico, no es tu pareja”, dijo Gilman. “Dejen de hablarle como si lo fuera”.

The-CNN-Wire
™ & © 2026 Cable News Network, Inc., a Warner Bros. Discovery Company. All rights reserved.

Article Topic Follows: CNN - Spanish

Jump to comments ↓

CNN Newsource

BE PART OF THE CONVERSATION

KION 46 is committed to providing a forum for civil and constructive conversation.

Please keep your comments respectful and relevant. You can review our Community Guidelines by clicking here

If you would like to share a story idea, please submit it here.