Foto: especial
¡Únete a nuestro canal de WhatsApp!

Una reciente encuesta realizada por Kolmogorov Law revela una tendencia alarmante en el uso de la tecnología: el 56% de los usuarios de inteligencia artificial en Estados Unidos ha solicitado asesoría legal con chatbots de IA. A pesar de esta alta adopción, el estudio destaca que el 50% de las personas ignora que sus interacciones digitales carecen de privacidad y pueden ser citadas judicialmente para utilizarse como evidencia judicial en procesos legales.

Esta situación evidencia una peligrosa brecha entre lo que el usuario espera y la realidad legal vigente. Actualmente, el 67% de los encuestados sostiene la creencia de que sus diálogos con máquinas deberían contar con las mismas protecciones que una consulta médica o jurídica.

No obstante, en la práctica jurídica actual “no existe tal privilegio” para las plataformas de inteligencia artificial, lo que deja la información confidencial de los ciudadanos en una posición de vulnerabilidad.

El riesgo de compartir información sensible en plataformas digitales

De acuerdo con los datos recolectados en octubre, el 34% de los participantes admitió haber compartido datos críticos, tanto personales como empresariales, con estos sistemas. A diferencia de un profesional colegiado, donde impera el privilegio abogado-cliente, las empresas tecnológicas pueden verse obligadas a entregar registros de uso durante un proceso de descubrimiento legal. Los expertos en derecho ya califican esta falta de confidencialidad digital como una “trampa legal moderna” para el usuario desprevenido.

Por consiguiente, la confianza ciega en la seguridad de datos de las herramientas de IA está generando consecuencias tangibles en el sistema de justicia. Mientras los usuarios asumen que sus preguntas son privadas, los tribunales están comenzando a integrar estos registros como piezas clave en la determinación de sentencias y responsabilidades penales.

Casos judiciales donde la inteligencia artificial sirvió como prueba

La aplicación de estos registros en casos criminales recientes demuestra que el riesgo es real y actual. En Florida, la fiscalía presentó conversaciones de ChatGPT como prueba contra un hombre vinculado a un Incendio de Palisades, quien presuntamente interrogó al bot sobre temas de incendios y repercusiones legales. Del mismo modo, en Virginia, un tribunal dictó una sentencia de 25 años por asesinato en primer grado luego de que los fiscales demostraran la premeditación del acusado mediante sus mensajes con una IA.

Te puede interesar:

Debido a estos precedentes, la protección de datos se vuelve un factor crítico antes de ingresar cualquier consulta relacionada con delitos o litigios. La ausencia de un marco legal que equipare la IA con el secreto profesional significa que cada palabra escrita puede ser rastreada, recuperada y finalmente presentada ante un juez para sustentar una acusación.