AFP | Las autoridades de Florida, encabezadas por el fiscal general James Uthmeier, analizan la implicación legal de la empresa OpenAI tras el ataque en la Universidad Estatal de Florida.

El fiscal general de Florida, James Uthmeier, encabeza una investigación criminal sin precedentes contra la organización tecnológica OpenAI. Esta acción legal surge tras el trágico tiroteo ocurrido en la Universidad Estatal de Florida durante el mes de abril de 2025.

El atacante, identificado como Phoenix Ikner, terminó con la vida de 2 personas e hirió a otras 6 antes de su detención. Las autoridades descubrieron que el joven no buscó consejo en amigos o familiares, sino que mantuvo una interacción constante con el chatbot ChatGPT.

Las pruebas que recabó la fiscalía demuestran que Ikner consultó a la inteligencia artificial sobre el armamento y la munición más adecuada para su agresión. También preguntó por el sitio y el momento exacto para causar la mayor cantidad de bajas en el campus universitario.

Te puede interesar:

El debate sobre la responsabilidad legal de los creadores de IA

Según los investigadores del caso, la herramienta digital respondió a cada una de las interrogantes formuladas por el tirador. Por este motivo, James Uthmeier cuestiona si este nivel de asistencia convierte a los creadores de la tecnología en cómplices de un delito grave.

"Si lo que estuviera al otro lado de la pantalla fuera una persona, lo acusaríamos de homicidio", declaró el funcionario al anunciar la apertura del proceso judicial. El caso deja abierta la posibilidad de presentar cargos formales contra la empresa o sus empleados individuales.

Expertos legales califican la propuesta como realista pero sumamente compleja debido a la falta de precedentes directos en el área tecnológica. En Estados Unidos, el enjuiciamiento penal de corporaciones ocurre con poca frecuencia, aunque existen casos significativos como el de Purdue Pharma.

Aquella farmacéutica enfrentó sanciones y multas penales por un monto superior a los 5.000 millones de dólares por su papel en la crisis de los opioides. Otros ejemplos históricos incluyen a Volkswagen por manipular emisiones, Pfizer por promover el fármaco Bextra y Exxon en Alaska.

AFP | El caso derivado del tiroteo de abril de 2025 pone a prueba los límites de la justicia penal frente al avance de herramientas de inteligencia artificial como ChatGPT.

Desafíos probatorios y consecuencias para la reputación de OpenAI

No obstante, los casos previos involucraban decisiones humanas directas tomadas por ejecutivos o ingenieros que eligieron atajos. El profesor de derecho de la Universidad de Utah, Matthew Tokson, señala que en esta ocasión un producto propició el acto delictivo.

"En definitiva, fue un producto el que propició este delito, el que llevó a cabo el acto delictivo", explicó el docente en una entrevista para la AFP. Según su análisis, los cargos de negligencia o imprudencia resultan ser los caminos más factibles en este proceso.

La justicia enfrenta un obstáculo elevado al tratarse de un tema jurídico totalmente novedoso en los tribunales de Florida. Matthew Tokson considera que los fiscales necesitarían documentos internos que demuestren que la empresa ignoró deliberadamente los riesgos de seguridad.

Por su parte, el profesor de la Universidad de Duke, Brandon Garrett, recordó que la carga de la prueba en el derecho penal es muy exigente. Los acusadores deben demostrar la culpabilidad de la organización más allá de toda duda razonable para obtener una condena.

La organización OpenAI rechaza cualquier responsabilidad directa en el ataque ejecutado por Ikner en abril de 2025. La empresa afirma que trabajan continuamente para fortalecer las medidas de seguridad y detectar intenciones maliciosas dentro de su plataforma.

"Trabajamos continuamente para reforzar nuestras medidas de seguridad con el fin de detectar intenciones maliciosas, limitar el uso indebido y responder adecuadamente cuando surgen riesgos para la seguridad", declaró la firma tecnológica en un comunicado oficial.

Las demandas civiles aparecen como una alternativa más viable para quienes buscan que las empresas asuman el costo humano de sus errores. Un ejemplo es la familia de Suzanne Adams, que demandó a la empresa en California tras un asesinato en Connecticut.

El abogado Matthew Bergman, del Social Media Victims Law Center, reconoció que las versiones nuevas de ChatGPT poseen más protecciones operativas. No obstante, aclara que esto no significa necesariamente que estas medidas resulten adecuadas para prevenir tragedias similares en el futuro.

Finalmente, una condena penal podría generar daños irreparables en la reputación corporativa de la industria de la inteligencia artificial. Sin embargo, Brandon Garrett advierte que los juicios no sustituyen la necesidad de marcos regulatorios que el Congreso y la administración de Donald Trump aún no establecen.

Información: AFP