Graciela Dela Torre demanda a OpenAI: el primer gran caso de ChatGPT en el mundo legal
Una asegurada desafía un acuerdo legal firmado en 2024 tras recibir asesoramiento de ChatGPT, lo que ha desatado un acalorado debate sobre los límites de la inteligencia artificial en la abogacía.
La inteligencia artificial (IA) ha cruzado nuevas fronteras en el ámbito legal, desafiando las normas de los tribunales estadounidenses.
Nippon Life Insurance Company of America ha presentado una demanda millonaria contra OpenAI en una corte federal de Illinois, acusando a la empresa de actuar de manera ilegal al ofrecer asesoría a una de sus clientes, Graciela Dela Torre.
El origen del conflicto legal
Todo comenzó cuando Dela Torre utilizó ChatGPT para poner en duda un acuerdo extrajudicial que había cerrado en el año 2024. Esta mujer subió documentos confidenciales de su abogado a la IA, que no solo validó sus preocupaciones sobre el trato recibido, sino que también la instó a despedir a su abogado.
Impulsada por las recomendaciones de la IA, Dela Torre comenzó a representarse a sí misma, presentando más de 40 mociones y documentos judiciales que la aseguradora considera temerarios y carentes de fundamentos legales.
Una mujer llevó a OpenAI a la justicia por brindar consejos legales mediante ChatGPT
Nippon Life toma acción contra OpenAI
Nippon Life argumenta en su demanda que OpenAI es culpable de haber creado una herramienta que actúa como abogado sin tener la licencia necesaria.
La aseguradora exige una indemnización de $300,000 por los gastos legales adicionales generados y reclama $10 millones en daños punitivos debido a la interferencia ilícita en un contrato de conciliación.
Los alegatos secundarios sostienen que ChatGPT no se limitó a ser un motor de búsqueda; en cambio, realizó funciones típicas de un abogado, alterando un acuerdo previamente establecido.
La respuesta de OpenAI y las implicancias de la demanda
OpenAI ha calificado las acusaciones como infundadas, destacando que sus políticas prohíben el uso de su plataforma para obtener asesoría legal sin la supervisión de un profesional.
Ante casos como este, la compañía ha fortalecido sus protocolos de seguridad para evitar que su IA brinde diagnósticos legales o financieros. Sin embargo, la demanda sostiene que estas restricciones no eran lo suficientemente claras en aquel momento, permitiendo que la inteligencia artificial actuara como un “abogado de bolsillo” sin regulación.
