Millones en Juego: La Controversia Legal que Envuelve a ChatGPT y una Aseguradora Japonesa
Una usuaria que confió en las respuestas de ChatGPT ha desatado una batalla legal que involucra a OpenAI y la aseguradora nipona Nippon Life, reclamando una indemnización millonaria por daños.
La situación se originó cuando una exclienta consultó a ChatGPT sobre un acuerdo judicial firmado en 2024, lo que provocó el regreso a los tribunales y una demanda de 10 millones de dólares contra OpenAI.
Un Asesoramiento Cuestionado
Nippon Life demanda a OpenAI, alegando que ChatGPT ofreció asesoramiento legal incorrecto, lo que llevó a su clienta a incumplir un acuerdo previamente establecido. La aseguradora sostiene que la inteligencia artificial actuó sin la debida autorización, interviniendo en contratos válidos.
Antecedentes del Conflicto
Todo comenzó en 2022, cuando una asegurada intentó suspender los pagos de su póliza de incapacidad. Tras un litigio extendido, ambas partes llegaron a un acuerdo en enero de 2024, cerrando cualquier acción legal pendiente. Sin embargo, un año después, la usuaria volvió a abrir el caso tras consultar a ChatGPT sobre la viabilidad del pacto, lo que generó un nuevo conflicto.
El Impacto de ChatGPT en la Decisión
Según la demanda, la usuaria recibió información que reforzó su decisión de reabrir el caso, lo que la llevó incluso a despedir a su equipo legal. Con la ayuda de la IA, presentó una moción para anular el acuerdo original y demandó nuevamente a Nippon, así como a otras entidades relacionadas.
Argumentos en Controversia
Nippon Life alega que la información proporcionada por ChatGPT contenía «errores judiciales» y «citas fuera de contexto», lo que contribuyó a la reanudación del litigio. La aseguradora solicita 300.000 dólares en daños compensatorios y 10 millones de dólares en daños punitivos, además de cubrir los costos legales generados por esta nueva acción judicial.
Cambios en las Políticas de OpenAI
En respuesta a situaciones como esta, OpenAI actualizó sus políticas en octubre de 2025, prohibiendo que su herramienta brinde asesoramiento personalizado en áreas legales, médicas o financieras. Sin embargo, el incidente en cuestión ocurrió antes de esta nueva directiva, planteando importantes preguntas sobre la responsabilidad de las empresas tecnológicas en el uso de sus productos.
