En un caso que involucraba al seguro se analizaron los pros y contras de la aplicación de la IA por parte de la Justicia

948
fallo caso seguro pros contras aplicación ia justicia

Un juez de Estados Unidos utilizó ChatGPT y Bard para analizar el significado de una palabra de la que dependía si una póliza de seguros aplicaba o no a un caso, informó Diario Judicial. En su desarrollo, el magistrado fundamentó los pros y contras del uso de la inteligencia artificial (IA) para resolver casos judiciales.

El caso

La Corte del Distrito Sur de Alabama dio a conocer una sentencia, donde el tribunal hizo uso de la inteligencia artificial (ChatGPT), acompañando un extenso fundamento de por qué realmente era útil su utilización en algunos supuestos.

El caso enfrentaba a un paisajista contra una empresa de seguros. La había demandado por incumplimiento contractual cuando la compañía se negó a representarlo frente a otra demanda civil de un cliente por un supuesto trabajo negligente, que consistía en colocar una cama elástica en un patio.

El seguro entendía que esa actividad no estaba cubierta por la póliza y así lo entendió también el juzgado que falló a favor de la compañía. Este sostuvo que “el accidente no se había ‘derivado’ del trabajo de ‘paisajismo’ en el sentido de su póliza de responsabilidad civil comercial”.

En su apelación, el actor (Snell) alegó que el tribunal de distrito interpretó erróneamente la póliza y su demanda. Sin embargo, la Corte confirmó el pronunciamiento, señalaron desde Diario Judicial.

Trabajo

Detrás del supuesto incumplimiento contractual está el trabajo que realizó el actor y por el cual lo demandaron, que generó una discusión en torno a la interpretación de la póliza y su extensión de cobertura.

En concreto, el hombre había instalado una cama elástica en el patio de una familia, que quería que esté al nivel de la tierra y no sobre el terreno, como si estuviera enterrada. Esto conllevaba una serie de trabajos de excavación y remoción de árboles, entre otros. Si bien el trabajo se concretó y terminó con éxito, años después los clientes de la empresa del actor lo demandaron a él y a otros por una lesión que había tenido su hija cuando saltaba en el trampolín y cayó golpeándose la cara.

Ante la demanda, el paisajista avisó a su seguro para que lo defienda. Sin embargo, desde la firma alegaron que el trabajo realizado y la actividad por la cual se lo demandaba no derivaban de un trabajo de “paisajismo”. Por ello, la póliza no era aplicable.

Inteligencias artificial

La palabra clave del caso y por la cual finalmente se recurrió a la IA fue “landscaping”, entendida en español como “paisajismo” o “jardinería”. Su significado definiría la extensión de la cobertura, pero casualmente no estaba definida en el contrato.

Así, el juzgado recurrió al significado común de la palabra o según la costumbre, por lo que eso no incluiría a la instalación de un trampolín. Además, y quizás más importante, en la aplicación al seguro, el propio paisajista había contestado que su trabajo no incluía la instalación de equipamientos recreacionales o juegos. Por lo tanto, no estaría abarcado por el seguro, que en caso contrario hubiera reajustado la póliza antes de su emisión.

Asimismo, el juez del circuito de Newsom explicó que las partes habían acercado distintas definiciones de diccionarios de la palabra “landscaping”, pero de las mismas “era difícil discernir un criterio controlador único”. Esto llevó al tribunal a preguntarse si una mejora debía ser natural para contar como jardinería ya que eso podría excluir caminos o luces que a simple vista parecieran incluirse. Por ello decidió acudir a ChatGPT para obtener el significado. En su primera definición, la misma era lo suficientemente amplia como para incluir a la cama elástica, por lo que acto seguido también preguntó directamente si “instalar un trampolín podía considerarse parte de la jardinería” y la respuesta fue que sí.

Pros y contras

Una respuesta similar en sentido afirmativo obtuvo del sistema Bard de Google. Debido a ello, el magistrado hizo un desarrollo sobre los pros y contras que trae aparejado el uso de la inteligencia artificial en su aplicación por parte de la Justicia. Destacando los pros, señaló el entrenamiento con lenguaje ordinario, el entendimiento del contexto, lo accesible que son, lo relativamente transparentes que parecen ser y las ventajas sobre otros métodos interpretativos empíricos.

Por otra parte, destacó como negativo la posibilidad de “alucinación” del sistema, el hecho de que no “capturan el discurso fuera de línea y, por lo tanto, podrían no tener en cuenta completamente los usos de las poblaciones subrepresentadas, así como la posibilidad de manipular o forzar respuestas y la dependencia que pudiera generar el sistema”.

El fallo completo en inglés puede leerse y descargarse aquí.

 

Seguinos en las redes:

LinkedIn: https://bit.ly/TodoRiesgoLinkedIn

Twitter: https://bit.ly/TodoRiesgoTwitter

Facebook: https://bit.ly/TodoRiesgoFacebook

YouTube: https://bit.ly/TodoRiesgoYouTube