Click aquí para ir a la Portada
Fiestas y Tradiciones de España Agenda Cultural Regional Foros de Debate Blogs de Miembros del Portal Reportajes Fotográficos Vídeos

Blogs de Festeros.es

Artículos relacionados con cultura, fiestas y tradiciones de todos los rincones de España


29 may
2023

Lo que ocurre cuando pides cosas a una máquina diseñada para decir lo que quieres oír. .

Enviado por sociedadinformacion . Etiquetas: Sin clasificar

Escrito por: Enrique Dans.

IMAGE: Clker Free Vector Images - Pixabay

En un vuelo con Avianca, un pasajero, Roberto Mata, recibió uno de esos dolorosos golpes en la rodilla con el carrito de la comida cuando pasaba al lado de su asiento por el pasillo, y ese golpe resultó en una lesión. El pasajero decidió pedir una indemnización por daños a través de un abogado, Steven A. Schwartz, del bufete Levidow, Levidow & Oberman, y cuando Avianca pidió al juez que desestimase el caso, ese abogado se presentó con una alegación de diez páginas en la que citaba media docena de casos relevantes en los que demandas similares habían sido estimadas, y con una sesuda discusión sobre los efectos negativos que potencialmente tendría dar la razón a la aerolínea.

¿Qué ocurrió? Simplemente, que cuando los abogados de Avianca se pusieron a trabajar con la demanda, se sorprendieron al no ser capaz de encontrar ninguno de los casos que el abogado de Mata citaba en su escrito, y pidieron aclaraciones al juez, que a su vez tampoco pudo localizarlas. ¿Qué había pasado? Muy sencillo: Steven A. Schwartz, el abogado con más de treinta años de experiencia, había tenido la ocurrencia de pedir a ChatGPT que sustentase el caso, y ChatGPT le contestó con una demanda aparentemente muy bien argumentada… que recurría a media docena de casos que el algoritmo se había inventado.

De hecho, no solo se los inventó, sino que les dio una apariencia de total verosimilitud, y respondió a preguntas de comprobación sobre ellos, asegurando en todo momento que eran casos reales. El abogado, sin más comprobaciones, envió su escrito al juez. El juez, tras encontrarse con el problema, afirmó que estaba ante una circunstancia sin precedentes: una presentación legal repleta de decisiones judiciales falsas, con argumentos falsos y citas falsas, y ordenó una audiencia para el 8 de junio para discutir posibles sanciones.

En el cruce posterior de escritos, el abogado ha reconocido completamente los hechos, se ha disculpado y ha suministrado capturas de pantalla de ChatGPT en las que aseguraba la verosimilitud de las citas y ha explicado que desconocía la posibilidad de que el algoritmo se comportase de esa manera, lo que muy probablemente no sirva para librarle de las correspondientes sanciones.

Lo hemos comentado en ocasiones anteriores: lo que un algoritmo generativo hace es una versión avanzada de un autocomplete, pero en función de los datos con los que contó en su entrenamiento y de las pautas y patrones que ha deducido a partir de ellos. ChatGPT no es, en ningún caso, una base de datos de jurisprudencia, y su funcionalidad no es rebuscar en ella: eso lo desarrolló IBM hace años, lo llamó Ross, y nunca lo vendió como un abogado, sino como un paralegal, es decir, precisamente eso: un asistente dedicado a revisar la jurisprudencia. Ross llegó a ser «contratado» por un buen número de bufetes porque llevaba a cabo las complejas búsquedas de casos relevantes en la jurisprudencia de manera muy adecuada… pero no era un algoritmo generativo: era, simplemente, un buen buscador bibliográfico.

Si crees que un algoritmo generativo va a comportarse como un buscador bibliográfico, tienes un problema: has olvidado el significado del término «generativo». ChatGPT y otros algoritmos generativos similares están diseñados no para contestarte la verdad, sino para decirte lo que quieres oír, o en este caso, leer. El hecho de que lo que te conteste sea real o se lo invente es algo que está perfectamente especificado en las advertencias de uso.

Y los textos legales, y particularmente los que recoge la jurisprudencia, no se «generan» jamás: se citan y punto. Es, claramente, una de las primeras cosas que llama la atención de ChatGPT: puedes preguntarle por ti, por tu compañía o por quien quieras: la respuesta parece hecha sistemáticamente para agradar. ¿Por qué es eso? Sencillamente, porque es lo que se busca: combíname lo que puedas deducir a partir de un montón de información que se te suministró en tu entrenamiento, para responder a esta pregunta de manera que quien la hizo quede satisfecho con la respuesta.

El caso Mata vs. Avianca debería convertirse en una advertencia contra todos aquellos que otorgan a los algoritmos generativos propiedades que no tienen, o contra los que afirman que son «inteligentes»: no hay inteligencia en recombinar datos para producir una respuesta bien redactada y aparentemente correcta. Hay estadística, correlaciones, cálculos probabilísticos y, en general, deducciones más o menos inspiradas en función de patrones encontrados en los datos. Ni es un abogado, ni mucho menos un psicólogo o un escritor, aunque sus respuestas te puedan, en muchos casos, ahorrar trabajo o aportar ideas y reflexiones. Es lo que es, punto. Y si quieres que un algoritmo generativo sea otra cosa distinta de lo que es, muy probablemente lo que te genere sean… problemas.


This article is also available in English on my Medium page, «This is what happens when you trust a machine designed to say what you want to hear?»



Artículo de Enrique Dans .

Publicado con licencia Creative Commons 3.0 España


Comentarios (0)add comment

Escribir comentario
quote
bold
italicize
underline
strike
url
image
quote
quote
smile
wink
laugh
grin
angry
sad
shocked
cool
tongue
kiss
cry
más pequeña | más grande

security image
Escribe los caracteres (5 letras) de la imagen de arriba en la casilla siguiente


busy
  REGIÓN DE MURCIA  actualidad local
TURISMO | El Ayuntamiento de Mula celebra la primera edición de los Premios MulaFlor coincidiendo con el inicio de la II Feria Agrícola 25.04
Las perdidas en cultivos por el granizo ascienden a 7,6 millones de euros en la Comarca del Noroeste, especialmente Bullas y Cehegín - Ayuntamiento de... 25.04
La Concejalía de Turismo organiza un taller de muñecos de fieltro el domingo 28 de abril en el Museo Horno del Concejo y Casa del Folclore de Molina d... 25.04
El pleno municipal respalda la patata cartagenera manifestado su apoyo unánime 25.04
PATRIMONIO HISTÓRICO | El Museo Ciudad de Mula adquiere una destacada obra del escultor Vicente Benedito 25.04
Las tres OTC de la Región colaborarán para para impulsar comunidades energéticas (Murcia) 25.04
Más de 100 artistas se dan cita en la tercera edición del festival "El Jardín Secreto" (Murcia) 24.04
Los expertos profundizan en la restauración del Castillejo en la segunda conferencia de Las Fortalezas del Rey Lobo (Murcia) 24.04
El VIII Concurso de microrrelatos La Sal otorga su primer premio a "Vida salobre" de Domingo Jiménez (San Pedro del Pinatar) 24.04
Bono social del agua (modalidad ordinaria 2024) (Fuente Álamo) 24.04
La OMIC de Bullas contará con una sala de videoconferencias de arbitraje de consumo - Ayuntamiento de Bullas 24.04
El Ayuntamiento saca a exposición pública hasta el 29 de abril el censo electoral para los comicios europeos del 9J (Lorca) 24.04
Desde el Ayuntamiento solicitan que, por motivos de seguridad, no se comience aún con el acopio de maderas para la noche de San Juan (Águilas) 24.04
El festival Fortaleza Sound anuncia una programación de actividades gratuitas 24.04
El Huerto Ruano acoge una exposición fotográfica sobre el proyecto intergeneracional ´´Vidas que se unen´´ (Lorca) 24.04

MENÚ MIEMBROS


Info cookies: el acceso a los apartados de este Menú de Miembros implica el uso de cookies de sesión para gestionar dicha sesión. Más Info

Por otro lado, si deseas que el portal recuerde tu ámbito seleccionado para tus próximas visitas, debes activar la siguiente cookie para guardar dicho ámbito:
Activar cookie de ámbito





Datos Legales   -   Política de Cookies   -   Contacto: info@festeros.es   -   Ámbitos actuales:   cva   mur