Autoría y responsabilidad en tiempos de IA: reflexiones a partir del caso Ayinde v. Haringey
- Nuria Gómez Belart
- 1 jul
- 4 Min. de lectura
La sentencia del 6 de junio de 2025 dictada por el King’s Bench Division (Ayinde v. Haringey y Al-Haroun v. Qatar) marca un antes y un después en la reflexión jurídica y profesional sobre el uso de inteligencia artificial en el ejercicio del derecho. El fallo no solo se pronuncia sobre la conducta individual de abogados y abogadas que presentaron ante la corte argumentos basados en citas inexistentes generadas por IA, sino que, más importante aún, plantea de forma explícita que la responsabilidad profesional no puede ser delegada ni diluida en el uso de herramientas automáticas. Frente al impacto mediático y la posibilidad de una lectura punitivista o tecnofóbica, me interesa pensar esta sentencia como una interpelación más amplia a la noción de autoría, a la ética del oficio y a la precariedad institucional que rodea a quienes ejercen profesionalmente la escritura.
Uno de los pasajes más citados del fallo señala: “Artificial intelligence is a tool that carries with it risks as well as opportunities. Its use must take place therefore with an appropriate degree of oversight, and within a regulatory framework that ensures compliance with well-established professional and ethical standards if public confidence in the administration of justice is to be maintained” [La inteligencia artificial es una herramienta que conlleva riesgos tanto como oportunidades. Por ello, su uso debe realizarse con un grado apropiado de supervisión y dentro de un marco regulatorio que garantice el cumplimiento de estándares profesionales y éticos consolidados, si se quiere mantener la confianza pública en la administración de justicia]. La claridad del mensaje es contundente: no es la herramienta lo que está en juicio, sino el uso irreflexivo, acrítico o no supervisado que vulnera la confianza pública y compromete la integridad del sistema jurídico.
En el centro del caso se encuentra la figura de una abogada muy joven —una pupil barrister sin supervisión efectiva— que presentó un escrito judicial con cinco sentencias inexistentes, atribuidas a cortes reales con citas falsas. Cuando se le pidió justificar su origen, sus respuestas fueron ambiguas, cambiantes y, según el tribunal, inverosímiles. El fallo no logra determinar con certeza si la profesional usó directamente un generador de texto basado en IA o si copió material elaborado por un tercero. Lo cierto es que el tribunal considera que cualquiera de esas dos opciones configura, en las condiciones del caso, una falta grave: negligencia, desidia o incluso intento de engaño. Aunque decide no iniciar acciones por desacato ni referir el caso a la fiscalía, el tribunal establece con fuerza un estándar para el futuro: quien firma un texto profesional es responsable de su contenido, independientemente de la herramienta que haya utilizado.
Ante la relevancia del tema, decidí consultar también a la propia herramienta que podría haber estado implicada en el caso: le pedí a mi ChatGPT su opinión fundamentada sobre la sentencia. Esta fue su respuesta:
La sentencia acierta en no demonizar la inteligencia artificial, pero sí en marcar con firmeza el límite ético y profesional: lo que está en juego no es el uso de una herramienta, sino la delegación de responsabilidad. (...) Desde una perspectiva institucional, esta sentencia marca un hito. Exige a los abogados transparencia sobre si han usado IA, y, si lo han hecho, responsabilidad sobre los resultados. En un contexto en el que los sistemas generativos pueden producir textos convincentes pero inexactos, la decisión busca proteger la integridad del sistema judicial, no censurando el uso de tecnología, sino exigiendo controles humanos rigurosos.
El gesto de incluir esta consulta —aunque parezca paradójico— me parece pertinente. No porque una IA deba opinar sobre una sentencia que la menciona, sino porque el intercambio sirve para señalar el doble filo del fenómeno: los modelos generativos pueden argumentar con fluidez, articular razonamientos y ofrecer una retórica verosímil, pero no pueden, por diseño, garantizar la veracidad de sus afirmaciones. El verosímil no es el verdadero. La aparente coherencia, la estructura impecable y el tono autorizado que ofrecen pueden ocultar invenciones, errores o inferencias falsas. Y eso vuelve aún más urgente la necesidad de profesionalismo humano, no menos.
En este sentido, el fallo invita a discutir no solo la relación entre derecho y tecnología, sino también la reconfiguración de la autoría en entornos de escritura asistida. La escritura profesional, como práctica discursiva, no se limita a la producción de textos, sino que implica una responsabilidad sobre su contenido, su validez y sus efectos. Esto es válido para el ámbito jurídico, pero también para otros campos como la edición, la corrección de textos, el periodismo o la investigación académica. En todos ellos, la automatización de ciertas tareas puede mejorar procesos, pero también habilita atajos que ponen en riesgo el sentido mismo de la práctica profesional: la toma de decisiones basada en criterio, experiencia y responsabilidad.
Lo más valioso del fallo, en mi lectura, no es la sanción, sino la advertencia: el uso de herramientas generativas no puede estar exento de control. La tentación de delegar tareas en sistemas que “parecen saber” es fuerte, sobre todo en contextos de precariedad laboral, alta carga de trabajo o falta de formación adecuada. Pero el precio de esa delegación sin control es alto: el descrédito profesional, la deslegitimación institucional y, en última instancia, la erosión de la confianza en los sistemas que garantizan derechos.
En suma, Ayinde v. Haringey no es solo una sentencia ejemplificadora. Es una interpelación a cómo entendemos hoy el trabajo profesional en entornos mediados por IA. Y es también una advertencia clara: no hay inteligencia artificial que pueda reemplazar la ética, la diligencia ni la responsabilidad de quienes escribimos con consecuencias reales para otros.
Si querés leer la sentencia, hacé clic acá:
Commenti