Por Mario Covarrubias Jurado
Hace tan solo unos días la Sala II de la Cámara de Apelación en lo Civil y Comercial de Rosario (autos “Giacomino, César Adrián y otros c/ Monserrat, Facundo Damián y otros s/ daños y perjuicios”), con voto del juez Oscar Puccinelli, dictó un fallo que marca un antes y un después en la práctica profesional argentina. Por primera vez en nuestro país, un tribunal debió reprender a un abogado por haber incorporado en su escrito citas jurisprudenciales inexistentes, generadas por inteligencia artificial y nunca verificadas [1]
El tribunal no dudó en calificar la conducta como riesgosa y contraria a la ética profesional. En palabras de la sentencia: “Tal actitud, aún de buena fe, compromete la responsabilidad profesional del letrado no sólo ante el tribunal sino, especialmente, respecto de su cliente (…) pues no puede haber consentimiento válido alguno que releve a un letrado de su deber de cotejar las fuentes en las que basa sus posiciones jurídicas” [2]
La resolución también recordó las Normas de Ética Profesional del Abogado publicadas por el Colegio de Abogados de Rosario, cuya segunda regla es la de probidad: “no importa tan sólo corrección desde el punto de vista pecuniario: requiere además lealtad personal, veracidad, buena fe”. [3] Y fue más allá, oficiando al Colegio a fin de que adopte medidas preventivas. La sentencia, sin sancionar expresamente al profesional, desnuda una verdad incómoda: la abogacía está cayendo bajo, demasiado bajo.
En junio pasado publiqué en este mismo medio un artículo titulado “La amenaza silenciosa: cómo la inteligencia artificial pone en jaque a los jóvenes abogados en Argentina”. Allí advertía que “la delegación del razonamiento crítico en máquinas erosiona la esencia de la profesión”. [4] El fallo de Rosario confirma que esa amenaza ya no es silenciosa: se ha vuelto un escándalo visible en los estrados judiciales.
Lo que hace unos años criticábamos como el vicio del “copy paste” hoy mutó en algo peor: la dependencia de prompts [5]. El nuevo abogado, convertido en un técnico del derecho que sabe operar máquinas pero no razonar con códigos, está en las antípodas del abogado tradicional. Como señaló la Cámara: “mientras los sistemas no se desarrollen al punto de no alucinar, es sumamente riesgoso y hasta temerario delegar la labor de búsqueda de jurisprudencia de soporte y luego volcarla sin cotejar la fuente, como aquí ocurrió”. [6]
Aquí radica el verdadero núcleo del problema: la profesión ha entrado en piloto automático y el abogado lentamente está perdiendo el arte del razonamiento jurídico. El derecho no es una simple técnica de recuperación de información, sino un ejercicio complejo de interpretación, ponderación y argumentación. Construir un alegato supone seleccionar hechos relevantes, relacionarlos con normas, cotejar precedentes y proyectar consecuencias. En ese proceso se forja la esencia de la profesión: persuadir mediante un razonamiento propio. Cuando esa tarea se sustituye por la transcripción automática de lo que devuelve una máquina, lo que se erosiona no es solo la calidad del escrito, sino el rol intelectual del abogado mismo.
Este riesgo no se limita a casos aislados. Basta observar lo que está ocurriendo en el ámbito jurídico privado para entender hacia dónde podría escalar esta tendencia. Hoy, grandes firmas legales ya trabajan con herramientas como Harvey (basada en tecnología de OpenAI), que redacta escritos, estructura argumentos y localiza precedentes en segundos. CoCounsel, de Casetext, revisa contratos, analiza expedientes y responde consultas jurídicas de forma automatizada. Luminance audita complejas operaciones contractuales en minutos y Blue J Legal predice fallos judiciales con base en jurisprudencia previa.
Estas plataformas no sustituyen al abogado, al menos en la teoría. En la práctica, sin embargo, están generando una peligrosa dependencia. Abogados que antes analizaban, redactaban y argumentaban con autonomía ahora delegan estas tareas a la máquina y, lo más preocupante, han perdido la capacidad de realizarlas sin ella. Una investigación reciente del Massachusetts Institute of Technology (MIT) Media Lab advierte que el uso de IA generativa, como ChatGPT, corroe la función cognitiva: debilita la capacidad de análisis, socava el pensamiento crítico y pone en riesgo la independencia en la toma de decisiones [6]. La IA no solo asiste; lentamente condiciona, moldea y redefine lo que significa pensar como abogado.
No se trata de un problema local. Prueba de ello es el creciente número de sanciones impuestas a abogados como Steven Schwartz [8] o Zachariah C. Crabill [9] en tribunales de Estados Unidos. En el Reino Unido, recientemente y también con motivo de una presentación judicial con citas inexistentes, el Tribunal Superior de Justicia advirtió que el profesional que utilice IA sin verificación incumple su deber fundamental de diligencia. [10] Y el Reglamento Europeo sobre Inteligencia Artificial calificó como de «alto riesgo» a determinados sistemas de IA como son los destinados a la administración de justicia y los procesos democráticos [11]. Rosario no es una anomalía: es un leading case, el primero en Argentina en el que los tribunales constataron en un expediente lo que hasta ahora eran meras teorías sobre “sesgos” y “alucinaciones” de la IA. [12]
El fallo rosarino es, en definitiva, una radiografía brutal de la decadencia de la profesión. La abogacía, que alguna vez se definió por el estudio y la razón, se va convirtiendo en un oficio de operadores que ejecutan instrucciones sin juicio crítico. Como bien se dijo en el fallo, “aparecen fuentes lisa y llanamente inventadas”. [12] Cada nuevo pronunciamiento que desnuda estas prácticas muestra lo bajo que hemos caído.
La inteligencia artificial puede ser aliada, pero nunca un reemplazo de la ética ni del estudio. Lo que está en juego no es solo la seriedad de un escrito: es la esencia misma de la abogacía. Y si no reaccionamos, el próximo fallo no hablará de jurisprudencia inexistente, sino de algo peor: de abogados inexistentes.