La detección que puso el caso en la agenda
Durante la revisión de una apelación en un reclamo por un vehículo 0 km, la Cámara Civil de Roca detectó 26 citas jurisprudenciales que sencillamente no figuraban en los archivos del Poder Judicial ni en la Biblioteca del STJ. Veinte de esas citas aparecían en el escrito del actor y seis en el de la codemandada. Tras solicitar explicaciones, las respuestas de los letrados fueron pobres: uno habló de un “error de pluma” y otro dijo no poder acceder a la revista doctrinaria que supuestamente contenía los fallos. Ante la imposibilidad de verificar los precedentes, la Cámara decidió remitir el caso al Tribunal de Ética del Colegio de Abogados y dejó sin efectos la intervención profesional de ambos letrados —incluyendo la negativa al pago de honorarios— mientras se dilucida la conducta profesional.
¿Alucinaciones de la IA o invención deliberada?
Los jueces no cerraron la puerta a las nuevas tecnologías: reconocieron que los chatbots y otras herramientas de IA generativa pueden ser útiles como auxiliares en la labor legal. Pero advirtieron con dureza que sus resultados deben ser verificables: en la práctica los modelos generan con frecuencia las llamadas “alucinaciones” —respuestas plausibles pero falsas—, entre ellas citas y fallos inexistentes que pueden inducir al error al tribunal. Si las citas provinieran de una IA sin control humano, el episodio sería grave; si, aún peor, las hubieran inventado los propios abogados, la conducta podría configurar una tentativa de engaño procesal.
Las consecuencias disciplinarias y la laguna regulatoria
La Cámara aplicó medidas de carácter sancionatorio-administrativo (notificar al colegio profesional y dejar sin efecto la intervención y el pago de honorarios) aunque, por ahora, no impuso sanciones disciplinarias formales. El fallo plantea una tensión: el Poder Judicial provincial cuenta con una acordada y protocolos internos para el uso de IA en su funcionamiento, pero esos lineamientos no alcanzan a los profesionales particulares. Queda así un vacío regulatorio crítico: ¿quién fiscaliza y con qué reglas el uso de algoritmos por parte de abogados que suscriben escritos ante los tribunales?
Lo que está en juego: confianza, verdad procesal y ética profesional
Más allá de un error puntual, el caso evidencia un riesgo sistémico. La práctica forense se apoya en precedentes verificables; la incorporación acrítica de resultados generados por IA pone en peligro la verdad material y la integridad del proceso. Para el ciudadano que litiga, la consecuencia es directa: decisiones fundadas en “precedentes” que no existen vulneran su derecho a la tutela judicial efectiva. Para la profesión, la confianza pública en la abogacía corre serio riesgo si no se establecen controles claros.
Regulación y educación
La era digital trae herramientas poderosas que pueden mejorar la práctica jurídica, pero ese poder exige reglas claras y responsabilidad. El caso de Roca es una advertencia: no alcanza con la utilidad técnica si no se garantiza la veracidad y la responsabilidad profesional.
Bajo el constante e inminente desarrollo de estas tecnologías, los Colegio de Abogados, los tribunales y las universidades, tienen por delante una tarea sumamente necesaria “capacitación”, que pueden provenir de cursos acreditados sobre usos y límites de la IA para abogados, con especial foco en riesgos de “alucinaciones” y en buenas prácticas de verificación.
Fuente: comunicacionjudicial.jusrionegro.gov.ar


