El magistrado David Lisandrello detectó que un abogado presentó un incidente basado en normas inexistentes, atribuyendo el error al uso acrítico de herramientas como ChatGPT. La resolución fue comunicada al Colegio de Abogados para su análisis.
En un fallo reciente, el juez en lo Civil y Comercial de Villa Constitución, David Lisandrello, se refirió al uso de herramientas de Inteligencia Artificial (IA) en la redacción de escritos judiciales. El magistrado detectó que un abogado presentó un incidente basándose en normas y plazos que no existen en el Código Procesal de Santa Fe.
Según la resolución, el estilo gramatical y la construcción de las frases permitieron inferir con un alto grado de verosimilitud que el texto había sido generado por una IA. Lisandrello señaló que estos modelos, al no ser nativos para cuestiones jurídicas, pueden producir «alucinaciones», es decir, inventar respuestas que suenan lógicas pero carecen de sustento legal.
«Si plantear un incidente es cosa seria, plantearlo apoyándose en un modelo de IA… es mucho más serio. Debe acentuarse el propio juicio, no relajarse», afirmó el juez. Subrayó que la tecnología puede ser un auxiliar, pero no exime al profesional de su deber de verificar la información legal.
La resolución no se limitó al caso en cuestión. Lisandrello ordenó comunicar la decisión a la Delegación del Colegio de Abogados de Villa Constitución y, a través de ella, al Directorio del Colegio de Abogados de Rosario. El objetivo es que el Tribunal de Ética y los institutos correspondientes tomen conocimiento de este nuevo riesgo: que la justicia se vea entorpecida por escritos generados automáticamente sin un control humano suficiente.
