La Cámara Penal de Esquel anuló una condena dictada por el juez Carlos Richeri al comprobar que había utilizado una herramienta de Inteligencia Artificial (IA) para redactar parte de la sentencia. El fallo original, emitido el 4 de junio, había condenado a Raúl Amelio Payalef a dos años y seis meses de prisión por un robo simple, pero ahora el caso deberá volver a juzgarse con otro magistrado.
La decisión fue tomada por unanimidad por los camaristas Carina Estefanía, Martín Zacchino y Hernán Dal Verme, quienes además ordenaron remitir el expediente al Superior Tribunal de Justicia de Chubut para que investigue la conducta del juez y determine el alcance de las consecuencias derivadas del uso incorrecto de la IA en una decisión judicial.
El hecho salió a la luz porque en el texto de la sentencia se incluyó por error una frase que revelaba la intervención de un asistente de redacción automatizada: “Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar.” Esa línea, copiada literalmente, fue considerada una prueba inequívoca de que parte del fallo fue elaborada por una herramienta de Inteligencia Artificial.
Los camaristas señalaron que este error deja una brecha demasiado amplia para determinar cuánto del contenido es atribuible al razonamiento humano y cuánto al sistema automatizado, lo que vulnera el principio de juez natural y la prohibición de delegar funciones jurisdiccionales en programas informáticos.
Según la resolución, el magistrado no ejerció el control humano exigido y firmó la sentencia sin aclarar el uso del asistente, lo que impide verificar la trazabilidad de su razonamiento y convierte el texto en una decisión “dogmática o inmotivada”.
Por ese motivo, el tribunal declaró la nulidad del juicio y de la sentencia, y remitió las actuaciones al Superior Tribunal de Justicia para que investigue posibles faltas éticas y un eventual incumplimiento de las normas de confidencialidad, ya que en el texto procesado por el asistente se habrían incluido nombres de partes, testigos y peritos.
La Cámara advirtió que el caso deja al descubierto las graves consecuencias del uso indebido de la Inteligencia Artificial en el ámbito judicial y el riesgo que implica delegar el razonamiento de una sentencia en sistemas automáticos, afectando el derecho de los ciudadanos a una justicia transparente y humana.


Redes