top of page

PretorIA vs ChatGPT, ¿un avance o retroceso para la garantía de justicia en Colombia?


fotografía tomada de: Periódico el Tiempo.


Recientemente, el Juzgado Primero del Circuito Laboral de Cartagena hizo disposición de la herramienta ChatGPT para la resolución de un fallo de tutela, cuya finalidad era analizar la protección de los derechos fundamentales a la salud y vida dignade un menor de edad. Este suceso captó la atención de las redes sociales, al viralizar el uso de IA en el mundo jurídico. Aunque esta noticia dejó a muchos sorprendidos, la realidad es que esta no es la única herramienta de IA que se ha utilizado para las cuestiones procesales en Colombia. Como bien lo afirman Vélez & Hernandez (2022), Colombia ya cuenta con un amplio uso de IA en su sistema judicial; el programa “Siarelis” en la Superintendencia de Sociedades, “Fiscal Watson” en la Fiscalía General, y de gran interés para el presente escrito, “PretorIA” por parte de la Corte Constitucional. Este último programa está enfocado en la organización y selección de los expedientes de tutela esperando a ser revisadas porla Corte Constitucional. De manera más específica, se encarga de auxiliar al juez a través de dos procesos: la categorización de los textos y la presentación de resúmenes no narrativos e “información estadística general” sobre las sentencias de tutela(Saavedra & Upegui 2021). Por ende, el uso de esta herramienta ha demostrado una reducción significativa del tiempo que le toma a la Corte hacer la respectiva selección de las tutelas y, simultáneamente, le da una importante información sintetizadaacerca de las categorías y características de las tutelas al juez.

Ahora bien, existe una clara diferencia entre la función y respectivo uso de ambas IA dentro de los procesos jurídicos por los jueces. En el caso de ChatGPT, el juez utilizó la herramienta dentro de la resolución del caso, al preguntarle al programa varios conceptos relevantes que fueron posteriormente citados y utilizados como soporte argumentativo. Una de las preguntas, junto con su respectiva respuesta, fue la siguiente: ¿Exigir en estos casos la cuota moderadora es una barrera de acceso al servicio de salud? “Sí, en algunos casos, la exigencia de pagar cuotas moderadoras puede ser una barrera de acceso al servicio de saludpara personas con diagnóstico de autismo, especialmente si tienen dificultades para obtener ingresos o si su situacióneconómica es precaria. La exigencia de pagar cuotas moderadoras puede impedir o dificultar el acceso a tratamientos y terapias esenciales para el bienestar y desarrollo de los niños con autismo. Por esta razón, la normativa en Colombia exime a los menores con diagnóstico de autismo de pagar cuotas moderadoras en sus terapias, con el objetivo de garantizar el acceso a estos servicios de salud esenciales sinobstáculos financieros.”. Por otro lado, PretorIA no ha demostrado una relación directa con la decisión de un juez, ni mucho menos con un sujeto dederecho de algún caso.

Como bien resalta Saavedra & Upegui (2021) el simple proceso de selección de tutelas no es susceptible de “afectar derechos subjetivos”. Tampoco restringe ninguna garantía al derecho al debido proceso, puesto que,para acceder a esta herramienta, el caso ya se debe encontrar en un proceso de segunda instancia. Realizando una breve comparación de ambos usos de las herramientas, es lógico afirmar que ChatGPT representa un riesgo mucho más alto para el principio de justicia en las cuestiones procesales en Colombia: no solo estableció una relación entre el punto de vista del juez y la resolución del caso, sino que también hizo una interpretación de los derechos fundamentales delsujeto de derecho.

Ahora bien, ¿qué sucedería si el programa realizará una interpretación errónea de lo que se le pregunta, teniendo en cuenta que susrespuestas son utilizadas dentro de la resolución de los casos? ¿Podría esto significar una violación directa a los derechosfundamentales de las personas? El profesor de la Universidad del Rosario, Juan David Gutiérrez, demostró que, efectivamente, esta herramienta es altamente inexacta: al presentarle las mismas preguntas que el juez del Juzgado Laboral de Cartagena, el programa le arrojó respuestas diferentes. Adicionalmente, el mismo director ejecutivo de ChatGPT, Sam Altmanm, afirmó que “es un error confiar en ella para algo importante en este momento... nos queda mucho trabajo por hacer en cuanto a solidez y veracidad” (Escobar, 2023).

Es evidente: no se debería hacer un uso de una herramienta que no asegura precisión conceptual, como lo es ChatGPT, dentro del análisis argumentativo de ningún proceso jurídico. Una cosa es usarla como una herramienta organizadora, como PretorIA,y otra confiar plenamente en una respuesta generada por una máquina, y aún peor, usarla como un material primario en el análisis de un caso de la vida real. Solo queda preguntarte: ¿dejarías la defensa de tus derechos a unas manos virtuales y resbaladizas?


Referencias:

Saavedra, V. & Upegui, J. (2021). PretorIA y la automatización del procesamiento de causas de derechos humanos.Dejusticia. https://www.derechosdigitales.org/wp- content/uploads/CPC_informe_Colombia.pdf

Vélez, K & Hernandez, E. (2022). Incidencia de la inteligencia artificial como herramienta jurídica en los principios procesales en Colombia. Universidad Libre seccional Cúcuta. R


J.Escobar (2023). Uso de ChatGPT para redactar fallos judiciales en Colombia no es confiable y su uso no es idóneo. Infobae. https://www.infobae.com/colombia/2023/02/05/uso-de-chatgpt-para- redactar-fallos-judiciales-en-colombia-no-es-confiable-y-su-uso-no-es-idoneo/

16 visualizaciones0 comentarios
bottom of page