El Ministerio de Justicia turco implementa un sistema de inteligencia artificial que vincula casos judiciales con organizaciones terroristas, generando serias preocupaciones sobre la imparcialidad, la privacidad y la legalidad del proceso. Expertos advierten sobre riesgos para el juicio justo, la presunción de inocencia y la protección de datos personales
The post Controversia en Turquía por el uso judicial de inteligencia artificial que pone en jaque los derechos fundamentales first appeared on Hércules.
Un proyecto impulsado por el Ministerio de Justicia de Turquía y denominado “Sistema de Predicción Organizacional CBS” ha levantado fuertes críticas por parte de juristas y defensores de derechos humanos, al considerar que puede socavar principios fundamentales del derecho, como la presunción de inocencia. Esta iniciativa, basada en inteligencia artificial, busca detectar automáticamente conexiones entre nuevos casos judiciales y entidades previamente catalogadas como terroristas dentro del sistema legal nacional.
La herramienta ha sido incorporada al Sistema de Informática Judicial (UYAP) y su justificación oficial apunta a una mejora estadística y a la reducción de errores humanos en el tratamiento de datos. El 8 de abril, el Ministerio de Justicia presentó formalmente el proyecto en una comisión parlamentaria centrada en los riesgos del uso de IA en la administración pública y la posibilidad de regular su aplicación. Según se detalló, el sistema cruza información de nuevos expedientes con registros previos de grupos terroristas, señalando posibles coincidencias y sugiriendo categorizaciones. Sin embargo, esta automatización puede conducir a etiquetar anticipadamente a personas sin proceso judicial, lo que podría vulnerar el derecho a un juicio imparcial.
El uso de esta inteligencia artificial plantea dilemas éticos y legales profundos. La asociación automatizada de individuos con organizaciones extremistas puede afectar su imagen y condicionar desde el inicio la visión de jueces y fiscales. Desde el ministerio se argumenta que el objetivo es optimizar procesos administrativos y cumplir con exigencias de organismos internacionales como el GAFI. Pero los detractores alertan sobre el sesgo que puede generar, afectando especialmente a minorías y sectores ya vulnerables.
Este no es el único sistema que preocupa. El Ministerio ha desarrollado otros ocho proyectos de IA que podrían entrar en conflicto con estándares internacionales de justicia y derechos humanos. Aunque se reconoce que los algoritmos reflejan los datos con los que se entrenan, la ausencia de transparencia sobre el origen y tratamiento de estos datos genera inquietud. Los sesgos existentes en las bases de datos pueden replicarse y amplificarse, provocando decisiones discriminatorias si no existen mecanismos de corrección efectivos.
Aunque se insiste en que las herramientas no emiten sentencias, sino que sólo apoyan la toma de decisiones, la influencia que ejercen sobre los jueces puede ser significativa. Si se da por válido un análisis automatizado sin entender su lógica o sin posibilidad de cuestionarlo, el principio del juicio motivado se diluye. La falta de explicaciones comprensibles contradice los llamados internacionales a una inteligencia artificial clara y trazable.
La base de datos utilizada por estas herramientas incluye millones de documentos judiciales que contienen datos personales muy sensibles. El Ministerio asegura que la información está anonimizada y protegida, pero expertos advierten que en bases tan extensas es posible reidentificar personas, lo que violaría tanto la legislación nacional como estándares europeos como el GDPR.
Otro aspecto crítico es la responsabilidad en caso de error. Si una IA contribuye a una decisión judicial equivocada, aún no está claro si debe rendir cuentas el desarrollador, el Estado o el funcionario que usó la herramienta. Esta falta de definición legal deja desprotegidas a las víctimas, contraviniendo el derecho al recurso efectivo contemplado en el artículo 13 del Convenio Europeo de Derechos Humanos.
Otros programas, como “Ez Cümle”, que resume automáticamente documentos legales, o los que proponen estandarizar el razonamiento en los fallos judiciales, también generan polémica. Si bien pueden facilitar la carga de trabajo, corren el riesgo de deshumanizar la justicia, restando profundidad al análisis individual de los casos.
Algunos sistemas tienen como objetivo prever delitos o asociaciones organizativas mediante el análisis de patrones históricos, algo que ya ha sido duramente criticado en otros países por fomentar el perfilado racial o social. Sin regulaciones estrictas, estas iniciativas pueden chocar con el artículo 8 del mismo tratado europeo, que protege la vida privada y familiar.
El problema se agrava si las decisiones iniciales de clasificación tienen una fuerte base algorítmica sin documentación clara. Esto puede dificultar las apelaciones, ya que los acusados tendrían obstáculos para refutar decisiones cuya lógica permanece opaca o indescifrable.
El ministerio sostiene que cuenta con un comité de ética que vigila el uso de la IA, pero este grupo opera dentro del propio Ministerio de Justicia, lo que pone en duda su independencia. Sin una supervisión autónoma y externa, la transparencia y el control democrático se ven comprometidos, aumentando la posibilidad de abusos.
En su intervención ante la comisión parlamentaria, Servet Gül, director general de tecnologías de la información del ministerio, reconoció que el equipo técnico encargado del desarrollo de IA es limitado. Solo once personas conforman actualmente el Departamento de Inteligencia Artificial y Big Data, aunque se prevé ampliarlo. Gül subrayó que la IA, en manos responsables, puede ser útil, pero admitió que también representa un arma peligrosa si se usa con malas intenciones.
El académico Osman Gazi Güçlütürk, de la Universidad de Galatasaray, también intervino. Criticó la definición legal de IA publicada en julio de 2024 en el Boletín Oficial, señalando que es demasiado limitada. A su juicio, centrarse en una única concepción rígida del concepto podría llevar a regulaciones inadecuadas y contraproducentes. Señaló que incluso expertos en ingeniería discrepan sobre su alcance.
Uno de los peligros más serios para Turquía es la seguridad digital en sus instituciones. Las violaciones de datos en organismos públicos son frecuentes, y su contenido suele terminar en foros ilegales de internet. El 12 de septiembre de 2024, el ministro de Transporte e Infraestructura, Abdulkadir Uraloğlu, reconoció el robo de datos personales de 85 millones de ciudadanos durante la pandemia. Inicialmente se apuntó al sistema sanitario, aunque tras las críticas públicas se intentó matizar que no hubo tal filtración.
El historial no es alentador: en 2015, el Consejo Supremo Electoral sufrió un ciberataque que expuso los datos de los votantes. En 2021, los sistemas del Ministerio de Agricultura también fueron comprometidos, con la pérdida total de archivos digitales. La oposición denunció que se recuperaron sólo después de pagar un rescate.
En el Índice de Estado de Derecho 2024 del World Justice Project, Turquía ocupó el puesto 117 de 142, descendiendo un escalón respecto al año anterior. Este indicador mide aspectos como la ausencia de corrupción, la protección de derechos básicos y la calidad del sistema judicial
The post Controversia en Turquía por el uso judicial de inteligencia artificial que pone en jaque los derechos fundamentales first appeared on Hércules.