Buscador
Ver revista digital
Sat

¿Es legal que el SAT aplique IA para clasificar contribuyentes?

26-02-2025, 8:31:02 AM Por:
¿Es legal que el SAT aplique IA para clasificar contribuyentes?
© Especial

En México aun no hay una legislación que regule y limite el uso de esta tecnología, lo que aumenta el riesgo de vulneración de derechos humanos.

¿Te imaginas que un algoritmo determine que eres una persona propensa a evadir impuestos? ¿Qué pensarías si las autoridades te clasificaran como un ciudadano con una alta probabilidad para infringir la ley? Estas interrogantes no son hipotéticas ni forman parte de un filme de ciencia ficción, pues en México y en otros países del mundo la Inteligencia Artificial ya se está aplicando en áreas fiscales y de seguridad.

Desde 2024, el Plan Maestro del Servicio de Administración Tributaria (SAT) utiliza la Inteligencia Artificial (IA) en sus programas de fiscalización, lo que ayuda a esta dependencia a mejorar “la planeación en los procesos de recaudación” de impuestos.

A través de modelos de “analítica de grafos y aprendizaje automático (machine learning)” el SAT realiza “la clasificación de los contribuyentes de riesgo”, además de que identifica “redes complejas de elusión y evasión” fiscal, detalla el plan mencionado.

Sí, la autoridad encargada de cobrar los impuestos en nuestro país ya clasifica a los mexicanos por la probabilidad de que estos dejen de enterar sus respectivas contribuciones, es decir lleva a cabo un social scoring o puntuación social de los contribuyentes, lo que desde 2024 está prohibido en la Unión Europea (UE).

La puntuación social de parte de gobiernos o empresas puede generar sesgos, un tratamiento desigual, y hasta discriminación. De hecho, la Ley de Inteligencia Artificial de la UE y su Reglamento (UE) 2024/1689 consideran que esta es una práctica inaceptable por los riesgos que representa para los derechos humanos.

Para el bloque de países europeos, usar sistemas de IA para tomar decisiones administrativas sin transparencia -y sin supervisión humana- transgrede el derecho fundamental a la igualdad.

En el caso del SAT, la finalidad de los datos de los contribuyentes que recaba esta dependencia no contempla que estos también sean usados para alimentar programas de IA.

Por ende, aunque en nuestro país no exista una legislación en materia de Inteligencia Artificial, esta autoridad está tratando nuestros datos en contravención a la Ley General de Protección de Datos Personales en Posesión de Sujetos Obligados.

Opacidad algorítmica

Es posible que los propósitos del SAT -al usar el aprendizaje automático- sean constitucionalmente válidos, pues pretende detectar a quienes infringen la legislación fiscal, lo que a la postre aumenta la recaudación, beneficiándose toda la sociedad.

El problema es que el proceso con el que se determina el nivel de riesgo que presentan los contribuyentes se lleva a cabo sin una legislación específica que regule y limite el uso de la IA, sobre todo cuando esta se aplica para hacer clasificaciones, ya que estas operaciones necesariamente incluyen y excluyen a las personas según los datos previos que se le proporcionan a la Inteligencia Artificial.

No debemos olvidar que esta tecnología no es infalible. De hecho, en muchas ocasiones arroja resultados sesgados, e incluso “alucina” al responder con falsedades que muestran las muchas inconsistencias que aún tiene.

Lo mismo ocurre con la aplicación de la Inteligencia Artificial en el ámbito policiaco y de seguridad, aunque esto aún no se presenta en México.

No obstante, antes de que los algoritmos también se usen en nuestro país para determinar si alguien posee una elevada tendencia delictiva, es importante conocer los problemas que ya se han presentado en naciones como el Reino Unido, donde un programa denominado HART ha sido señalado como discriminatorio.

Clasificación delictiva

Pensado para ser un auxiliar de la Policía británica, la IA denominada HART (Harm Assessment Risk Tool o Herramienta de Evaluación de Riesgo de Daño) empezó a utilizarse en 2016 en la ciudad de Durham. Su objetivo es evaluar la probabilidad de reincidencia de personas que previamente han cometido un delito.

La aplicación de esta IA permite a las autoridades ser más eficientes en la toma de decisiones sobre la supervisión que deben recibir quienes se encuentran en libertad, tras haber estado en prisión.

Sin embargo, desde el inicio de su aplicación, HART mostró sesgos raciales y socioeconómicos, porque en los datos que tomaba para evaluar a las personas incluía el Código Postal de su domicilio, lo que hacía que el programa asignara un mayor riesgo de reincidencia delictiva a quienes vivían en zonas donde el índice de inseguridad es más elevado.

Investigadores de las Universidades de Durham, Cambridge, y del Instituto Alan Turing, evaluaron el programa y concluyeron que “hay un impacto demasiado grande en la sociedad y en el bienestar de los individuos” cuando se les evalúa con algoritmos.

Actualmente, la Policía de Durham ya eliminó el Código Postal como dato para las clasificaciones que realiza el programa, aunque esto no garantiza que no sigan presentándose sesgos discriminatorios que, en el caso de HART afectaban a las personas más pobres.

Otros riesgos

Considerando este caso y el Plan Maestro del SAT, estos son algunos riesgos adicionales que plantea el uso de la IA en el ámbito fiscal y policíaco:

  • Privacidad vulnerada

Para poder funcionar, la IA debe ser alimentada con una gran cantidad de información, incluyendo un amplio volumen de datos personales y datos sensibles, lo que vulnera la privacidad de las personas.

  • Sesgos discriminatorios

La IA contiene sesgos que pueden discriminar a las personas a partir del tipo de información que se le proporciona, trasgrediendo los derechos humanos de los ciudadanos que son clasificados por los algoritmos.

  • Manipulación de datos

Al aplicarse en las áreas policíacas y de seguridad, la IA puede ser usada con fines ilícitos. Además, aumenta el riesgo de que los datos personales en poder de las autoridades sean sustraídos.

  • Opacidad oficial

La complejidad de esta tecnología la convierte en un área sumamente opaca, pues su programación y funcionamiento suelen estar reservados por los gobiernos.

  • Zonas grises

Al no tener una regulación, en México el uso de la IA se encuentra en una zona gris en términos jurídicos, lo que aumenta la posibilidad de trasgresión de algunos derechos.

MÁS NOTICIAS:

autor Periodista y abogada, especialista en análisis jurídico y de derechos humanos. Ha sido reportera, conductora de radio y editora.

Comentarios