Transparencia en IA: proyecto de ley e implementación

La iniciativa busca incorporar criterios de transparencia y control humano en el uso de inteligencia artificial, con auditorías y mecanismos para prevenir sesgos y proteger derechos fundamentales

Guardar
Sistemas automatizados requieren auditoría y
Sistemas automatizados requieren auditoría y control humano

En las puertas de este nuevo paradigma civilizatorio donde la tecnología ya no transforma solamente procesos, sino que redefine identidades, roles y biografías, y tras la fructífera jornada convocada por la diputada Silvana Giudici, en la cual debatieron en Diputados acerca del impacto de la IA en el trabajo -donde expusimos académicos, técnicos, desarrolladores y usuarios-, se ha impulsado el proyecto de ley 3540-D-2025 por la misma diputada con el apoyo de otros legisladores. Dicho iniciativa legislativa procura modificar la Ley 25.326 de Protección de Datos Personales incorporando criterios de transparencia algorítmica, explicabilidad y auditoría independiente, emergiendo como una respuesta normativa urgente y conformada por principios bioéticos y constitucionales.

El interrogante ético manifiesto en mi artículo “IA e Impacto Laboral: aspecto éticos”, mostrando que la IA produce una fractura entre el hacer y el ser al asumir funciones cognitivas, creativas, elaborativas, decisorias y de perfilamiento que anteriormente constituían el núcleo de nuestra biografía e identidad laboral, se resume en qué deberíamos permitir que haga la IA. Y ello está en el centro del proyecto de ley, contemplando que los sistemas algoritmizados sólo deben intervenir cuando estén garantizadas la dignidad de la persona, la participación humana y la comprensión clara y concisa del funcionamiento del sistema. También incluye el derecho a la revisión humana como uno de sus ejes normativos, hundiendo sus raíces en el conocido principio de no delegación, no debiendo permitir que decisiones con impacto deontológico, ético, jurídico o legal sean tomadas exclusivamente por algoritmos. De lo contrario, se rompe la cadena de responsabilidad y emerge una “irresponsabilidad algorítmica” sin rostro.

Acorde a mi artículo “Opacidad algorítmica e implicancias bioéticas”, donde demuestro cómo en diversos ámbitos, educativo, medico-sanitario, judicial, comercial-financiero o en seguridad, la opacidad algorítmica impide el consentimiento informado y obstaculiza todo tipo de control o auditoria, el proyecto exige que los sistemas utilizados en ámbitos sensibles sean explicables, auditables y trazables. Todo ello, en congruencia con las normativas de control ciudadano y protección de datos de los países más avanzados en este respecto. Y esto aplica especialmente en el ámbito de la salud, cuyos gravísimos riesgos explico en el reportaje realizado por Infobae, “Rabino Dr. Fishel Szlajen: la IA en salud debe ser una herramienta, no un oráculo”.

Bajo este mismo criterio, el proyecto legisla contra el sesgo algorítmico como nueva forma de discriminación estructural por la cual se replican patrones racistas, xenófobos o clasistas. Por ello, esta iniciativa no se limita a detectar sesgos, sino que exige diseño preventivo, auditoría externa y trazabilidad de decisiones, alineándose con la normativa europea que obliga a realizar evaluaciones de impacto algorítmico en sistemas de alto riesgo.

El rabino Fishel Szlajen participó
El rabino Fishel Szlajen participó recientemente de un debate sobre IA en Diputados impulsado por la legisladora Silvana Giudici

A la espera de su pronta sanción y debiendo considerar también su implementación, sugiero ahora la creación de una Autoridad Nacional de Supervisión Algorítmica (ANSA), similar al Algorithmic Accountability Office de Nueva York, que es supervisado por el Departamento de Protección del Consumidor y Trabajador según la NYC Local Law 144 (2021); o la Responsible Technology Adoption Unit (2024), dependiente desde el 2025 del Departamento de Ciencia, Innovación y Tecnología, incluyendo el Servicio Digital del Gobierno, en Reino Unido.

Dicha ANSA, exigirá a las organizaciones realizar una evaluación de impacto algorítmico y de protección de datos, antes de desplegar sistemas que puedan afectar derechos fundamentales. Esto incluye análisis de riesgos técnicos, sociales y éticos, con el compromiso de mitigarlos antes y durante su operación, así como también implementar mecanismos de seguimiento y actualizaciones periódicas con reportes obligatorios.

La ANSA acreditará auditores algorítmicos, emitirá guías técnicas por sector, supervisará el cumplimiento legal y ético, y actuará como perito institucional en juicios. También coordinará las auditorías, recibirá denuncias, emitirá recomendaciones y eventualmente un régimen de sanciones claras para responsables que incumplan con los requisitos de transparencia, consentimiento, auditoria o revisión humana, además de fomentar buenas prácticas.

A su cargo tendrá consejos consultivos por sector, integrados por académicos, técnicos y representantes de la sociedad civil, para el diseño de Manuales Sectoriales de Auditoría y Ética Algorítmica, los cuales deberán estar adaptados a áreas críticas como salud, empleo, justicia, crédito o investigación, basados en los marcos internacionales del IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems y OECD AI Principles (2019). De hecho, bajo un modelo similar al Algorithmic Impact Assessment Tool de Canadá.

Diseñará también mecanismos claros para la gestión y reparación de impactos negativos, definiendo procedimientos ágiles y accesibles favoreciendo el ejercicio del derecho a la revisión humana y a la reparación cuando una decisión algoritmizada les afecte negativamente. Todo ello especificando plazos máximos de respuesta, responsables y canales oficiales para la presentación, trámite y resolución de reclamos relacionados.

Dentro de dicha ANSA, existirá un Registro Público Nacional de Sistemas Algoritmizados, tal como el Algorithmic Transparency Record de Ámsterdam (2020), en cuyo portal se deberá informar la finalidad del sistema, los datos utilizados, proveedor, auditor y criterios de revisión más los derechos de los usuarios. El sitio deberá permitir consultas públicas y reportes periódicos que faciliten la supervisión ciudadana y académica, con foco en detectar, corregir y evitar sesgos o impactos desiguales sobre grupos vulnerables o minoritarios.

También tendrá un área de capacitación y difusión para operadores, desarrolladores y responsables de sistemas algorítmicos en materia de ética, derechos digitales y cumplimiento normativo. Difundirá materiales educativos dirigidos a la ciudadanía para comprender sus derechos y el funcionamiento básico de los sistemas automatizados.

Todo ello, acompañado por la incorporación curricular y la promoción de la alfabetización algorítmica, siguiendo el modelo de Finlandia (Elements of AI), con cursos gratuitos online, para formar ciudadanos capaces de comprender y controlar el impacto de la IA.

La transparencia algorítmica, clave para
La transparencia algorítmica, clave para proteger derechos (Reuters/Dado Ruvic/Ilustración)

Por otro lado, y a modo de sugerencias para la articulación internacional, el Estado argentino puede consolidar su liderazgo en el hemisferio sur mediante el fortalecimiento de su participación en el AI Observatory de la OCDE; la participación más activa en el programa Ethics of Artificial Intelligence Recommendation 2021, de la UNESCO y en los Convenios con el Consejo de Europa, particularmente en el CAHAI (Comité Ad Hoc sobre Inteligencia Artificial y Derechos Humanos). Debería involucrarse también y fuertemente en el Latin American AI Coalition (liderado por Chile, Uruguay y México) y en la conformación de acuerdos de cooperación técnica con el AI for Good de la ONU, programa de la International Telecomunication Union, para monitoreo y benchmarking. La Argentina debería además tener una mayor participación en evaluaciones internacionales comparadas como las AI Readiness Index del Oxford Insights, o ser pionera en el desarrollo de una IA Watch para América Latina y el Caribe, con ayuda de la CAF (Banco de Desarrollo de América Latina y el Caribe) y el BID; quienes promueven el uso de la IA en la región al servicio del bien social, la inclusión financiera, la mejora de servicios públicos y el desarrollo de políticas públicas responsables.

Este proyecto de ley no sólo comienza a adaptar el derecho a las nuevas tecnologías, sino que lo eleva a una función civilizatoria, reafirmando que la IA debe estar al servicio del ser humano y no al revés. Rechaza la lógica de la opacidad, proponiendo en su lugar transparencia, explicabilidad, trazabilidad y responsabilidad.

Su sanción, implementación institucional y articulación internacional no son opcionales, sino condiciones para que la Argentina pueda liderar con legitimidad, prudencia y ética esta nueva era tecnológica pero humanizada.