Originalmente,el Proyecto de Ley sumó 129 enmiendas de las cuales 20 son incorporadas integralmente y otras 13 parcialmente.
Senador Eduardo Gomes. Foto: Pedro França/Agência Senado
Comparte
El senador Eduardo Gomes (PL-TO),relator del Marco Legal de Inteligencia Artificial (IA) de Brasil,presentó un voto complementario al proyecto de ley PL 2338/2023,incorporando más 20 enmiendas integrales al PL que debe ser votado la próxima semana.
Se incluyeron,entre los cambios propuestos,reglas que flexibilizan los mecanismos de autorregulación y la revisión de los criterios de riesgo de los sistemas de IA,especialmente aquellos aplicados en la gestión de infraestructuras críticas.
Entre los elementos ya autorizados en la propuesta,la autorregulación permite que los agentes de IA se asocien voluntariamente para promover mejores prácticas de gobernanza durante todo el ciclo de vida de los sistemas de IA,incluyendo el intercambio de experiencias y la estandarización técnica.
Ahora,con la enmienda,se añade la adopción de estándares y certificaciones reconocidos internacionalmente,con el objetivo de garantizar la interoperabilidad global y la visibilidad para los agentes de IA.
Te puede interesar: Milei oficializa como asesor a su mano derecha para Inteligencia Artificial
La responsabilidad de la regulación de la clasificación de los sistemas de IA de alto riesgo,como ya se sabe,fue atribuida al Sistema Nacional de Regulación y Gobernanza de Inteligencia Artificial (SIA),coordinado por la Autoridad Nacional de Protección de Datos (ANPD).
Con la enmienda,se entiende que la clasificación de alto riesgo se aplica sólo cuando hay impacto ilícito o abusivo a la integridad física o a la interrupción de servicios esenciales. Esto refleja las demandas del sector de telecomunicaciones,enfatizando que la regulación debe centrarse en las aplicaciones de la tecnología,considerando la probabilidad y la gravedad de los impactos adversos.
La enmienda aceptada por el relator incluye la consideración de daños “significativos” al evaluar nuevos sistemas de alto riesgo y exige notificación previa a los agentes de IA sobre la reclasificación de sistemas,garantizando que estén al tanto de los cambios regulatorios.
En resumen,el texto detalla las propuestas y enmiendas al marco legal de IA,destacando la importancia de la autorregulación,la definición de criterios claros para la clasificación de sistemas de alto riesgo y la necesidad de notificación previa a los agentes de IA sobre cambios en la regulación.
línea directa de noticias en español: su fuente de noticias regionales y corporativas
© línea directa de noticias en español
política de privacidad