Las grandes tecnológicas se comprometen a adoptar nuevas prácticas de seguridad para la IA

Una de las diferencias entre este último acuerdo sellado en Seúl y la Declaración de Bletchley es obvia: el nuevo acuerdo es a nivel organizativo, mientras que la Declaración de Bletchley fue realizada por los gobiernos, lo que sugiere un mayor potencial regulador asociado a la futura toma de decisiones en torno a la IA.

Los últimos compromisos también permiten que “las organizaciones determinen sus propios umbrales de riesgo”, lo que potencialmente puede no ser tan eficaz como establecerlos a un nivel más alto como hace otro de estos intentos de regular la seguridad de la IA: la Ley de IA de la UE, según señaló Maria Koskinen, directora de Políticas de IA del proveedor de tecnología de gobernanza de IA Saidot.

“La Ley de IA de la UE regula la gestión de riesgos de los modelos de IA de propósito general con riesgos sistémicos, que son exclusivos de estos modelos de propósito general de alto impacto”, afirmó.

Así, mientras que los últimos compromisos dejan en manos de las organizaciones la definición de sus propios límites, la Ley de IA de la UE “proporciona orientación al respecto con la introducción de la definición de ‘riesgo sistémico”, señaló Koskinen. “Esto da más seguridad no sólo a las organizaciones que aplican estos compromisos, sino también a quienes adoptan soluciones de IA y a las personas que se ven afectadas por estos modelos”.

Guiar a los CIO hacia la seguridad de la IA

Sin embargo, tanto Koskinen como otros coincidieron en que los compromisos son un paso más en la dirección correcta para garantizar que cualquier tecnología de IA desarrollada por aquellos que los han aceptado contará con un cierto nivel de seguridad. También sienta un precedente para los futuros modelos de IA y las innovaciones asociadas que surjan a medida que evolucione la tecnología, afirmó.

“Aunque los compromisos son voluntarios y no se hacen cumplir, sientan un precedente para otras organizaciones de IA”, señaló Koskinen. “Espero que veamos a otros seguir su ejemplo, beneficiando a toda la comunidad de IA mediante la creación de un ecosistema más seguro y más seguro para la innovación de IA”.



Source link