Los primeros requisitos se vuelven legalmente vinculantes


A partir del 2 de febrero de 2025, los primeros requisitos de la Ley AI de la UE son legalmente vinculantes. Las empresas que operan en la región que no cumplen con estos requisitos corren el riesgo de una multa de hasta el 7% de su facturación anual global.

Ahora no se permiten ciertos casos de uso de IA, incluso usarlo para manipular el comportamiento y causar daño, por ejemplo, a los adolescentes. Sin embargo, Kirsten Rulf, coautor de la Ley de AI de la UE y socio de BCG, dijo que son aplicables a “muy pocas” empresas.

Otros ejemplos de prácticas de IA ahora proporcionadas incluyen:

  • AI “puntuación social” que causa daños injustos o desproporcionados.
  • Evaluación de riesgos para predecir el comportamiento criminal basado únicamente en el perfil.
  • Identificación biométrica remota en tiempo real no autorizada por la aplicación de la ley en espacios públicos.

“Por ejemplo, los bancos y otras instituciones financieras que utilizan IA deben garantizar cuidadosamente que sus evaluaciones de solvencia no se encuentren en la categoría de puntuación social”, dijo Rulf. Lee el completo Lista de prácticas prohibidas a través de la Ley AI de la UE.

Además, el ACT ahora requiere que el personal de las empresas que proporcionan o use sistemas de IA necesitará tener “Un nivel suficiente de alfabetización de IA”. Esto se logrará mediante la capacitación internamente o la contratación del personal con el conjunto de habilidades apropiado.

“Los líderes empresariales deben asegurarse de que su fuerza laboral sea alfabetizada en un nivel funcional y equipado con capacitación preliminar de IA para fomentar una cultura impulsada por la IA”, dijo Rulf en un comunicado.

VER: TechRepublic Premium’s AI Quick Glossary

El próximo hito para la Ley AI llegará a fines de abril, cuando la Comisión Europea probablemente publicará el código de práctica final para los modelos de IA de propósito general, según Rulf. El Código entrará en vigencia en agosto, al igual que los poderes de las autoridades de supervisión del Estado miembro para hacer cumplir la Ley.

“De vez en cuando, las empresas deben exigir información suficiente de los proveedores de modelos de IA para implementar AI de manera responsable y trabajar en colaboración con proveedores, responsables políticos y reguladores para garantizar la implementación pragmática”, aconsejó Rulf.

La Ley de IA no sofoca la innovación, pero le permite escalar, según su coautor

Mientras que muchos tienen criticó la Ley AIasí como el enfoque estricto que la UE tiene hacia la regulación de las empresas tecnológicas en general, dijo Rulf durante una mesa redonda BCG para la prensa que esta primera fase de la legislación marca el “comienzo de una nueva era en la escalada de IA”.

“(La Ley) pone en su lugar las barandillas y el marco de gestión de calidad y riesgo que necesita para ampliar”, dijo. “No es una innovación sofocante … está permitiendo la escala de las innovaciones de IA que todos queremos ver”.

Agregó que la IA inherentemente viene con riesgos, y si lo escala, los beneficios de eficiencia sufrirán y pondrán en peligro la reputación del negocio. “La Ley AI le proporciona un plan realmente bueno de cómo abordar estos riesgos, sobre cómo abordar estos problemas de calidad, antes de que ocurran”, dijo.

Según BCG, el 57% de las empresas europeas citan la incertidumbre en torno a las regulaciones de IA como un obstáculo. Rulf reconoció que la definición actual de IA que cae bajo la Ley de IA “no puede ser operacionalizada fácilmente” porque es muy amplia, y fue escrita como tal para ser consistente con las pautas internacionales.

“La diferencia en cómo interpretas que la definición de IA para un banco es la diferencia entre 100 modelos que caen bajo esa regulación, y 1,000 modelos más que caen bajo esa regulación”, dijo. “Eso, por supuesto, hace una gran diferencia tanto por los costos de capacidad, la burocracia, el escrutinio, pero también pueden incluso los responsables políticos mantenerse al día con todo eso?”

Rulf enfatizó que es importante que las empresas se involucren con la oficina de la UE AI, mientras que los estándares para la Ley de AI que aún no se han eliminado se están redactando. Esto significa que los formuladores de políticas pueden desarrollarlos para que sean lo más prácticos posible.

VER: ¿Cuál es la oficina de AI de la UE? Nuevo cuerpo formado para supervisar el despliegue de los modelos de propósito general y la Ley de IA

“Como regulador y responsable de políticas, no escuchas estas voces”, dijo. “No se puede desregular si no sabe dónde están los grandes problemas y los pasos … solo puedo alentar a todos a ser lo más contundentes posible y lo más específico de la industria posible”.

Independientemente de las críticas, Rulf dijo que la Ley de IA se ha “evolucionado a un estándar global” y que ha sido imitado tanto en Asia como en ciertos estados de los Estados Unidos. Esto significa que muchas compañías pueden no encontrar demasiado exigente si ya han adoptado un programa de IA responsable para cumplir con otras regulaciones.

VER: Ley de AI de la UE: los profesionales de TI australianos deben prepararse para la regulación de la IA

Más de 100 organizaciones, incluidas Amazon, Google, Microsoft y OpenAi, ya han firmado el Pacto de eu ai y se ofreció como voluntario para comenzar a implementar los requisitos de la Ley antes de los plazos legales.

Leave a Reply

Your email address will not be published. Required fields are marked *