El Comité de Asignaciones de California aprobó el jueves la Ley de Innovación Segura para Modelos de Inteligencia Artificial de Frontera (también conocida como SB-1047), el último paso en la saga de regulación de Silicon Valley.
La Asamblea estatal y el Senado aún deben aprobar el proyecto de ley antes de que se convierta en ley.
¿Qué es SB-1047?
Conocida coloquialmente como la Ley de IA de California y monitoreada de cerca en todo el país por su posible posibilidad de sentar un precedente para las pautas estatales en torno a la IA generativa, SB-1047 Establece varias reglas para los desarrolladores de IA:
- Crear protocolos de seguridad y protección para los modelos de IA cubiertos.
- Asegúrese de que dichos modelos puedan cerrarse por completo.
- Impedir la distribución de modelos capaces de causar lo que la ley define como “daño crítico”.
- Contratar un auditor para garantizar el cumplimiento de la ley.
En resumen, el proyecto de ley proporciona un marco que tiene como objetivo prevenir modelos de IA generativos de causar daños a gran escala a la humanidad, como por ejemplo a través de una guerra nuclear o armas biológicas, o de causar pérdidas de más de 500 millones de dólares a través de un evento de ciberseguridad.
La ley define “modelos cubiertos” como aquellos que utilizan un poder de cómputo superior a 10^26 operaciones de números enteros o de punto flotante, cuyo costo supera los 100 millones de dólares, durante el entrenamiento.
La versión reciente de la ley incluye aportes de Anthropic
La versión del proyecto de ley que se aprobó el jueves incluyó algunos cambios sugeridos por el fabricante de inteligencia artificial Anthropic y aceptados por el autor principal del proyecto de ley, el senador Scott Wiener, demócrata de California.
Anthropic logró que el estado eliminara parte del texto del proyecto de ley que decía que las empresas que incumplieran la ley podrían enfrentar acciones legales por parte del fiscal general del estado. La versión más reciente también elimina la necesidad de que las empresas revelen los resultados de las pruebas de seguridad bajo amenaza de perjurio. En su lugar, los desarrolladores deberán presentar declaraciones, que no tienen el mismo peso legal.
Otros cambios incluyen:
- El cambio en la redacción, desde que las empresas de inteligencia artificial tienen que proporcionar una “garantía razonable” de seguridad a que tienen que proporcionar un “cuidado razonable”.
- Una excepción en la que los investigadores de IA que gastan menos de 10 millones de dólares en perfeccionar un modelo cubierto de código abierto no se consideran desarrolladores de ese modelo.
VER: Anthropic y OpenAI tienen hicieron su propia excavación sobre cómo la IA generativa crea contenido, incluido el contenido sesgado.
El proyecto de ley ya no prevé la creación de una División de Modelos Fronterizos, una agencia para supervisar la industria de la IA. En su lugar, una Junta de Modelos Fronterizos centrada en la orientación y las auditorías de seguridad con visión de futuro se ubicará dentro de la actual Agencia de Operaciones del Gobierno.
Si bien Anthropic contribuyó al proyecto de ley, otras grandes organizaciones como Google y Meta han expresado su desaprobación. Andreessen Horowitz, una firma de capital de riesgo conocida como a16z que está detrás de muchas empresas emergentes de inteligencia artificial, ha se opuso en voz alta Ley SB-1047.
¿Por qué es polémica la SB-1047?
Algunos representantes de la industria y del Congreso dicen que la ley restringirá la innovación y dificultará especialmente el trabajo con modelos de IA de código abierto. Entre los críticos del proyecto de ley se encontraba el cofundador y director ejecutivo de Hugging Face. Clément Delanguecomo lo señaló Empresa rápida.
Un estudio de abril realizado por el grupo de expertos pro-regulación Instituto de Políticas de Inteligencia Artificial descubrió que la mayoría de los californianos votaron a favor de apoyar el proyecto de ley tal como estaba en ese momento, y el 70 % estuvo de acuerdo en que “los futuros modelos de IA potentes podrían usarse para fines peligrosos”.
Los investigadores Geoffrey Hinton y Yoshua Bengio, conocidos como los “padrinos de la IA” por su trabajo pionero en el aprendizaje profundo, también apoyan públicamente el proyecto de ley. La ley “protegerá al público”, escribió Bengio en Un artículo de opinión en Fortune el 15 de agosto.
Ocho de los 52 miembros del Congreso de California firmaron Una carta El jueves, los legisladores dijeron que la ley “crearía riesgos innecesarios para la economía de California con muy pocos beneficios para la seguridad pública”. Argumentan que es demasiado pronto para crear evaluaciones estandarizadas para la IA, ya que las agencias gubernamentales como el NIST todavía están trabajando en la creación de esos estándares.
También sugieren que la definición de daño crítico podría ser engañosa. El proyecto de ley se ha equivocado al centrarse en desastres a gran escala, como las armas nucleares, mientras que “ignora en gran medida los riesgos demostrables de la IA como la desinformación, la discriminación, la violencia no consensual y la violencia sexual”. falsificaciones profundasimpactos ambientales y desplazamiento de mano de obra”, afirman los congresistas.
La SB-1047 incluye protección específica para los denunciantes de empresas de inteligencia artificial según la Ley de Protección de Denunciantes de California.
Alla Valente, analista senior de Forrester, dijo que los legisladores tenían razón al centrarse en los ciberataques, como el incidente de Change Healthcare en mayo, ya que se ha demostrado que estos ataques causan daños graves. “Con el uso de la IA generativa, estos ataques se pueden llevar a cabo de manera más efectiva y a una escala mucho mayor, lo que hace que la regulación de la IA sea algo que todos los estados tendrán que considerar como parte de la forma en que protegen y sirven a sus residentes”, dijo.
La ley plantea los desafíos de equilibrar la regulación y la innovación.
“Podemos avanzar tanto en la innovación como en la seguridad; las dos no son mutuamente excluyentes”, escribió Wiener en un Declaración pública el 15 de agosto. “Si bien las modificaciones no reflejan el 100% de los cambios solicitados por Anthropic, un líder mundial tanto en innovación como en seguridad, aceptamos una serie de modificaciones propuestas muy razonables y creo que hemos abordado las principales preocupaciones expresadas por Anthropic y muchos otros en la industria”.
Señaló que el Congreso está “bloqueado” en la regulación de la IA, por lo que “California debe actuar para adelantarse a los riesgos previsibles que presenta el rápido avance de la IA y, al mismo tiempo, fomentar la innovación”.
A continuación, el proyecto de ley deberá ser aprobado por la Asamblea y el Senado. Si se aprueba, el proyecto de ley será analizado por el gobernador Gavin Newsom, probablemente a fines de 2016. Agosto.
“Las organizaciones empresariales ya tienen que lidiar con los riesgos de la IA generativa mientras se enfrentan a la promulgación y aplicación de leyes de IA existentes y emergentes”, afirmó Valente. “Mientras tanto, el creciente panorama de litigios en materia de IA está obligando a las organizaciones a priorizar la gobernanza de la IA en sus organizaciones para asegurarse de abordar las posibles responsabilidades legales. La SB 1047 crearía barandillas y estándares para los productos de IA que promoverían la confianza en los productos habilitados para IA generativa y podrían acelerar la adopción”.