En un giro significativo en la regulación de la inteligencia artificial en Estados Unidos, el Gobernador de California, Gavin Newsom, vetó el proyecto de ley SB 1047, conocido como la Ley de Innovación Segura y Segura para Modelos de Inteligencia Artificial Fronteriza. Este proyecto de ley buscaba implementar medidas de seguridad exigentes para proteger al público de posibles daños causados por las tecnologías de IA.
Impacto del veto en las empresas de inteligencia artificial
El veto representa un alivio para muchas de las principales empresas de inteligencia artificial que operan en California. Se esperaba que la ley, si se hubiera aprobado, tuviera un impacto significativo en su funcionamiento, dado que habría impuesto estándares de seguridad muy estrictos. El Gobernador Newsom argumentó que el proyecto no distinguía adecuadamente entre sistemas de IA implementados en entornos de alto riesgo y aquellos operando en funciones más básicas.
Las empresas cubiertas por la ley, que hubiera aplicado a modelos de IA cuyo costo de entrenamiento excediera los 100 millones de dólares, se habrían visto obligadas a desarrollar mecanismos como un “interruptor de emergencia” para mitigar eventos desastrosos, así como protocolos de prueba exhaustivos.
Opiniones encontradas en la comunidad tecnológica
El veto ha generado reacciones mixtas. Mientras algunas voces, como el director de estrategia de OpenAI, Jason Kwon, han advertido que la ley podría haber estancado el progreso, otras, como Anthropic, consideran que las enmiendas recientes hicieron que los beneficios del proyecto superaran sus costos.
Además de OpenAI, la Cámara de Progreso, con miembros como Amazon, Meta y Google, advirtió que la ley podría “frenar la innovación”. Google afirmó que sigue comprometido a trabajar con el gobierno para desarrollar herramientas de inteligencia artificial responsables.
La postura del gobierno de California y las implicaciones futuras
El Gobernador Newsom enfatizó que aunque está de acuerdo con la necesidad de protocolos de seguridad y consecuencias claras para quienes actúan de manera negligente, cree que soluciones robustas deben ser informadas por análisis empíricos de las capacidades de los sistemas de IA.
Muchos críticos del veto, incluyendo al senador Scott Wiener, autor principal del proyecto de ley, ven esto como una oportunidad perdida para imponer una supervisión esencial sobre las grandes corporaciones tecnológicas.
Respaldo y críticas de diversas comunidades
El proyecto de ley contaba con un apoyo diverso, desde personalidades de Hollywood, como Elon Musk y Mark Hamill, hasta sindicatos como SAG-AFTRA. Su propósito era establecer una de las bases legales más estrictas en torno a la IA en toda la nación, en un esfuerzo por mitigar riesgos potenciales para la seguridad pública.
No obstante, opositores al proyecto, como el grupo mixto de ocho demócratas del Congreso por California, argumentaron que el proyecto podría haber frenado la creación de empleo y perjudicado el desarrollo de la IA de código abierto en el estado.
Próximos pasos en la regulación de la inteligencia artificial
El veto de SB 1047 deja a la industria de la inteligencia artificial sin medidas estrictas a nivel estatal en uno de sus principales epicentros. Esto subraya la necesidad de una colaboración robusta entre los gobiernos estatales y federales para establecer un marco regulatorio eficaz.
A nivel federal, ya hay propuestas en marcha; el Senado sugirió un plan de 32 mil millones de dólares para explorar diversas áreas de impacto de la IA, desde la seguridad nacional hasta el contenido con derechos de autor.
Conclusiones
La decisión del Gobernador Newsom de vetar el proyecto de ley SB 1047 marca un punto clave en la conversación sobre regulación de la inteligencia artificial en EE.UU. Si bien se argumenta que esto permitirá a California mantener su liderazgo en innovación, también plantea desafíos sobre cómo equilibrar el progreso tecnológico con la seguridad pública.
Este evento destaca la continua necesidad de un diálogo informado entre legisladores, expertos en tecnología, y defensores de seguridad para crear un futuro donde la inteligencia artificial pueda desarrollarse de manera segura y responsable.
- El veto ha sido bien recibido por las corporaciones tecnológicas, mientras que los defensores de la supervisión lo ven como una oportunidad perdida.
- La falta de regulación deja un vacío que podría extenderse a nivel nacional, en ausencia de un marco federal fuerte y coherente.
- El debate sobre la regulación de la IA continuará evolucionando a medida que los impactos de esta tecnología se hagan más palpables.