Tecnología

Crece el debate por el proyecto de ley de Inteligencia Artificial que impulsa California

(Imagen Ilustrativa Infobae)
El proyecto de ley requiere que las empresas de IA implementen protocolos de seguridad y cuenten con un botón de apagado de emergencia
(Imagen Ilustrativa Infobae)

El proyecto de ley SB 1047, conocida como la Ley de Innovación Segura y Protegida para Modelos de Inteligencia Artificial de Frontera de California, diseñado por el senador estatal Scott Wiener del partido demócrata, ha generado controversia en la industria tecnológica de la ciudad. La legislación busca proteger a los californianos frente a posibles catástrofes derivadas de la inteligencia artificial (IA).

La legislación, que todavía debe ser aprobada tanto por la Asamblea estatal como por el Senado antes de convertirse en ley, ha sido objeto de fuertes críticas y apoyo. Entre sus defensores se encuentran destacados expertos en IA como Geoffrey Hinton, quien declaró al periódico estadounidense, Los Angeles Times, que la ley “protegerá al público”. Por otro lado, opositores como Meta han expresado sus preocupaciones. Kevin McKinley, gerente de políticas estatales de Meta, afirmó que aunque “comparten los objetivos del proyecto de ley, temen que perjudique la innovación en California“.

El medio de tecnología, TechCrunch, destacó las modificaciones significativas que sufrió para aplacar las críticas. Uno de los cambios más destacados es la eliminación de la pena por perjurio y la creación de una nueva entidad gubernamental, inicialmente prevista como la División de Modelos Fronterizos. Ahora, los desarrolladores deberán enviar sus medidas de seguridad directamente al fiscal general.

“Enmiendas recientes parecen ser más sobre apariencia que sustancia”, dijo Russell Wald de la Universidad de Stanford, sugiriendo que los cambios no afectan al proyecto central como tal.

Scott Wiener AP Rich Pedroncelli
El senador Scott Wiener diseñó la Ley de Innovación Segura y Protegida para Modelos de Inteligencia Artificial de Frontera de California (AP)

Qué es el proyecto de ley SB 1047

La ley busca establecer regulaciones para los grandes modelos de inteligencia artificial (IA) desarrollados en el estado. Su objetivo principal es prevenir que estos poderosos sistemas de IA causen daños críticos, como ciberataques que provoquen pérdidas millonarias o el desarrollo de armas letales.

Las principales medidas que plantea son:

  • Obligar a las empresas que desarrollan grandes modelos de IA (que cuestan más de USD100 millones en entrenar) a implementar protocolos de seguridad para evitar usos indebidos.
  • Exigir que estos sistemas tengan un “botón de apagado de emergencia” que permita desactivarlos por completo si se salen de control.
  • Prohibir la distribución de modelos de IA que puedan causar “daños críticos” según los define la ley.
  • Requerir auditorías externas anuales para verificar el cumplimiento de los protocolos de seguridad.
  • Crear un consejo supervisor de estos modelos avanzados de IA dentro de una nueva agencia estatal.
  • Permitir multas millonarias a las empresas que infringen la ley.

El proyecto de ley SB 1047 pretende evitar “daños críticos” por el mal uso de grandes modelos de IA, como la creación de armas o ciberataques que causan pérdidas significativas. Estos daños podrían incluir “el uso por parte de un actor maligno de un modelo de IA para crear un arma que cause muchas víctimas” o ciberataques que generen más de 500 millones de dólares en daños.

La legislación propone auditorías externas anuales para verificar el cumplimiento de los protocolos de seguridad en IA
REUTERS
La legislación propone auditorías externas anuales para verificar el cumplimiento de los protocolos de seguridad en IA
REUTERS (Julia Nikhinson/)

Aunque el proyecto ha sido criticado por su enfoque en escenarios distópicos, también tiene su cuota de apoyo. Dan Hendrycks, del Centro para la Seguridad de la IA, declaró a TechCrunch que estas salvaguardas son necesarias para evitar incidentes graves que podrían obstaculizar futuros avances en la industria.

A pesar de estos apoyos, una carta firmada por ocho miembros de la Cámara de Representantes de California instó al gobernador Gavin Newsom a vetar el proyecto si llega a su escritorio. Argumentan que este proyecto de ley podría frenar la innovación tecnológica y emprendedora en el estado.

Algunas voces prominentes, como Andrew Ng de Stanford, han señalado que la ley es “un ataque al código abierto”. Un artículo de la revista de negocios estadounidenses, Fortune, también destacó la opinión de Fei-Fei Li, quien argumentó que la ley perjudicaría el ecosistema naciente de IA en California.

Mientras tanto, el senador Wiener sostiene que, aunque la ley ha recibido cambios importantes, sigue siendo una medida crucial para adelantarse a posibles daños tecnológicos. El senador dijo que “no debemos esperar a que suceda algo malo. Simplemente, adelantémonos a ello”.

(Imagen ilustrativa Infobae)
Una carta de ocho miembros de la Cámara de Representantes de California insta al gobernador Gavin Newsom a vetar el proyecto – (Imagen ilustrativa Infobae)

La industria tecnológica observan de cerca cómo se desarrollarán los eventos. Si se aprueba, la ley podría establecer un marco regulador que obligue a las empresas a implementar protocolos de seguridad y contar con auditorías externas anuales para evaluar sus prácticas.

El equilibrio entre regulación e innovación sigue siendo un tema importante. Buffy Wicks, Miembro de la Asamblea Estatal de California, afirmó tras la reunión del comité: “El objetivo es lograr una regulación que brinde protecciones, pero sin frenar la innovación ni el desarrollo económico impulsado por la inteligencia artificial”.

Fuente: InfoBae

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *