OpenAI respalda proyecto de ley en Illinois que limita la responsabilidad legal por desastres causados por IA
OpenAI defiende una legislación en Illinois que protege a los laboratorios de IA frente a demandas por catástrofes a gran escala, siempre que se cumplan protocolos de seguridad.
En un cambio estratégico significativo, OpenAI ha declarado su apoyo oficial al proyecto de ley SB 3444, que se debate en el estado de Illinois, Estados Unidos. La propuesta busca establecer un escudo jurídico para las empresas de inteligencia artificial de vanguardia, eximiéndolas de responsabilidad civil en escenarios catastróficos, como incidentes que resulten en la muerte o lesiones graves de 100 o más personas, o pérdidas financieras superiores a los 1000 millones de dólares. Este movimiento marca una transición notable en la postura de la compañía, que anteriormente adoptaba una estrategia defensiva, posicionándose frecuentemente en contra de legislaciones que impusieran mayor rigor jurídico a las operaciones de los laboratorios tecnológicos.
El escenario actual de la regulación de la IA
El debate sobre la responsabilidad legal de los gigantes tecnológicos por las acciones autónomas de sus modelos adquiere tintes de urgencia a medida que los sistemas se vuelven más potentes e integrados en la infraestructura crítica de la sociedad. Hasta el momento, no existe una norma federal en Estados Unidos que defina claramente quién debe asumir los costos de los daños causados por fallos o usos indebidos de modelos avanzados. Este vacío legislativo ha incentivado a gobiernos estatales, como los de California y Nueva York, a crear sus propias reglas, como la ley SB 53 y el Raise Act, que exigen mayor transparencia e informes de seguridad. OpenAI, a través de su equipo de Asuntos Globales, ha argumentado que este mosaico de leyes estatales crea fricciones operativas innecesarias y defiende la creación de un marco regulatorio unificado a nivel nacional.
Definiciones técnicas y el alcance de la protección
El proyecto SB 3444 establece criterios específicos para definir lo que constituye un modelo de inteligencia artificial de frontera. Según el texto, la clasificación se aplica a cualquier sistema cuyo costo de entrenamiento computacional supere los 100 millones de dólares, un umbral que abarca a las principales organizaciones del sector, como OpenAI, Google, xAI, Anthropic y Meta. La propuesta prevé que, para disfrutar de la protección contra demandas por daños críticos, los desarrolladores deben cumplir exigencias estrictas: no haber causado el daño de forma intencional o negligente y mantener publicados, de manera pública y transparente, informes detallados de seguridad e integridad del modelo.
Implicaciones para la seguridad pública
La definición de daños críticos contenida en el proyecto de ley abarca escenarios alarmantes, incluyendo la utilización de modelos por agentes malintencionados para desarrollar armas químicas, biológicas, radiológicas o nucleares. Además, la ley contempla situaciones en las que el propio modelo, operando sin intervención humana directa, realice acciones que, de ser practicadas por una persona, serían consideradas delitos graves. La exención de responsabilidad, sin embargo, no es absoluta: depende enteramente de la ausencia de dolo por parte de los desarrolladores y del cumplimiento de las prácticas de transparencia exigidas. Expertos en políticas públicas, como Scott Wisor, del proyecto Secure AI, advierten que la medida es controvertida, citando investigaciones que indican un rechazo popular del 90% en Illinois ante la idea de que las empresas tecnológicas deban poseer inmunidad legal especial.
Comparación con el histórico regulatorio de Illinois
Illinois se ha destacado como un laboratorio de regulación tecnológica en Estados Unidos, adoptando frecuentemente medidas más severas que otros estados. El historial local incluye la pionera Ley de Privacidad de Información Biométrica de 2008 y, más recientemente, la primera legislación nacional en restringir el uso de IA en servicios de salud mental. Este historial convierte el apoyo de OpenAI al SB 3444 en un movimiento de alto riesgo, dado que el estado ya ha demostrado, en diversas ocasiones, una preferencia por aumentar la responsabilidad de las empresas tecnológicas en lugar de atenuarla. El conflicto entre la visión de las Big Tech, que buscan evitar frenos a la innovación, y la preocupación de los legisladores locales por el bienestar de los ciudadanos, promete ser el eje central de esta disputa.
Perspectivas y el futuro de la gobernanza de la IA
El choque entre la búsqueda de un marco federal unificado y la proliferación de leyes estatales refleja una tensión mayor en Silicon Valley, donde el miedo a perder el liderazgo en la carrera global por la supremacía de la IA dicta la agenda política. Mientras que la administración Trump ha promovido directrices para evitar leyes estatales fragmentadas, el Congreso estadounidense aún encuentra dificultades para aprobar una legislación federal integral. Paralelamente, OpenAI continúa enfrentando desafíos legales en otros frentes, incluyendo demandas interpuestas por familias de usuarios que alegan que la interacción con sus sistemas contribuyó a daños individuales fatales. El resultado de este proyecto en Illinois servirá como un termómetro para saber si los laboratorios de IA lograrán consolidar una doctrina de responsabilidad limitada antes de que la tecnología se vuelva omnipresente en la vida cotidiana.