La regulación de la inteligencia artificial en Estados Unidos revela una fractura más profunda sobre quién gobierna qué — y con qué legitimidad
Hay momentos en que una disputa técnica sobre regulación revela algo mucho más antiguo y más profundo. La pelea sobre quién debe regular la inteligencia artificial en Estados Unidos —¿Washington o los estados?— parecería ser una cuestión de política pública contemporánea. Pero si uno cambia el lente, lo que ve es una conversación que este país lleva teniendo desde 1787: ¿dónde termina el poder federal y dónde empieza el de los estados?
En las últimas semanas, esa conversación se ha vuelto urgente. Más de una docena de estados han aprobado o están debatiendo sus propias leyes sobre inteligencia artificial, desde requisitos de transparencia algorítmica hasta prohibiciones específicas en el ámbito laboral y educativo. Al mismo tiempo, el presidente Donald Trump ha instado al Congreso a establecer un marco federal único, argumentando que la fragmentación regulatoria representa un obstáculo para la competitividad de la industria tecnológica estadounidense. El Congreso, por su parte, no ha logrado acordar nada concreto.
El resultado es un mapa irregular, casi impredecible, en el que una empresa de tecnología que opera en cincuenta estados debe navegar, potencialmente, cincuenta marcos legales distintos. Dependiendo de dónde uno esté parado, eso es o una tragedia de gobernanza o exactamente como debería funcionar la democracia.
Desde Silicon Valley y los grandes conglomerados tecnológicos se ve así:
La industria —con voces que van desde la Cámara de Comercio hasta asociaciones específicas del sector tecnológico— ha sido coherente en su mensaje: la fragmentación regulatoria es insostenible. Cuando California exige un tipo de auditoría algorítmica, Texas propone estándares distintos y Colorado avanza con su propio esquema de responsabilidad civil, el costo de cumplimiento se multiplica sin que necesariamente mejore la protección al consumidor.
El argumento económico es directo: Estados Unidos compite con la Unión Europea, que ya tiene el Reglamento de Inteligencia Artificial (AI Act) en vigor, y con China, que tiene su propio régimen regulatorio centralizado. Si las empresas estadounidenses deben destinar recursos desproporcionados a cumplir con un mosaico de leyes estatales contradictorias, pierden tiempo y capital que podrían invertir en desarrollo. La ventaja competitiva, sostienen, requiere certeza jurídica.
Desde esta perspectiva, la solicitud de Trump al Congreso —legislar un marco federal que establezca un piso común y, posiblemente, desplace las leyes estatales en ciertas áreas— no es un capricho político sino una necesidad estructural. El gobierno federal, con sus recursos y su capacidad de coordinar con socios internacionales, está mejor posicionado para establecer estándares técnicos que tengan peso global.
El problema, claro, es que el Congreso lleva meses sin producir legislación concreta sobre el tema. Y mientras Washington delibera, los estados siguen legislando.
Desde los capitolios estatales y las organizaciones de derechos civiles se ve así:
La respuesta desde los estados tiene una lógica propia, y no es necesariamente desordenada por accidente. Es deliberada por convicción.
Quienes defienden el activismo regulatorio estatal señalan que Washington ha tenido años para actuar sobre inteligencia artificial y no lo ha hecho. Los algoritmos de contratación ya discriminan. Los sistemas de reconocimiento facial ya generan falsas identificaciones con consecuencias legales. Las herramientas de decisión automatizada ya se usan en tribunales, escuelas y hospitales. Mientras el Congreso debate, esas realidades ocurren todos los días en la vida de ciudadanos concretos.
Desde esta perspectiva, los estados no están creando caos: están llenando un vacío. Y la diversidad regulatoria no es un error de diseño sino una característica del federalismo. Históricamente, los estados han sido laboratorios de innovación política: el seguro de desempleo, el voto femenino, la protección ambiental, el matrimonio igualitario —todos encontraron sus primeras expresiones legislativas en estados individuales antes de escalar al nivel federal.
Las organizaciones de derechos civiles añaden otra dimensión: cuando una empresa de tecnología pide un marco federal único, hay que preguntarse qué tan riguroso sería ese marco. Si la preemption federal —es decir, la supremacía de la ley federal sobre la estatal— implica desplazar estándares estatales más estrictos por estándares federales más laxos, el resultado neto para el ciudadano podría ser una protección menor, no mayor. El argumento de la "certeza jurídica" puede ser, en la práctica, un eufemismo para la desregulación.
El gobernador de California, Gavin Newsom, ha vetado algunas propuestas de regulación de inteligencia artificial en su propio estado por considerarlas excesivamente restrictivas, lo que ilustra que este debate no sigue líneas partidistas simples: hay demócratas que coinciden con la industria en ciertos puntos, y republicanos estatales que han impulsado sus propias regulaciones.
Desde Europa y la perspectiva comparada se ve así:
Observado desde Bruselas o desde cualquier capital que lleve años debatiendo gobernanza tecnológica, el panorama estadounidense genera una mezcla de familiaridad y perplejidad.
Familiaridad, porque la tensión entre regulación centralizada y descentralizada no es exclusiva de Estados Unidos. La Unión Europea tardó años en construir el consenso que produjo el AI Act, y ese proceso estuvo marcado por presiones contradictorias de estados miembros con industrias tecnológicas propias, de grupos de derechos fundamentales y de empresas que preferían operar en un vacío normativo.
Perplejidad, porque la ventana de oportunidad para establecer estándares globales se está cerrando. El AI Act europeo ya está en implementación gradual. China tiene su propio régimen. Si Estados Unidos llega tarde con un marco coherente, su capacidad de influir en los estándares internacionales —que inevitablemente afectarán a empresas y ciudadanos de todo el mundo— se reducirá. Desde esta óptica, el debate interno sobre federalismo tiene consecuencias que trascienden las fronteras del país.
Lo que Europa aprendió, a un costo político considerable, es que regular la inteligencia artificial requiere resolver primero una pregunta más fundamental: ¿qué valores quiere proteger una sociedad y a qué precio económico está dispuesta a hacerlo? Esa conversación en Estados Unidos todavía no ha concluido. Y quizás por eso el Congreso no legisla: no porque no sepa cómo, sino porque aún no hay consenso sobre el para qué.
Hay algo revelador en el hecho de que este debate sobre tecnología de vanguardia termine siendo, en el fondo, una discusión sobre arquitectura constitucional. La inteligencia artificial es nueva; la pregunta sobre quién gobierna no lo es.
Lo que sí es nuevo es la urgencia. Los sistemas de IA no esperan a que los legisladores resuelvan sus diferencias doctrinales sobre federalismo. Toman decisiones, aprenden de datos y producen consecuencias mientras el debate continúa. El tiempo que Washington necesita para alcanzar consenso es tiempo en que las realidades sobre el terreno —en los tribunales, en los empleos, en las aulas— ya se están configurando.
Cada perspectiva presentada aquí tiene coherencia interna. Ninguna está inventando sus argumentos. El lector que prefiera la certeza jurídica del marco federal encontrará datos para sostener esa posición. El que desconfíe de la preemption federal encontrará historia suficiente para respaldar su escepticismo. El que mire hacia afuera encontrará en la experiencia europea tanto advertencias como lecciones.
El mapa, por ahora, sigue siendo irregular. Y la pregunta de quién tiene el lápiz para redibujarlo permanece, de momento, sin respuesta definitiva.
Por Arturo Jimenez