Alors que les États avancent avec des règlementations pour exploiter le potentiel transformateur de l’intelligence artificielle (IA), une menace imminente se profile à l’horizon. L’introduction d’un moratoire national de 10 ans sur les projets de loi d’État concernant l’IA présente des complexités qui pourraient freiner le progrès, poussant les parties prenantes à reconsidérer leurs stratégies en matière de législation sur l’IA.

L’essor des lois d’État sur l’IA

Ces dernières années, les États démocrates comme républicains se sont lancés dans la législation de l’IA. Poussés par la protection des consommateurs et l’envie de prévenir les biais algorithmiques, les législateurs d’État ont proposé près de 700 projets de loi relatifs à l’IA. Alors que la supervision fédérale reste absente, les dirigeants d’État travaillent sans relâche pour protéger les citoyens contre les défis croissants de l’IA. Selon Brookings, ces initiatives reflètent une posture proactive, s’inspirant même de l’Acte européen complet sur l’IA.

La loi sur l’IA du Colorado : Un exemple pionnier

Parmi les précurseurs, le Colorado se distingue avec sa loi sur l’IA, prévue pour entrer en vigueur en février 2026. Miroitant le modèle européen, la loi s’adresse aux systèmes d’IA à haut risque qui influencent de manière significative des aspects tels que l’éducation, la santé et l’emploi. En visant à réduire la discrimination algorithmique, l’approche du Colorado est imité par des États comme l’Utah, le Texas, la Virginie et la Californie — chacun suivant sa propre voie législative.

Aborder les cas d’utilisation ciblés

Au-delà des lois complètes, de nombreux États ont abordé des domaines spécifiques, tels que les deepfakes. L’Utah mène avec des sanctions strictes pour la distribution d’images intimes non consensuelles et de matériel d’abus d’enfants, recueillant un soutien bipartite. Par ailleurs, au moins 16 États gèrent proactivement l’impact de l’IA sur les élections, bien que non sans défis. Les batailles juridiques en Californie et au Minnesota soulignent l’équilibre délicat entre régulation et liberté d’expression.

Le rôle crucial des procureurs généraux d’État

Dans les scénarios sans nouvelle législation, les procureurs généraux des États (AGs) se trouvent à la tête de la surveillance de l’IA. Ils agissent en tant qu’interprètes des lois existantes sur la protection des consommateurs, essentiels pour naviguer dans le déploiement éthique de l’IA. Notamment, le procureur général du Texas a démontré cela en obtenant des règlements de la part d’entreprises d’IA pour pratiques trompeuses, soulignant l’importance d’une divulgation claire pour le consommateur.

Les implications d’un moratoire national

Le moratoire proposé par le Comité de l’énergie et du commerce de la Chambre interdirait aux États de définir des limites légales liées à l’IA. Bien que les associations industrielles applaudissent la normalisation fédérale, la Conférence nationale des législateurs d’État (NCSL) avertit d’une innovation étatique freinée. Une préemption générale pourrait arrêter une surveillance significative, mettant en péril la vie privée et les droits civils, et ignorant les besoins locaux uniques.

Alors que ce débat législatif se déroule, il est crucial de maintenir une approche prudente mais adaptable. Bien que le gouvernement fédéral doive être à l’avant-garde des normes nationales, l’interaction délicate des initiatives des États garantit des mesures réglementaires ajustées et réactives. Les prochaines étapes de la gouvernance de l’IA reposent sur l’harmonisation de ces efforts avec les ambitions fédérales pour construire un paradigme de l’IA cohérent et complet.