À l’heure où les plaintes s’accumulent contre ChatGPT, OpenAI s’engage dans une démarche législative controversée pour se protéger des conséquences les plus graves de l’utilisation de l’intelligence artificielle. Ce projet de loi, soutenu dans l’État de l’Illinois, vise à exonérer les entreprises d’IA de toute responsabilité civile, même en cas de tragédies comme des morts en masse. Que cache ce mouvement stratégique d’OpenAI dans un contexte de régulation internationale croissante ?
L’essentiel à retenir
- OpenAI soutient un projet de loi dans l’Illinois pour exempter les entreprises d’IA de toute responsabilité civile en cas de catastrophes.
- Le projet de loi SB 3444 couvre des scénarios extrêmes, comme l’utilisation d’IA pour créer des armes chimiques ou nucléaires.
- Les exigences de l’AI Act et des réglementations européennes imposent des responsabilités accrues aux fournisseurs d’IA, contrastant avec l’approche américaine.
OpenAI et le projet de loi en Illinois
OpenAI, leader de l’intelligence artificielle, est au cœur d’une controverse liée à un projet de loi en Illinois, le SB 3444. Ce texte prévoit de protéger les entreprises d’IA de toute responsabilité civile en cas de catastrophes provoquées par leurs technologies. Cette initiative intervient alors que l’entreprise fait face à plusieurs poursuites judiciaires, notamment pour des incidents liés à l’utilisation de ChatGPT.
Jamie Radice, porte-parole d’OpenAI, a déclaré que cette législation vise à réduire les risques associés aux systèmes d’IA les plus avancés. Selon elle, elle permettrait également d’éviter une fragmentation législative entre les différents États américains.
Réactions et opposition
Le projet de loi ne fait pas l’unanimité. Beaucoup soulignent que la majorité des Américains s’opposent à toute réduction de la responsabilité des entreprises d’IA. Scott Wisor, directeur de Secure AI, a récemment rappelé cette opposition lors d’une intervention publique.
En parallèle, l’administration américaine continue de permettre aux États de légiférer individuellement sur les questions relatives à l’IA. Cependant, le projet de loi de l’Illinois pourrait servir de modèle pour une éventuelle législation fédérale, ce qui inquiète certains experts du secteur.
Les obligations réglementaires en Europe
En Europe, la situation est sensiblement différente. Les obligations imposées par l’AI Act, qui entreront en vigueur en août 2026, exigent une transparence accrue et une supervision humaine des systèmes d’IA. Ces mesures visent à renforcer la responsabilité des fournisseurs de technologies avancées.
La directive révisée sur la responsabilité des produits, mise en place en 2024, élargit la responsabilité stricte aux logiciels, y compris ceux basés sur l’IA. Ainsi, en cas de préjudice causé par un système d’IA, le fabricant peut être tenu responsable, même sans faute prouvée. Cette approche contraste fortement avec celle envisagée par le projet de loi de l’Illinois.
Perspectives futures pour la régulation de l’IA
Face à ces développements, la question de la régulation de l’IA reste centrale. En 2026, alors que les technologies de l’IA continuent de se développer à un rythme rapide, la nécessité d’une régulation harmonisée et efficace devient de plus en plus évidente. Les gouvernements et les organismes internationaux travaillent à la mise en place de cadres réglementaires qui garantissent à la fois l’innovation et la sécurité publique.
Le débat sur la responsabilité des entreprises d’IA dans les cas de catastrophes met en lumière les défis complexes auxquels sont confrontés les régulateurs. Il met également en exergue l’importance d’un dialogue continu entre l’industrie, les législateurs et le public pour trouver un équilibre entre innovation technologique et protection des citoyens.






