Alors que Google négocie un accord avec le Pentagone pour le déploiement de son intelligence artificielle Gemini dans des environnements militaires classifiés, une vague de protestation grandit au sein de l’entreprise. Plus de 600 employés expriment leurs inquiétudes concernant l’utilisation de cette technologie et ses implications potentielles. Quelles sont les raisons de cette opposition interne et quelles pourraient en être les conséquences ?
L’essentiel à retenir
- Plus de 600 salariés de Google ont adressé une lettre à Sundar Pichai pour demander de refuser le déploiement de Gemini sur les réseaux militaires classifiés.
- Google a déjà déployé Gemini dans des contextes non classifiés pour le personnel de défense américain, mais la mobilisation actuelle vise à bloquer son utilisation sur des réseaux classifiés.
- Les négociations avec le Pentagone incluent des garde-fous contre la surveillance de masse et les armes autonomes, mais les employés jugent ces protections insuffisantes.
Contexte historique des relations entre Google et le Pentagone
En 2018, Google avait déjà été confronté à une fronde interne lorsque 4 000 salariés s’étaient opposés au Project Maven, un programme développé pour le Département de la Défense des États-Unis. Ce projet visait à améliorer la reconnaissance d’objets dans des vidéos de drones, ce qui avait suscité une vive controverse au sein de l’entreprise. Finalement, Google avait décidé de ne pas renouveler le contrat, affirmant un engagement contre l’application de ses technologies à des fins militaires et de surveillance.
Depuis cette époque, les relations entre Google et le Pentagone ont évolué. En 2025, la suppression de la clause interdisant l’utilisation militaire de l’IA dans les principes de l’entreprise a marqué un tournant. Cette décision a été justifiée par la nécessité de maintenir une position compétitive dans la course mondiale à l’intelligence artificielle, selon Demis Hassabis, P.-D.G. de Google DeepMind.
Les enjeux autour de l’accord avec le Pentagone
Le cœur des négociations actuelles entre Google et le Pentagone se concentre sur l’intégration de Gemini dans des réseaux classifiés. Le Pentagone insiste sur une clause de «toutes utilisations légales» pour garantir sa flexibilité opérationnelle, mais cette demande suscite des inquiétudes parmi les employés de Google. Ces derniers estiment que les garde-fous proposés par Google contre la surveillance de masse et l’utilisation d’armes autonomes sans contrôle humain sont techniquement inapplicables.
Un aspect préoccupant est que, sur un réseau isolé physiquement d’internet, Google n’aurait aucune visibilité sur les requêtes et décisions prises via Gemini. Les salariés craignent que cela ne conduise à des usages non éthiques de l’IA sans possibilité de contrôle ou de supervision.
Réactions des employés et implications internes
La lettre adressée à Sundar Pichai a été signée par plus de 600 employés, y compris des chercheurs de DeepMind et plusieurs directeurs. Elle exprime des préoccupations profondes quant à l’utilisation potentielle de Gemini dans des contextes militaires où les droits civils pourraient être menacés. Certains signataires ont préféré garder l’anonymat par crainte de représailles, tandis que d’autres ont publiquement exprimé leur désaccord avec la direction.
Selon Sofia Liguori, ingénieure en recherche IA chez Google DeepMind, la réponse de l’entreprise a été jugée vague, se limitant à demander aux employés de faire confiance aux négociations en cours. Cette situation rappelle les tensions de 2018, mais cette fois-ci, le contexte et l’ampleur des enjeux sont bien différents.
Conséquences potentielles pour Google et le secteur technologique
Si Google persiste dans sa collaboration avec le Pentagone sans adresser les préoccupations de ses employés, cela pourrait affecter sa réputation en matière d’éthique technologique. L’entreprise est confrontée à un choix difficile entre répondre aux exigences du marché militaire et maintenir la confiance de ses équipes et de l’opinion publique.
Ce cas souligne aussi un défi plus large auquel sont confrontées les entreprises technologiques : comment naviguer dans des partenariats avec des entités gouvernementales tout en respectant les valeurs éthiques et les préoccupations des parties prenantes internes et externes.
Les implications pour l’avenir de l’IA militaire
Le déploiement de l’IA dans des contextes militaires soulève des questions éthiques et opérationnelles cruciales. Alors que les avancées technologiques continuent de transformer le secteur de la défense, les entreprises doivent trouver un équilibre délicat entre innovation et responsabilité sociale.
Des acteurs comme OpenAI et Anthropic ont déjà été impliqués dans des controverses similaires. Leurs décisions quant à la collaboration avec les gouvernements influencent non seulement leur propre trajectoire, mais aussi celle de l’industrie dans son ensemble. Ces choix déterminent les normes futures pour l’intégration de l’IA dans des systèmes sensibles et potentiellement dangereux.






