Le groupe Google refuse que ses recherches servent à fabriquer des armes.
En raison de principes éthiques, le géant américain a refusé jeudi dernier que ses travaux en matière d’Intelligence Artificielle (IA) puissent être utilisés dans la fabrication d’armes.
Le groupe Google vient d’affirmer, sous la pression de milliers de ses employés, qu’il ne souhaitait pas que ses recherches en matière d’Intelligence Artificielle puissent servir à élaborer des armes. Sundar Pichai, son président, a déclaré à ce sujet : « Nous avons conscience qu’une technologie aussi puissante soulève aussi d’importantes questions à propos de son usage. »
Sundar Pichai a ensuite détaillé sur le blog de son groupe différents principes éthiques que Google voulait maintenir par rapport à l’Intelligence Artificielle.
Cette initiative fait écho à un mouvement de contestation mené par plus de 4.000 employés de Google, en cours depuis plusieurs semaines.
Un nombre important d’employés refuse en effet de travailler avec les militaires du Pentagone, chargés de la Défense, car ces derniers souhaitent perfectionner des drones pour qu’ils puissent mieux différencier les objets des humains. Ce projet, à caractère clairement militaire, a été baptisé « Maven ».
S’opposant à ce type de recherche, les employés de Google en désaccord avec ce projet ont signé une pétition. Par ce moyen, ils demandent à leur président de ne pas être impliqués dans le « commerce de la guerre ». Ils ont donc demandé que ce contrat envisagé avec des militaires, estimé à environ 9 millions de dollars, soit refusé.
Ils ont par ailleurs réclamé : […] une politique claire disant que Google ou ses sous-traitants ne construiront jamais de technologie de guerre. » Ils considèrent en effet que cette application serait contraire aux valeurs fondatrices de leur entreprise, créée il y a maintenant vingt ans.
Ces employés considèrent que l’usage de l’Intelligence Artificielle dans le domaine militaire risque un jour de supprimer toute intervention humaine dans l’usage des armes et des drones. Cette éventualité leur pose un problème éthique majeur.
Cette prise de position a été saluée par diverses personnalités, dont le célèbre Elon Musk, patron de Tesla et SpaceX. Celui-ci met régulièrement en garde contre les risques futurs représentés par des armes totalement autonomes, qu’il qualifie lui-même de « robots-tueurs ».
Le Président de Google a néanmoins précisé : « […] si nous refusons de développer l’Intelligence Artificielle pour des armes, nous continuerons nos travaux avec des gouvernements et l’armée dans beaucoup d’autres domaines. » Les travaux menés par Google pourront donc être utilisés dans des secteurs plus neutres, comme la cybersécurité, le sauvetage ou la formation.
Le Bulletin des Communes vous propose également…
- De poursuivre votre lecture par notre article sur la nouvelle fonction Google Duplex
- De lire l’article de Clubic sur la charte du groupe Google