Site icon MBA DMB

AI Safety Summit 2023 : Vers un Avenir Plus Sûr ?

Representatives and companies from 28 countries, including the US and China, as well as the EU, signed the pact that aims to tackle the risks of so-called frontier AI models. ai safety summit 2023

       Début novembre, Bletchley Park a accueilli l’AI Safety Summit 2023, rassemblent des acteurs clés mondiaux du digital. Sous l’égide du Royaume-Uni, le sommet a accueilli des représentants de gouvernements comme la Chine, les États-Unis et l’Union Européenne, et des chefs d’entreprise de premier plan. L’objectif était clair : aborder des défis majeurs de l’IA et explorer des solutions pour garantir une utilisation plus sécurisée.  

       L’IA a grandement progressé ces dernières années. Elle a présenté des bienfaits indéniables dans des secteurs comme la santé, l’éducation et l’environnement. L’ensemble des participants du sommet l’ont même reconnu, entre autres. Cependant, ce développement rapide s’accompagne aussi d’une série de défis et de préoccupations éthiques. Depuis l’accessibilité publique de ChatGPT, ils ne peuvent plus être ignorés. En effet, ils peuvent permettre à des acteurs malveillants de mener des attaques dévastatrices. Elon Musk affirme même que l’IA aurait le potentiel de devenir la “force la plus perturbatrice de l’histoire”. Il estime aussi que “nous aurons quelque chose qui sera, pour la première fois, plus intelligent que l’humain le plus intelligent”. 

AI Safety Summit : Nouvelle Ère de Coopération Internationale

       Le AI Safety Summit 2023 a jeté les bases d’une conversation internationale cruciale pour aligner l’IA sur des normes éthiques rigoureuses. Il a été marqué par des questionnements essentiels qui définiront notre avenir numérique, et des solutions pour les atténuer.   

Il en ressort que la confiance et la compréhension sont des éléments clés pour gérer les risques et les opportunités offerts par l’IA. En outre, une gouvernance agile et innovante et la réduction de la fracture numérique dans le monde seront essentielles.  Ainsi, une collaboration étroite  entre développeurs et gouvernements est nécessaire en cas de perturbation inattendue. Ainsi, des tests avant et après le déploiement de nouvelles technologies d’IA seront réalisés pour attester de la sécurité des produits. Un réseau mondial d’instituts de sécurité de l’IA sera créé à l’occasion. Le Royaume-Uni et les États-Unis ont déjà annoncé la création des deux premiers.

Ces instituts devraient permettre aux gouvernements nationaux de travailler conjointement pour élaborer des politiques cohérentes. Les principes directeurs de l’OCDE sur l’IA leur serviront comme base solide. Toutefois, des actions nationales adaptées à chaque pays et contexte devraient parvenir à les compléter.

Divergences et Consensus : Les Coulisses de l’AI Safety Summit

Des divergences et des controverses, reflétant la complexité de la régulation de l’IA à l’échelle mondiale, ont marqué le sommet. Certains ont plaidé en faveur d’une réglementation stricte pour éviter tout abus. Or d’autres comme le Royaume-Uni ont mis en garde contre une réglementation trop excessive qui entraverait l’innovation. Le Royaume-Uni estime d’ailleurs qu’une régulation de l’IA serait trop précoce à ce stade.

Alors que l’Union européenne se concentre sur la confidentialité des données et le respect des droits de l’Homme, un consensus émerge sur la crainte immédiate d’une surabondance de désinformation. La participation de la Chine a aussi soulevé des questions sur la confiance existante entre les grandes capitales, accentuant les enjeux géopolitiques sous-jacents. À la veille du sommet, Jane Hartley, ambassadrice des États-Unis au Royaume-Uni, a déclaré que le pays avait été invité « par le Royaume-Uni, et non pas les États-Unis« . 

La Course à la Suprématie de l’IA

       Cependant, derrière les débats techniques sur les risques, une ombre géopolitique planait sur le sommet. La compétition acharnée entre les grandes puissances pour dominer le paysage de l’IA a émergé comme un défi central. La Chine a clairement affirmé sa place dans la course avec ses avancées rapides et un investissement massif dans l’IA. Les États-Unis, bien conscients de la menace, ont réagi vigoureusement. Le président Biden a aussitôt émis des décrets exécutifs. Il souhaite faire soumettre les entreprises créant des systèmes d’IA puissants à des tests. Ils devront soumettre les résultats au gouvernement avant leur mise en service publique. Kamala Harris a même annoncé la création d’un institut de sécurité de l’IA, dès le premier jour du sommet. Elle prouve ainsi la détermination des États-Unis à rester en tête de la course.

Un Avenir en Suspens 

       Dans ce paysage encore largement inexploré de l’IA, les efforts pour contrer ses risques restent dispersés. La coopération souhaitée entre les nations peut sembler chaotique, d’autant plus que les bienfaits de l’IA sont souvent plus visibles que les menaces. En effet, il n’existe pas encore de preuves solides des dangers sur lesquelles s’appuyer. Ainsi, le fait de commencer à « tester » des modèles avant leur mise en service n’aura sûrement aucune incidence sur la sécurité réelle.  

L’un des résultats majeurs de ce sommet reste l’annonce d’un rapport de référence sur l’état de la science en matière d’IA. Présidé par Yoshua Bengio, il reprendra l’ensemble des risques présentés par les systèmes d’IA avancés. Par conséquent, il permettra une compréhension scientifique commune à tous et sera souvent mis à jour. Cette réflexion collective d’experts et de scientifiques pourrait laisser une empreinte aussi profonde que le rapport Stern de 2006 sur le changement climatique. 

En fin de compte, le AI Safety Summit 2023 aura été le point de départ d’une nouvelle ère de coopération internationale en matière d’IA. Il a surtout été un moyen de mettre en avant les complexités et les différences jalonnant cette route vers un futur technologique incertain.

Pour consulter la note méthodologique affiliée à cet article, cliquez ici.

Quitter la version mobile