Réflexions sur la place de l’IA dans les métiers de la cybersécurité — Interview d’expert
En décembre 2022 et février 2023, Google a respectivement licencié les chercheuses Timnit Gebru et Margaret Mitchell, anciennes fondatrice et co-responsable de l’équipe d’éthique en Intelligence Artificielle chez Google.
Timnit Gebru et Margaret Mitchell sont des Computer Scientists, spécialisées dans les biais algorithmiques et la collecte et l’analyse de données. Elles sont notamment connues pour leurs expertises sur le sujet de la justice (dans le sens « fairness ») dans le machine learning et l’Intelligence Artificielle.
Ces renvois s’inscrivent dans une tendance assez marquée, au sein des grandes entreprises technologiques, à tenter de faire taire les voix dissonantes en interne. Sans faire trop de bruit, l’affaire prend tout de même une dimension politique, notamment entre les employés de Google et les dirigeants.
À l’origine, l’équipe de l’éthique en IA de Google s’est formée suite à la fuite d’informations confidentielles concernant un contrat entre le géant de la technologie et le Pentagone. En mars 2018, Google est contraint de confirmer que le Pentagone utilise ses technologies de reconnaissance d’image… dans le développement d’armes autonomes. Une déclaration très limite, que Google tente de compenser avec la création de cette équipe chargée du contrôle de l’éthique.
Focus sur la position de Responsable de l’éthique en Intelligence Artificielle.
L’équipe responsable de l’éthique en Intelligence Artificielle a – en toute logique – pour objectif de veiller au développement éthique de l’IA, notamment en matière de biais racistes et sexistes, ainsi que de la nécessité d’éviter et de freiner un potentiel déploiement trop précoces des Intelligences Artificielles.
L’intérêt de cette position est de servir de garde-fou lors du développement des IA génératives: s’assurer que les informations sont correctes, que les échantillons sont représentatifs, qu’on ne tombe pas dans des biais culturels ou des stéréotypes, ou encore que l’algorithme qui traite les données mises à disposition soit assez robuste (pour éviter que des données personnelles soient à risque).
« Vous développez un avion de ligne, vous ne pouvez pas le faire décoller d’Orly du jour au lendemain. Il devrait en être de même pour les IA. »
• El Mahdi El Mhamdi, mathématicien et expert en Data Science; ex-Senior Scientist dans l’équipe d’éthique en IA chez Google.
El Mahdi El Mhamdi a démissionné quelques mois après le double licenciement des responsables de son équipe. Il estime que l’éthique en IA est une branche de la recherche qui soutient une importante responsabilité sociale, et qu’il est nécessaire de réguler l’Intelligence Artificielle, au risque qu’elle soit développée trop rapidement, et de manière trop vulnérable par rapport à sa puissance de calcul.
Malgré son importance dans la régulation de l’IA et la responsabilité sociale qu’elle comporte, le responsable d’éthique en IA est une position très délicate.
La raison principale à cela est que, souvent, les personnes qui travaillent dans le secteur de la tech sont les premières à oublier que les données qui servent au machine learning ne sont pas seulement des valeurs virtuelles, mais aussi des valeurs très concrètes: comment les gens votent, interagissent avec les autres, se soignent, s’informent, etc…
Beaucoup de domaines sont très régulés: l’aviation, la construction, l’industrie pharmaceutique… Pourtant, le terme « éthique » dans le domaine de l’Intelligence Artificielle semble créer un entre-deux confus entre la régulation et la simple procédure-qui-donne-une-bonne-image.
« Il existe une déconnexion profonde, liée au fait que [les dirigeants de Google] sont des multi-millionnaires complètement détachés du terrain et du sens de la réalité. Quant à savoir s’il serait impossible de traiter ce syndrome de Marie-Antoinette […], j’en reviens à la régulation. On ne va pas réinventer la roue, il faut réguler. […] C’est une question de survie démocratique. »
• El Mahdi El Mhamdi
Interview professionnelle d’expert: Jason LEBRETON, Freelance DevSecOps et développeur en cybersécurité.
Q: Tu viens de lire la partie « L’info en grand », qui traite de la manière dont l’Intelligence Artificielle inquiète particulièrement certains métiers. Qu’en est-il du métier de développeur?
« C’est vrai qu’on voit beaucoup, sur les réseaux sociaux notamment, des gens qui s’essaient au développement grâce à la génération de ChatGPT. Pour avoir moi-même essayé, j’ai trouvé ça assez drôle.
Mais je ne ne pense pas que le métier de développeur risque de laisser sa place à des Intelligences Artificielles génératives. Tout simplement parce qu’il faut garder à l’esprit que le cœur du métier de développeur est avant tout de traduire un cahier des charges en une application, un site web ou une machine fonctionnelle pour le client. Et cet exercice de traduction implique non seulement la compréhension du contexte du client, mais aussi l’interprétation intelligente de besoins qui ne sont pas formulés de manière techniques.
Ce n’est pas pour rien que le métier de prompt engineer commence à se développer: si la requête est mal formulée, rien de pertinent ne sera généré, même par la meilleure machine. D’où la nécessité de développeurs humains. »
Q: ChatGPT étant un agent conversationnel, ne suffirait-il pas de discuter avec lui et demander des corrections jusqu’à ce que le résultat soit satisfaisant?
« Le métier de développeur ne se limite pas qu’à écrire du code: pour faire simple, il s’agit surtout de faire preuve de logique et de s’adapter au contexte du projet qu’on a.
D’autres systèmes peuvent être mis en place en fonction des besoins du client, comme l’automatisation des tâches, la mise en place de bases de données, la sécurisation d’informations, etc. Lorsqu’on crée quelque chose, il est également important d’annoter et de documenter ce sur quoi on travaille, si jamais le projet doit être refondu par quelqu’un d’autre après, ou tout simplement si des bug apparaissent.
Dans le développement, il y a donc un travail conséquent de vérification de la qualité de ce qui est produit, ainsi que de la sécurité autour des données traitées. Par exemple, j’ai lu dans un article que des données stratégiques d’entreprises avaient été récupérées via ChatGPT, parce que les bases de données et le site interne n’étaient pas correctement sécurisés. »
Q: Dans la mesure où ton métier ne serait pas menacé par l’émergence de l’Intelligence Artificielle, est-ce que tu te serais intéressé à celle-ci malgré tout?
« Bien sûr que oui. Je suis d’avis que tout le monde, peu importe son métier ou son domaine d’expertise, devrait s’intéresser à l’IA à un moment donné. C’est un sujet dont on risque d’entendre parler pendant encore longtemps.
Je vois l’IA comme l’apparition des premiers ordinateurs, ou même d’Internet. À l’époque, il n’y en avait qu’un par famille, et tout le monde ne savait pas l’utiliser – ou seulement de manière très sommaire. Aujourd’hui, savoir utiliser un ordinateur portable et avoir une connexions à Internet sont des nécessités, d’un point de vue personnel comme professionnel. Tu intègres une entreprise, on te fournit quasi-systématiquement un ordinateur de travail. Même les métiers physiques comme l’agriculture ont besoin d’un ordinateur portable pour faire
leurs comptes et les procédures administratives.
Je pense honnêtement que ça sera pareil avec l’Intelligence Artificielle, surtout si elle continue de se développer autant. Le gain de temps et de productivité est réel, encore une fois personnellement et professionnellement. De mon côté, j’utilisais déjà l’assistant personnel Alexa (par Amazon), qui est connectée à plusieurs des machines que j’ai dans mon appartement. Et je ne pense pas changer cette habitude. »
Q: Au final, tout le monde serait donc obligé de s’intéresser à l’IA à un moment donné? S’adapter ou être ostracisé de la société?
« Et bien, à peu près. Si on estime que l’Intelligence Artificielle est un des progrès les plus importants pour l’humanité, au fur et à mesure de son développement et de sa démocratisation, les conséquences sociales et économiques vont être importantes. Il me semble qu’un article sur le futur de l’emploi mentionnait que 80% ou 90% des métiers de 2030 n’existaient pas encore. Honnêtement, je ne sais pas d’où sort ce chiffre qui me paraît trop gros. Mais en reprenant l’exemple du métier de prompt engineer qui commence à se développer, je ne doute pas que le marché du travail va connaître de sacré changements dans les années à venir.
Si tu ne sais pas maîtriser l’IA et que tu n’adaptes pas tes compétences à leur arrivée, tu risques d’être rapidement remplacé – du moins dans les grandes entreprises qui se jetteront sur la technologie. Après, même si les premiers changements se feront très vite, je pense qu’il y aura une longue période d’entre-deux où les gens auront le temps de s’adapter.
Je pense aussi que les États finiront par y mettre du leur – comme certains ont déjà commencé à faire -, pour collaborer avec les entreprises et les salariés, et contrôler le développement et les conséquences de l’IA dans le domaine professionnel. Dans l’état actuel des choses, je pense qu’on est bien loin de risquer de tous se faire remplacer par des robots. Je le vois bien lorsque je discute avec des clients, des collègues ou des recruteurs. Ce qui prévaut – dans mon secteur en tous cas – c’est pas vraiment les compétences, qui peuvent facilement s’apprendre sur Internet ou directement dans l’entreprise. Ce qui compte, c’est la personnalité, le savoir-être, et la dynamique en général que tu reflètes. »
Lucie Hautekiet
Responsable marketing et communication digital en cybersécurité – Étudiante du MBA Digital Marketing and Business à l’EFAP Lille.
👩🏼💻☀️ Digital Marketing Officer et spécialiste de la communication et de transformation digitale le jour…
🎮🌙 Gameuse achiever, main Leona, soutien de la première heure sur Discord et Métavers enthusiast la nuit!
Curieux·se d’en savoir plus? Par ici!👇