bannière intelligence artificielle

L’Intelligence Artificielle Générative (IAG) est l’une des avancées technologiques les plus révolutionnaires du XXIe siècle. Elle a révolutionné divers secteurs, de la création de contenu à la prise de décision automatisée, en passant par le marketing et le service client. Pourtant, derrière ces avancées, l’IAG présente un certain nombre de limites profondes auxquelles les entreprises sont confrontées, et la compréhension de ces limites est essentielle pour une adoption judicieuse de cette technologie.

fresque feuilles

1. La qualité du contenu généré

fresque feuilles

Problèmes : L’une des principales limites de l’IA générative réside dans la qualité du contenu qu’elle produit. Bien que les modèles d’IA aient fait d’énormes progrès dans la génération de texte, d’images et de vidéos, il arrive fréquemment que le contenu généré soit inexact, incohérent ou inapproprié. Cela peut être particulièrement préoccupant lorsque les entreprises comptent sur l’IA pour produire du contenu marketing ou des réponses automatisées à leurs clients.

Recommandations : Pour surmonter cette limite, il est essentiel de surveiller de près le contenu généré par l’IA et de mettre en place des mécanismes de révision humaine. Les équipes peuvent également travailler à améliorer la formation des modèles d’IA en utilisant des données de meilleure qualité et en ajustant les paramètres du modèle pour optimiser la précision.

fresque feuilles

2. Biais et Discrimination

fresque feuilles

Problèmes :

Le biais discriminatoire est le fait pour l’intelligence artificielle de biaiser le résultat obtenu et de discriminer les personnes sur des caractéristiques propres, telles que l’origine, le genre, la sexualité, etc.

L’origine des biais est diverse : ils peuvent être causés par le programmateur de l’IA, qui y insère ses propres biais par idéologie ou croyance, ou encore être issus des données à partir desquelles l’intelligence artificielle apprend. Comme l’a souligné Joanna Bryson, experte en IA, « Cela montre que l’IA a des préjugés, mais non. Cela montre que nous avons des préjugés, et que l’IA les apprend. »

Recommandations :

Pour résoudre les problèmes liés aux biais dans l’IA, il faut établir :

  • des règles strictes,
  • sensibiliser à la discrimination,
  • assurer la transparence
  • et une gouvernance équitable des données.

Une réglementation contraignante est nécessaire pour responsabiliser les entreprises. Les entreprises doivent équilibrer leurs données, éliminer les préjugés, et être transparentes dans la formation des modèles pour corriger les biais.

fresque feuilles

3. Sécurité des entreprises

fresque feuilles

Risque :

L’IA générative est de plus en plus utilisée par les pirates informatiques pour contourner les systèmes de détection de menaces. Elle permet la création de faux documents et de messages de phishing convaincants, trompant même les utilisateurs avertis.

Une enquête révèle que 81 % des personnes sont préoccupées par les risques de sécurité posés par l’IA générative, tandis que seulement 7 % pensent qu’elle améliorera la sécurité sur Internet. Les systèmes de cybersécurité existants peuvent avoir du mal à détecter les attaques créées par l’IA générative en raison de la capacité à créer des virus polymorphes.

Recommandations :

Les entreprises doivent renforcer leurs protocoles de cybersécurité et réagir rapidement aux incidents.

fresque feuilles

4. Confidentialité de données

fresque feuilles

Risque :

Il est essentiel de s’assurer que les données utilisées dans les outils IAG ne contiennent pas d’informations confidentielles ou personnelles. Si des données sensibles sont accidentellement intégrées dans les ensembles de données d’entraînement, l’IAG pourrait potentiellement générer du contenu compromettant.

Recommandations :

Pour prévenir ces fuites de données, les entreprises doivent mettre en place des politiques strictes de gestion des données. Cela inclut l’identification et la protection des données sensibles, l’utilisation d’outils de prétraitement pour exclure de telles données des ensembles d’entraînement, et la mise en œuvre de mesures de sécurité pour protéger les données à chaque étape du processus d’utilisation de l’IAG.

fresque feuilles

5. Impacts environnementaux

fresque feuilles

Risque :

L’entraînement de modèles d’IAG nécessite d’importantes ressources informatiques, ce qui peut avoir un impact significatif sur l’environnement. 

Recommandations :

Pour faire face à ce défi, les entreprises peuvent explorer des solutions d’informatique verte, telles que l’utilisation de centres de données alimentés par des sources d’énergie renouvelable. De plus, l’optimisation des modèles d’IAG pour une utilisation plus efficace des ressources informatiques est essentielle pour réduire l’impact environnemental.

Sources :

 « IA générative : des cyberattaques toujours plus sophistiquées », sur Synexie, publié le 7 avril 2023, https://www.synexie.fr/ia-generative-cyberattaques-sophistiquees/

Michael Hill, IDG NS (adapté par Jean Elyan), « L’IA générative suscite des inquiétudes sur les risques de sécurité – Le Monde Informatique », sur LeMondeInformatique, publié le 29 juin 2023, https://www.lemondeinformatique.fr/actualites/lire-l-ia-generative-suscite-des-inquietudes-sur-les-risques-de-securite-90874.html

« Parlons-en : L’IA générative et le risque cyber, sur axaxl.com, publié le 29 septembre 2023, https://axaxl.com/fr/fast-fast-forward/articles/lia-generative-et-le-risque-cyber

ChatGPT, https://chat.openai.com/c/cf913046-fa3b-427f-b130-3bf2b5bd046d

« Éléments Décoratifs Dessinés à La Main | Vecteur Gratuite », sur Freepik, https://fr.freepik.com/vecteurs-libre/elements-decoratifs-dessines-main_11793322.htm

Remy Demichelis, « IA : les biais, une arme de discrimination massive », sur Les Echos, publié le 28 août 2018, https://www.lesechos.fr/tech-medias/intelligence-artificielle/ia-les-biais-une-arme-de-discrimination-massive-137457

« INTELLIGENCE ARTIFICIELLE ET BIAIS DISCRIMINATOIRE », sur Le Mediaa, publié le 4 décembre 2021, https://www.lemediaa.com/intelligence-artificielle-et-biais-discriminatoire/

 « Intelligence artificielle et discrimination : Tout savoir sur ces sujets », sur DataScientest.com, publié le 27 octobre 2020, https://datascientest.com/intelligence-artificielle-biais-ia

 

Entretien d’un expert du digital : retour d’expérience d’un consultant engagé auprès des TPE et des associations

Entretien d’un expert du digital : retour d’expérience d’un consultant engagé auprès des TPE et des associations

En tant qu’étudiante en marketing digital, il est essentiel de confronter la théorie apprise en cours à l’expérience de professionnels du terrain. Pour cet article, j’ai interviewé Dylan Briant, consultant freelance en marketing digital et en gestion de projets,...

Note Méthodologique : L’IA Générative en Santé : Allier Révolution Digitale et Sécurité Patient

Note Méthodologique : L’IA Générative en Santé : Allier Révolution Digitale et Sécurité Patient

L’IA a été utilisée pour extraire les thématiques majeures d’une retranscription de l’entretien réalisé car ce dernier faisait plus de 9 pages au format PDF.

J’ai posé des questions ouvertes à l’outil pour identifier les problématiques éthiques et réglementaires sous-jacentes au discours de l’expert.

J’ai également exclu les données trop spécifiques à la stratégie interne du laboratoire (noms de codes, produits précis) pour me concentrer sur les enjeux globaux du secteur, garantissant ainsi la confidentialité des échanges (c’est pour cela que je n’ai pas mentionné le nom ni l’entreprise dans laquelle l’expert est employé).

L’IA Générative en Santé : Allier Révolution Digitale et Sécurité Patient

L’IA Générative en Santé : Allier Révolution Digitale et Sécurité Patient

L’industrie pharmaceutique déploie désormais l’IA générative à grande échelle sous l’impulsion de Responsables de la transformation digitale et de l’engagement omnicanal. Cet entretien avec un expert du secteur souligne le passage des pilotes aux outils opérationnels, comme le Next Best Engagement et les avatars d’information médicale. La sécurité des patients impose une fiabilité supérieure à 98 %, où l’IA puise exclusivement dans des sources validées pour éviter toute « hallucination ». Bien que l’IA Act cadre ces pratiques, la responsabilité éthique et légale reste intégralement portée par les laboratoires internationaux. Le facteur humain demeure l’ultime rempart, l’IA agissant comme une assistante stratégique sans remplacer la relation de confiance avec le médecin. Cette mutation exige une gouvernance rigoureuse pour concilier innovation technologique et contrôle humain final.