(encart dans le dossier : Comprendre et bien intégrer l’Intelligence Artificielle pour transformer les Entreprises)
- Biais : les modèles peuvent générer un biais algorithmique en raison de données d’entrainement partielles ou imparfaites, ou de décisions prises par les ingénieurs développant les modèles.
- Propriété intellectuelle : les données de formation et les sorties de modèles peuvent générer des risques importants en matière de propriété intellectuelle, y compris la violation de documents protégés par le droit d’auteur, des marques déposées, des brevets ou autrement protégés par la loi. Même lorsqu’elles utilisent l’outil d’IA générative d’un fournisseur, les organisations devront comprendre quelles données ont été utilisées pour la formation et comment elles sont utilisées dans les résultats de l’outil.
- Confidentialité : des problèmes de confidentialité peuvent survenir si les utilisateurs saisissent des informations qui se retrouvent plus tard dans les sorties du modèle sous une forme permettant d’identifier les individus.
- Fakes Data : L’IA générative pourrait également être utilisée pour créer et diffuser des contenus malveillants tels que la désinformation, les deepfakes et les discours de haine.
- Sécurité : l’IA générative peut être utilisée par des acteurs malveillants pour accélérer la sophistication et la vitesse des cyberattaques. Il peut également être manipulé pour fournir des sorties malveillantes.
- Explicabilité : l’IA générative s’appuie sur des réseaux de neurones avec des milliards de paramètres, ce qui met à l’épreuve notre capacité à expliquer comment une réponse donnée est produite.
- Traçabilité et références : Les réponses données par les IA génératives génèrent des informations sans pouvoir fournir de sources vérifiables, compromettant ainsi leur fiabilité et leur utilisation dans des domaines tels que les sciences et le droit qui requièrent des sources précises et vérifiables.
- Fiabilité : les modèles peuvent produire des réponses différentes aux mêmes invites, ce qui entrave la capacité de l’utilisateur à évaluer l’exactitude et la fiabilité des sorties.
- Impact organisationnel : comme dit plus haut le rapport à l’information et à la prise de décision est totalement rebattu.
- Impact environnemental : le développement et la formation de modèles de base peuvent entraîner des conséquences environnementales néfastes, notamment une augmentation des émissions de carbone (par exemple, la formation d’un grand modèle de langue peut émettre environ 315 tonnes de dioxyde de carbone). Cependant, une fois formés, les modèles optimisés peuvent tourner en local sur les ordinateurs, afin d’éviter de gaspiller de la bande passante et de la puissance de calcul.