Maintenir le contrôle et développer une IA de confiance
L’utilisation de l’IA comporte des risques, notamment ceux liés à la fuite de données sensibles. Les entreprises doivent être conscientes que les informations soumises à des algorithmes d’IA peuvent révéler des intentions stratégiques. Samsung en a fait l'expérience avec des fuites de code source via ChatGPT (1). De plus, la dépendance à des modèles propriétaires pose un problème de réversibilité, car l'entreprise risque de faire face à des changements non maîtrisés et de perdre les résultats de la spécialisation des modèles.
Le concept d'« IA de confiance », introduit en 2019, repose sur plusieurs objectifs, dont la légalité, l’éthique et la robustesse (2). La mise en place d’une gouvernance reposant sur ces principes assure un meilleur contrôle de l’IA.
Se conformer aux réglementations
L’Union européenne a rapidement réagi face à la démocratisation de l’IA, adoptant l’AI Act en mars 2024 (3). Ce texte impose des obligations sur les systèmes IA en fonction de leur impact sur les droits fondamentaux et la sécurité. La conformité à ces réglementations est cruciale pour garantir un développement responsable de l'IA. En parallèle, d'autres lois comme le RGPD restent en vigueur pour protéger les données personnelles. Face à ces évolutions, l’IA souveraine, c’est-à-dire développée et hébergée localement, représente une voie plus durable pour les entreprises (4).
Efficacité des LLM spécialisés face aux LLM généralistes
Les modèles de langage généralistes comme GPT-4 sont polyvalents, capables de répondre à une multitude de besoins (5). Les modèles spécialisés, bien qu'ils ciblent des situations plus spécifiques, sont plus performants et plus adaptés à des tâches précises. Ces modèles permettent une meilleure optimisation des ressources, des coûts et réduisent l’empreinte écologique des systèmes IA (6).
L’impact environnemental de l’IA
Des chercheurs ont démontré que les émissions de carbone générées par les serveurs équipés de GPU pour entraîner et inférer des modèles IA dépassent celles liées à la fabrication des composants (7). Les centres de données doivent être optimisés pour réduire cette empreinte, notamment en se basant sur leur efficacité énergétique et la provenance de l’énergie (8). Les modèles de langage spécialisés, moins gourmands en ressources, représentent une alternative plus respectueuse de l'environnement. Les centres de données comme ceux d’OVHcloud, qui sont engagés dans la réduction de leur empreinte carbone, jouent ici un rôle clé (9).
En somme, adopter l’IA de manière responsable et efficace nécessite d’opter pour des modèles spécialisés, de tenir compte de l’impact environnemental, et de se conformer aux réglementations pour garantir une IA éthique et durable.
Sources :
- https://arstechnica.com/information-technology/2023/02/chatgpt-is-a-data-privacy-nightmare-and-you-ought-to-be-concerned/
- https://op.europa.eu/en/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1
- https://artificialintelligenceact.eu/
- https://www.usine-digitale.fr/article/openai-cible-par-deux-class-actions-aux-etats-unis.N2148412
- https://www.radiofrance.fr/franceculture/podcasts/le-journal-de-l-eco/le-cout-environnemental-de-l-ia-est-colossal-et-sous-evalue-3781962
- https://www.silicon.fr/llm-generaliste-specialise-angle-environnemental-473911.html
- http://arxiv.org/pdf/2311.16863
- https://corporate.ovhcloud.com/en-gb/sustainability/environment/
- https://www.newscientist.com/article/2424179-ai-chatbots-are-improving-at-an-even-faster-rate-than-computer-chips/