Il vous reste 92% de l'article à lire
Vous devez posséder un compte pour poursuivre la lecture
Vous avez déjà un compte? Connectez-vous
Des chercheurs ont réussi à tromper l'assistant de codage de GitLab, alimenté par l'IA, pour qu'il affiche du contenu dangereux aux utilisateurs et laisse filtrer du code source privé en injectant des prompts cachées dans les commentaires de code, les messages de validation et les descriptions de demandes de fusion.
Il vous reste 92% de l'article à lire
Vous devez posséder un compte pour poursuivre la lecture
Recevez notre newsletter comme plus de 50000 abonnés
Commentaire