WASHINGTON – Microsoft, prolongeant une frénésie de versions de logiciels d’intelligence artificielle, introduit de nouveaux outils de chat qui peuvent aider les équipes de cybersécurité à repousser les piratages et à nettoyer après une attaque.
Le dernier des outils d’assistance IA de Microsoft – le géant du logiciel aime les appeler Copilots – utilise le nouveau système de langage GPT-4 d’OpenAI et des données spécifiques au domaine de la sécurité, a annoncé mardi la société.
L’idée est d’aider les agents de sécurité à voir plus rapidement les connexions entre les différentes parties d’un piratage, comme un e-mail suspect, un fichier de logiciel malveillant ou les parties du système qui ont été compromises.
Microsoft et d’autres éditeurs de logiciels de sécurité utilisent des techniques d’apprentissage automatique pour éradiquer les comportements suspects et repérer les vulnérabilités depuis plusieurs années. Mais les dernières technologies d’IA permettent une analyse plus rapide et ajoutent la possibilité d’utiliser des questions en anglais simple, ce qui facilite la tâche des employés qui ne sont peut-être pas des experts en sécurité ou en IA.
C’est important car il y a une pénurie de travailleurs possédant ces compétences, a déclaré Mme Vasu Jakkal, vice-présidente de Microsoft pour la sécurité, la conformité, l’identité et la confidentialité. Les pirates, quant à eux, n’ont fait que s’accélérer.
« Juste depuis la pandémie, nous avons vu une prolifération incroyable », a-t-elle déclaré. Par exemple, « il faut en moyenne une heure et 12 minutes à un attaquant pour obtenir un accès complet à votre boîte de réception une fois qu’un utilisateur a cliqué sur un lien de phishing. Auparavant, il fallait des mois ou des semaines pour que quelqu’un y ait accès.
Le logiciel permet aux utilisateurs de poser des questions telles que : « Comment puis-je contenir des appareils qui sont déjà compromis par une attaque ? » Ou ils peuvent demander au copilote de répertorier toute personne ayant envoyé ou reçu un e-mail contenant un lien dangereux dans les semaines précédant et suivant la violation. L’outil peut également créer plus facilement des rapports et des résumés d’un incident et de la réponse.
Microsoft commencera par donner à quelques clients l’accès à l’outil, puis en ajoutera d’autres plus tard. Mme Jakkal a refusé de dire quand il serait largement disponible ou qui sont les premiers clients.
Le copilote de sécurité utilise les données des agences gouvernementales et des chercheurs de Microsoft, qui suivent les États-nations et les groupes cybercriminels. Pour agir, l’assistant travaille avec les produits de sécurité de Microsoft et ajoutera une intégration avec des programmes d’autres sociétés à l’avenir.
Comme pour les précédentes versions d’IA cette année, Microsoft s’efforce de s’assurer que les utilisateurs sont bien conscients que les nouveaux systèmes font des erreurs. Dans une démo du produit de sécurité, le chatbot a mis en garde contre une faille dans Windows 9 – un produit qui n’existe pas.
Mais il est également capable d’apprendre des utilisateurs. Le système permet aux clients de choisir les paramètres de confidentialité et de déterminer dans quelle mesure ils souhaitent partager les informations recueillies. S’ils le souhaitent, les clients peuvent laisser Microsoft utiliser les données pour aider d’autres clients, a déclaré Mme Jakkal.
« Ce sera un système d’apprentissage », a-t-elle déclaré. « C’est aussi un changement de paradigme : désormais, les humains deviennent les vérificateurs, et l’IA nous fournit les données. » BLOOMBERG