Le chercheur de VirusTotal de Google : Pas de preuves de logiciels malveillants créés par l'IA
D'après Vicente Diaz, un chercheur chez Google's VirusTotal, l'intelligence artificielle (IA) n'a pas été utilisée pour générer de nouveaux logiciels malveillants. Malgré les craintes concernant l'implication potentielle de l'IA dans la création de logiciels malveillants, il n'existe actuellement aucune preuve concrète d'une telle utilisation abusive. Diaz a souligné la difficulté d'attribuer des logiciels malveillants à des programmes d'IA et a insisté sur l'accent mis par VirusTotal sur l'utilisation de l'IA pour améliorer les résultats de l'analyse antivirus et fournir aux utilisateurs des informations complètes sur les fichiers analysés. De plus, des groupes de pirates parrainés par des États utilisent l'IA pour des activités telles que le raffinement des attaques de phishing et la recherche sur des cibles potentielles, tandis que les autorités britanniques se sont inquiétées du rôle de l'IA dans les futures cyberattaques.
Principales conclusions
- Le service VirusTotal de Google n'a pas identifié de preuves concluantes d'IA créant des logiciels malveillants.
- La détection des menaces générées par l'IA par les moteurs antivirus actuels pose des défis.
- La probabilité que les logiciels malveillants générés par l'IA soient très sophistiqués ne s'est pas concrétisée, comme l'a reconnu Google.
- Les pirates ne sont peut-être pas nécessairement obligés d'utiliser l'IA pour les cybercrimes, étant donné le faible seuil d'entrée existant.
- VirusTotal utilise l'IA pour offrir des explications détaillées des résultats de l'analyse des logiciels malveillants et a lancé Code Insight en 2023.
- Les groupes de pirates parrainés par des États ont exploité l'IA générative pour affiner les attaques de phishing et mener des recherches ciblées.
- Les autorités britanniques ont mis en garde contre le fait que l'IA pourrait alimenter les futures cyberattaques et exacerber la cybercriminalité.
Analyse
L'absence de logiciels malveillants générés par l'IA, comme l'a affirmé Vicente Diaz, ne dissipe pas les préoccupations concernant son utilisation potentiellement abusive dans la cybercriminalité. Bien que la détection des menaces créées par l'IA reste un défi pour les moteurs antivirus actuels, les groupes de pirates parrainés par des États ont déjà exploité l'IA pour des activités au-delà de la création de logiciels malveillants. Google's VirusTotal continue de renforcer l'analyse des logiciels malveillants grâce à la mise en œuvre de l'IA, comme en témoigne l'initiative Code Insight.
Le saviez-vous ?
- L'accent mis par VirusTotal sur l'IA pour l'analyse des logiciels malveillants : VirusTotal, un service de Google, utilise l'IA pour améliorer les résultats de l'analyse des logiciels malveillants, en priorité pour offrir aux utilisateurs des informations complètes sur le fonctionnement des fichiers analysés. L'introduction de Code Insight en 2023 souligne l'engagement de VirusTotal à exploiter l'IA pour une analyse approfondie des modèles de code, contribuant à renforcer les mesures de cybersécurité.
- Logiciels malveillants créés par l'IA : Sophistication potentielle et statut actuel : Bien que les logiciels malveillants générés par l'IA soient censés être extrêmement sophistiqués, aucun cas concret n'a encore émergé, étant donné le seuil déjà bas pour les cybercrimes. Vicente Diaz a souligné que Google n'a pas été confronté à une telle menace.
- Piratage parrainé par l'État et IA générative : L'utilisation de l'IA générative par les groupes de pirates parrainés par des États va au-delà de la création de logiciels malveillants, englobant l'amélioration des attaques de phishing et la recherche ciblée. Cela souligne le potentiel de l'IA à améliorer considérablement l'efficacité des cyberattaques sans créer directement de logiciels malveillants, nécessitant une surveillance vigilante de la part des professionnels et des organisations de cybersécurité.
- L'alarme des autorités britanniques sur l'IA et les cyberattaques : Les autorités britanniques ont émis des avertissements sur le risque que l'IA amplifie les futures cyberattaques et aggrave la cybercriminalité. Cela souligne l'impératif de mettre en place des mesures de cybersécurité robustes pour contrer les risques associés aux technologies d'IA et atténuer les menaces cyber liées à l'IA.