Le risque que des personnes soient victimes de courriels malveillants et d' »attaques d’ingénierie sociale inédites » semble augmenter. C’est ce qu’a révélé la société de cyberdéfense américano-britannique Darktrace dans un billet de blog le 2 avril. L’entreprise a mis en contraste cette augmentation avec l’adoption croissante de l’IA générative comme ChatGPT.
Selon Max Heinemeyer, chef de produit chez Darktrace, « une augmentation de 135% des « nouvelles attaques d’ingénierie sociale ». Parmi des milliers de clients actifs de Darktrace/Email entre janvier et février 2023, Darktrace a réussi à trouver une adoption généralisée de ChatGPT.
Dans ce cas, Heinemeyer affirme qu’un nouveau courriel d’hameçonnage par ingénierie sociale diffère considérablement d’une tentative d’hameçonnage typique.
Ce modèle montre que l’IA générative, comme ChatGPT, permet aux acteurs de la menace de créer rapidement et efficacement des attaques complexes et ciblées.
Elle complique également la tâche des humains, surtout s’ils ont appris à se méfier des courriels qu’ils reçoivent, comme l’a souligné M. Heinemeyer, l’un des principaux problèmes posés par l’IA générative. Les rendements de la formation à la sécurité sont désormais décroissants, compte tenu de l’émergence d’emails d’apparence de plus en plus sophistiquée et de plus en plus normale.
M. Heinemeyer prévoit que l’érosion de la confiance dans les interactions numériques se poursuivra ou s’aggravera. Un tel résultat pourrait apparaître si l’IA générative continue à tromper les autres en les exploitant délibérément.
L’IA peut être utilisée pour mieux comprendre le comportement et les schémas des employés, ce qui les aidera à écarter les menaces
Darktrace prévoit qu’à l’avenir, l’IA aidera les utilisateurs de la messagerie électronique à éviter les dangers en tenant compte de leurs habitudes et de leurs exigences. Les développeurs pourraient utiliser l’IA pour se rapprocher du comportement et des habitudes des employés. Les interactions des utilisateurs avec leur boîte de réception pourraient constituer une excellente source de données.
Selon M. Heinemeyer, l’avenir repose sur la collaboration entre l’intelligence artificielle et les humains. C’est une voie dangereuse lorsque les algorithmes sont chargés de juger si la communication est nuisible ou bénigne. Le fait de transférer la charge de la responsabilité de la personne à une machine pourrait être préjudiciable.
Si la position adoptée consiste à se décharger de la responsabilité de la sécurité en utilisant l’IA pour lutter contre les menaces qui pèsent sur la sécurité des emails, elle envisage également un monde où il faudra encore plus d’IA – et une IA intrusive – pour lutter contre l’IA malveillante et les actes humains qui veulent faire la même chose : s’introduire dans les courriels professionnels d’une personne.
Bien qu’il ne s’agisse pas d’une réponse parfaite, cela rend la proposition plus facile mais plus coûteuse pour les entreprises et les organisations de cybersécurité.