Des experts en cybersécurité ont développé un système d’intelligence artificielle pour répondre aux appels de ces escrocs et leur faire perdre du temps en prolongeant la discussion aussi longtemps que possible.
À l’heure où l’intelligence artificielle (IA) est utilisée pour des arnaques téléphoniques, des experts en cybersécurité veulent contrecarrer les plans de ces escrocs à l’aide de la même technologie. Une équipe de l’Université Macquarie en Australie, a mis au point un système d’IA qui créé de fausses victimes convaincantes sous la forme de chatbots multilingues. Objectif : faire perdre du temps aux arnaqueurs afin de réduire la somme perdue par les victimes chaque année à cause d’eux, soit 55 milliards de dollars.
Faire perdre du temps aux escrocs
Baptisé Apate – d’après la déesse grecque de la tromperie – ce système vise ainsi à arnaquer les escrocs. Directeur exécutif du centre de cybersécurité de l’université, Dali Kaafar a eu l’idée de le développer après avoir reçu un appel frauduleux alors qu’il déjeunait en famille. Il a réussi à garder l’escroc en ligne pendant 40 minutes tout en faisant rire ses enfants. « J’ai réalisé que, même si j’avais fait perdre du temps à l’escroc pour qu’il ne puisse pas atteindre les personnes vulnérables, ce qui était le but – c’était aussi 40 minutes de ma propre vie que je ne récupérerais jamais », a-t-il expliqué.
Dali Kaafar a alors commencé à réfléchir à une façon d’automatiser ce processus et d’« utiliser le traitement du langage naturel pour développer un chatbot informatisé qui pourrait avoir une conversation crédible avec l’escroc ». L’équipe a commencé par analyser les appels téléphoniques frauduleux et à identifier les techniques d’ingénierie sociale utilisées par les arnaqueurs sur leurs victimes, à l’aide de techniques d’apprentissage automatique et du traitement du langage naturel.
Rediriger les appels frauduleux vers les chatbots
Des chatbots ont par la suite été entraînés sur un ensemble de données de conversations frauduleuses dans le monde réel (enregistrements d’appels frauduleux, transcriptions d’emails frauduleux…) pour qu’ils soient capables de générer leurs propres conversations ressemblant à celles des escroqueries téléphoniques. « Les bots d’IA conversationnels que nous avons développés peuvent tromper les escrocs en leur faisant croire qu’ils parlent à des victimes d’arnaques viables, ils passent alors du temps à essayer d’arnaquer les bots », a affirmé Dali Kaafar.
Ces chatbots sont actuellement testés sur des appels frauduleux en direct, redirigeant ainsi des appels des destinés aux victimes vers le système développé par les experts. L’équipe a mis les numéros de ces robots conversationnels sur Internet, en les introduisant dans des applications de spam ou encore en les publiant sur des pages Web, afin d’augmenter les chances qu’ils reçoivent ces appels frauduleux. Pour le moment, les chatbots parviennent à garder les escrocs en ligne pendant cinq minutes en moyenne. L’objectif est qu’ils parviennent à le faire pendant 40 minutes.
Cherchant à déployer cette technologie dans le monde, l’équipe est actuellement en discussion avec plusieurs fournisseurs de télécommunications. « Le partenariat avec les fournisseurs de communications sera la clé pour rendre cela vraiment efficace », a indiqué le directeur exécutif du centre de cybersécurité de l’université.