Se faire passer pour quelqu’un d’autre, programmer des malwares… ChatGPT peut malheureusement être utilisé à de mauvaises fins.
L’intelligence artificielle ChatGPT permet de faire de nombreuses choses, comme rédiger de courts articles ou des modèles de mail sur le sujet de son choix. C’est pour cela qu’elle est déjà détournée par des cybercriminels, entre autres pour créer des arnaques plus crédibles.
Créer des chatbots pour des arnaques sentimentales
Selon un article de Forbes, des experts en cybersécurité affirment que des criminels utilisent déjà ChatGPT pour créer des logiciels malveillants (malwares) et même des chatbots, par exemple pour se faire passer pour des jeunes femmes sur des applications de rencontres. Pour l’instant, il semblerait que ChatGPT n’a pas la capacité de créer seul des programmes sophistiqués comme des rançongiciels, mais il peut aider les criminels qui ne sont pas des experts en code en faisant des programmes plus simples.
Une possible multiplication des campagnes de hameçonnage
Cependant, ce n’est pas ce qui inquiète le plus ces experts. D’après eux, ChatGPT pourrait être utilisé pour « industrialiser la création et la personnalisation de pages web malveillantes, de campagnes de hameçonnage très ciblées et d’arnaques reposant sur l’ingénierie sociale. » Il sera d’autant plus facile pour des criminels étrangers d’écrire des textes convaincants dans la langue de leur choix, voire dans plusieurs langues à la fois.
C’est entre autres pour ces raisons-là que OpenAI travaille sur une « signature » propre aux textes rédigés par IA, pour pouvoir les différencier de ceux rédigés par des humains. Seul problème : certains vrais sites internet risquent d’utiliser ChatGPT aussi, alors il faudra faire preuve d’encore plus de prudence pour éviter les arnaques, par exemple en vérifiant l’adresse mail et l’URL du site internet. Les experts en cybersécurité, quant à eux, espèrent qu’OpenAI trouvera rapidement un moyen de détecter quand un utilisateur veut envoyer une requête dans un but malveillant.