Phishing : ChatGPT fait presque aussi bien que les pirates, et c’est un problème

chatbot phishing
chatbot phishing

On s’en doutait, c’est confirmé. Grâce à quelques prompts bien précis, on peut utiliser un chatbot comme ChatGPT pour piéger les internautes avec du phishing. Les résultats font presque aussi bien qu’un hameçonnage classique. Et cela risque d’empirer.

Dans les semaines qui ont suivi la sortie publique de ChatGPT, Numerama s’était demandé si le chatbot avait quelque talent en matière de cyber malveillance. On l’avait challengé pour qu’il écrive des mails trompeurs, dans l’idée — théorique — de piéger des internautes. Le résultat, une arnaque sur la réduction d’un produit vendu sur Amazon, s’était montré convaincant.

Depuis, d’autres ont voulu évaluer les performances de l’intelligence artificielle pour nuire aux particuliers. C’est le cas de cette recherche conduite sous l’égide d’IBM et partagée le 21 octobre sur le blog Security Intelligence. Il s’agissait de déterminer qui de l’humain ou de la machine était la plus capable de berner une cible avec un mail de phishing.

L’hameçonnage constitue en effet l’une des menaces les plus courantes sur le net, qui se caractérise par l’envoi de courriers électroniques ou de messages (y compris des textos ou des envois sur des messageries). L’objectif : éteindre la vigilance de l’internaute en formulant une requête en apparence légitime, de manière à ce que la cible effectue une action particulière.

Les objectifs sont variés, mais ils ont tous une finalité malveillante : il peut s’agir de vous dérober des informations personnelles (l’identifiant ou le mot de passe d’un compte,

[Lire la suite]

Crédits photos de l'image de une : Source : Numerama avec Midjourney