Depuis le début de l’année, pas un jour se passe sans que nous n’entendions parler de ChatGPT, un modèle de langage développé par OpenAI. Son rôle est de fournir des réponses à des questions et de mener des conversations avec les utilisateurs en utilisant le langage naturel. Les réponses apportées par ChatGPT peuvent être utilisées dans de nombreux cas, notamment la génération de texte, de programme informatique, la traduction, la reconnaissance vocale et bien plus encore.
Doit-on se réjouir d’une telle avancée ou craindre des dérives en matière de cybersécurité ?
ChatGPT est un modèle basé sur l’Intelligence Artificielle (IA). Il est capable d’apprendre à partir de données massives provenant d’Internet et de s’améliorer continuellement en fonction des réponses et des questions des utilisateurs. Il utilise également des données contextuelles lui permettant d’améliorer la qualité de ses réponses. C’est pourquoi l’utilisation de ChatGPT est controversée. Cela en fait un outil très utile pour améliorer la sécurité en ligne, mais ses compétences commencent à intéresser la communauté des cybercriminels.Quels sont les avantages de ChatGPT pour la cybersécurité ?
- ChatGPT peut apprendre à partir de données historiques pour identifier les comportements suspects et les menaces émergentes.
- Il peut être utilisé pour répondre aux questions de sécurité des utilisateurs de manière rapide et précise.
- Il peut détecter les messages de spam et les liens malveillants dans les courriels, les messages instantanés et autres communications en ligne.
- Il peut aider à identifier les vulnérabilités connues et proposer des mesures de sécurité pour les protéger.
- Il peut prédire les comportements malveillants et aider à prévenir les attaques avant qu’elles ne se produisent.
Comment ChatGPT, peut-il être utilisé par les cybercriminels ?
- ChatGPT peut être utilisé pour créer des attaques de phishing dans une langue parfaitement écrite. Ces attaques visent à envoyer au destinataire un courriel d’apparence légitime basé sur l’ingénierie sociale afin de tromper les utilisateurs et de les inciter à divulguer des informations confidentielles ou à cliquer sur des liens malveillants.
- Il peut trouver des failles informatiques connues et non corrigées. Les cybercriminels peuvent donner à ChatGPT le code source d’un site web et celui-ci peut le comprendre et expliquer chacune de ses fonctions, ainsi que son objectif.
- Il est capable de générer du code informatique. Les cybercriminels peuvent demander à ChatGPT de copier des sites web d’entreprise pour arnaquer les clients, et même créer des malwares.
ChatGPT peut permettre aux cybercriminels de gagner du temps dans la découverte de vulnérabilités, dans la création de malwares et de campagnes de phishing. Cependant, il se base aujourd’hui sur des codes et vulnérabilités connus ne permettant pas de créer des attaques sophistiquées, mais permet d’augmenter la communauté des cybercriminels, car avec un tel outil plus besoin d’être un pirate informatique expérimenté pour créer des virus informatiques.
Bien que cet outil permette d’améliorer la sécurité informatique des entreprises, il ne peut pas remplacer les analystes de sécurité. Les équipes de SERMA Safety and Security sont en mesure de vous accompagner pour prévenir, détecter et réagir face aux menaces informatiques afin de protéger vos données informatiques.
Notre conseil : restez vigilant lors de l’utilisation d’outils de communication en ligne et ne divulguez pas d’informations personnelles ou confidentielles à des sources non vérifiées.