Intelligence artificielle

ChatGPT : le bon, le mauvais et le vraiment inquiétant

Détourner ChatGPT les informations sensibles en ligne de mire

ChatGPT est sous le feu des critiques, avec une nouvelle étude qui met en évidence comment des personnes mal intentionnées pourraient en abuser. Informez-vous sur les dangers potentiels de l’IA.

Eh bien, on adore tous ce que peut faire le nouveau chatbot d’OpenAI, mais il y a un revers de médaille dont nous devrions être conscients : comment des individus aux intentions pas très honnêtes pourraient en abuser. Cette semaine, ça a été tout un raffut, avec des inquiétudes concernant les dangers de l’IA générative qui atteignent des sommets. L’homme fort d’OpenAI, Sam Altman, a même fait une apparition lors d’une réunion du Comité judiciaire du Sénat pour discuter de ces dangers et de l’avenir de l’IA.

L’étude se concentre sur six utilisations potentiellement dangereuses de ChatGPT par ces crapules : créer de faux services, fouiller à la recherche d’informations sensibles, laisser échapper des données privées, produire des textes et des codes nuisibles, et générer du contenu offensant.

Alors, dévoilons les détails sur chaque risque et ce sur quoi nous devrions être vigilants, selon l’étude.

Traque d’informations

L’étude souligne que des malins pourraient exploiter ChatGPT pour dénicher des informations pouvant être détournées ultérieurement. Vu la montagne de données sur laquelle le chatbot a été formé, il en sait beaucoup, et tout cela pourrait être utilisé comme une arme entre de mauvaises mains. Dans un cas, l’étude a montré comment ChatGPT, en utilisant des informations disponibles publiquement, peut lister les systèmes informatiques utilisés par une certaine banque. Une personne mal intentionnée pourrait s’en servir pour lancer une cyberattaque, cherchant les points faibles pour frapper fort et rapidement.

Bavardage nuisible

L’un des points forts de ChatGPT est sa capacité à créer du texte, une véritable aubaine pour quiconque rédige des essais, des e-mails, des chansons, peu importe. Mais cette capacité peut être détournée pour produire du texte nuisible. L’étude montre qu’elle pourrait être utilisée pour lancer des campagnes d’hameçonnage, répandre de fausses nouvelles, envoyer du spam, voire effectuer des usurpations d’identité. Dans un scénario, les chercheurs ont mis ChatGPT à contribution pour une campagne d’hameçonnage impliquant une fausse augmentation de salaire et une feuille Excel infectée par un logiciel malveillant. Sans surprise, le robot a rédigé un e-mail des plus crédibles.

Programmation du côté obscur

Dans la même veine que sa facilité à écrire, l’aptitude de ChatGPT à coder est devenue inestimable pour beaucoup. Cependant, cette capacité à produire du code n’est pas que du soleil et des arcs-en-ciel. Elle pourrait être exploitée pour générer rapidement du code nuisible, facilitant ainsi la tâche des attaquants pour déployer des menaces, même s’ils ne sont pas des as du codage. L’étude met en évidence que ChatGPT pourrait même être utilisé pour produire un code obfusqué, le rendant plus difficile à détecter par les limiers de la sécurité et à contourner les logiciels antivirus.

Propagation de bêtises non éthiques

OpenAI a mis en place des mesures pour empêcher ChatGPT de propager du contenu offensant et non éthique. Mais si quelqu’un est déterminé à le faire éructer des choses méchantes, il peut trouver des moyens d’y parvenir. Les auteurs de l’étude ont réussi à le faire en mettant ChatGPT en « mode développeur » et en le faisant proférer des propos désobligeants sur un groupe racial particulier.

Services faux

La capacité de ChatGPT à aider à créer de nouvelles applications, services, sites web, etc., peut être un véritable atout. C’est un outil astucieux pour donner un coup de pouce à votre propre entreprise ou concrétiser votre projet de rêve. Cependant, cette facilité de création peut aussi être exploitée pour mettre au point des applications et des services bidon. Des acteurs malveillants peuvent détourner ChatGPT à leur avantage en créant des programmes et des plateformes imitant d’autres services pour attirer des utilisateurs crédules avec un accès gratuit. Ces faux services pourraient être conçus pour dérober des informations sensibles ou installer des logiciels malveillants sur les appareils des utilisateurs.

Divulgation de données personnelles

Bien que ChatGPT dispose de protections contre le partage des informations personnelles des utilisateurs, l’étude souligne qu’il pourrait encore laisser échapper des numéros de téléphone, des adresses e-mail et d’autres détails personnels. Un exemple est survenu lors de la panne de ChatGPT en mars 2023, où les utilisateurs ont pu apercevoir les titres des conversations de quelqu’un d’autre. L’étude indique également que les attaquants pourraient tenter de débusquer des fragments des données d’entraînement en utilisant ce qu’on appelle des attaques d’inférence d’appartenance. De plus, ChatGPT pourrait divulguer des informations sur la vie privée de personnalités publiques, ce qui pourrait potentiellement nuire à leur réputation.

Restez vigilants, les amis. Nous sommes dans un nouveau monde audacieux de l’IA, et ce n’est pas toujours une partie de plaisir.

Si cet article a captivé votre intérêt, vous trouverez certainement les prochains tout aussi passionnants. Assurez-vous de ne rien manquer en vous abonnant à linformatique.org sur Google News. Suivez-nous aussi sur Facebook et Twitter.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page