HIGH TECHJeuxJEUX VIDEOTECH & NETWEB

Six utilisations déjà effrayantes de l’IA ChatGPT

L’intelligence artificielle fait beaucoup parler d’elle aujourd’hui. Notamment ChatPGT. Ce chatbot peut aussi être mal utilisé. Voici six cas pratiques pour le moins effrayant.

ChatGPT, le générateur de texte d’OpenAI, reste imparfait dans la production d’écrits précis ou intéressant, mais il peut créer du texte relativement approprié sur n’importe quel sujet ou presque, et ce, pratiquement de manière instantanée. C’est tout à fait remarquable. Mais même avec de nombreux garde-fous en place, le système peut aussi se révéler assez dangereux.

On commence tout juste à découvrir des usages loin d’être idéaux. Tout ce qui peut créer du contenu à partir de rien peut créer quelque chose de dangereux. Ce n’est qu’une question de temps. Ci-dessous, six utilisations effrayantes, ou tout du moins douteuses, que des gens ont déjà constaté. Et tout ceci, avant que ChatGPT ne soit vraiment populaire et alors que l’application n’en est qu’à ses tout débuts.

1. Créer des malwares

ChatGPT qui crée des malwares, voilà qui est effrayant, à juste titre. Pas parce que les malwares sont nouveaux, mais parce que ChatGPT peut le faire sans fin. Les IA ne dorment pas. Comme l’expliquait Infosecurity Magazine, “des chercheurs en cybersécurité ont pu créer un programme polymorphique très complexe et difficile à détecter”. Les chercheurs pourraient utiliser leur création pour façonner des malwares et utiliser l’app pour créer des variations sur ce code et le rendre difficile à détecter ou arrêter.

2. Tricher à l’école

Moins effrayant, mais peut-être plus prévisible. Un outil qui peut générer du texte sur n’importe quel sujet est parfait pour un enfant qui veut tricher à l’école. Des professeurs ont déjà déclaré avoir pris des élèves sur le fait. Des écoles ont, quant à elles, interdit l’app. Et cette tendance ne devrait pas ralentir, au contraire. L’IA deviendra très certainement un autre outil que les plus jeunes apprendront à maîtriser à l’école.

3. Spammer dans les apps de rencontre

Le mot spam est peut-être mal choisi, mais des gens utilisent ChatGPT pour discuter avec leurs matches sur Tinder. Ce n’est pas nécessairement effrayant, mais savoir que vous pourriez échanger avec un programme informatique et non pas un partenaire potentiel peut être perturbant.

4. Prendre le travail des journalistes et autres rédacteurs

Devrais-je m’inquiéter pour mon job ?

5. Phishing et autres arnaques

Il est difficile de prouver l’existence de celle-ci, mais un outil comme ChatGPT serait parfait pour le phishing. Les messages de phishing sont souvent faciles à reconnaître justement parce que le langage est bancal. Avec ChatGPT, ce ne serait plus le cas. Des experts ont en tous les cas déjà averti que c’était là un cas pratique tout désigné.

6. Tromper les recruteurs

Tout le monde sait à quel point il peut être difficile de trouver un travail. C’est un processus long, souvent démoralisant, et au bout, parfois, un bon travail. Mais si cherchez un travail, vous pourriez rater une opportunité au profit d’une app d’intelligence artificielle. Une société a découvert récemment que des réponses rédigées par ChatGPT faisaient mieux que 80 % des humains. ChatGPT pourrait plus facilement utiliser les mots clef attendus par les recruteurs et, de fait, travers les différents filtres mis en place par les ressources humaines.


Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page

Adblock détecté

S'il vous plaît envisager de nous soutenir en désactivant votre bloqueur de publicité