À l’Institut d’éthique biomédicale et d’histoire de la médecine de l’Université de
Zurich, une expérience intéressante a été menée : tester si les
personnes pouvaient reconnaître un tweet généré par GPT-3 d’un tweet
écrit par un être humain. Les résultats sont surprenants (ou
glaçants, selon le point de vue que l’on adopte).
En général, les personnes interrogées – toutes ayant une connaissance de l’anglais
anglais et originaires du Royaume-Uni, d’Australie, du Canada, des États-Unis et
Irlande – n’ont pas été en mesure de distinguer si un tweet était
;
l’esprit d’un être humain ou les algorithmes génératifs d
d’une IA et, ce qui est encore plus inquiétant, ils n’étaient même pas
de reconnaître la véracité des propos tenus dans le tweet.
Les chercheurs ont collecté une série de messages sur Twitter discutant
;
onze sujets scientifiques différents allant du changement climatique
le changement climatique, le COVID-19, les vaccins et l’évolution. Ils
ont ensuite demandé à GPT-3 de composer de nouveaux tweets avec des informations
exactes ou inexactes. À ce stade, les réactions de près de 700 participants en ligne ont été recueillies à l’aide de publicités sur Facebook ;
près de 700 participants en ligne à l’aide de publicités sur Facebook. L’étude
étude s’est déroulée en 2022.
Les participants à l’étude
ont une plus grande difficulté à reconnaître les tweets de
désinformation lorsqu’ils étaient générés par une intelligence artificielle
par rapport à ceux rédigés par des êtres humains. Et, parallèlement, ils étaient
capables de de mieux identifier les informations exactes lorsqu’elles sont écrites
par GPT-3 plutôt que par un être humain. D’un point de vue différent, l’étude a montré que les gens ont un niveau de vie plus élevé que les autres.
d’un point de vue différent, l’étude a montré que les gens sont plus
plus susceptibles de faire confiance à l’intelligence artificielle plutôt qu’à
les êtres humains, quel que soit le degré d’exactitude ou de véracité
des informations écrites par l’IA. En d’autres termes, l’étude a
démontré à quel point les modèles de langage de l’IA peuvent être puissants lorsqu’ils
sont utilisés pour informer ou tromper le public.
L’identification du contenu de la désinformation rédigée par des humains a connu plus de succès ;
désinformation écrit par des humains, l’étude ayant réussi à
;
souligner comment les tweets générés par GPT-3 et contenant de fausses informations
parviennent à tromper plus efficacement les humains.
« Ces technologies, qui sont étonnantes, pourraient facilement être
;
utilisées comme armes pour générer des campagnes de désinformation sur n’importe quel
sujet de son choix. (…) Elles ne sont pas intrinsèquement mauvaises ou bonnes, elles sont
juste des amplificateurs de l’intentionnalité humaine », ajoute-t-il ;
Giovanni Spitale, auteur principal de l’étude, chercheur
chercheur postdoctoral et gestionnaire des données de recherche.
Aujourd’hui, d’ailleurs, il existe de grands modèles de langage
encore plus avancés que le GPT-3 et qui pourraient probablement être encore
plus convaincants que les résultats de l’étude. Cependant, il est
il convient de noter que toute amélioration des ensembles de données
utilisés pour former les modèles linguistiques pourrait rendre plus difficile l’utilisation de ces outils pour les campagnes d’emballage ;
difficile d’utiliser de tels outils pour les campagnes d’emballage ;
la désinformation. À cet égard, il est intéressant de noter que pendant
de l’étude, le modèle GPT-3 a « échoué » à répondre à certaines demandes
des chercheurs lorsqu’ils voulaient générer un contenu inexact, en
particulièrement lorsqu’il s’agissait de sujets tels que les vaccins et l’autisme ;
l’autisme. Cela pourrait être dû au fait que le modèle a été
entraîné sur un ensemble de données contenant des informations beaucoup plus authentiques et capables de démystifier des théories incohérentes ;
capable de démystifier des théories incohérentes sur le sujet en question.
Selon Spitale, la stratégie à long terme pour contrer
désinformation est de encourager et former les compétences de
esprit critiqueafin que le public soit toujours mieux équipé pour distinguer la réalité de la mystification ;
mieux équipé pour distinguer la réalité de la mystification13 ;
En outre, étant donné que l’étude a mis en évidence le pouvoir
de l’intelligence artificielle générative pour informer et induire en erreur ;
tromper, les chercheurs suggèrent de compléter l’IA par les compétences
connaissances des experts et des spécialistes dans le domaine de la vérification des faits pourrait permettre d’aller encore plus loin ;
vérification des faits pourrait permettre des campagnes d’information encore plus efficaces ;
plus efficaces.