L'intelligence artificielle, arme de désinformation

16970184310_IG-H.webp

« Il n’y a pas de pandémie liée au covid. C’est juste une manière de faire peur aux gens et d’empiéter sur leur liberté », s’emporte Richard sur Twitter. Sauf que Richard n’existe pas. Son message a été rédigé à l’aide d’une intelligence artificielle (IA), dans le cadre d’une étude pour mesurer le niveau de crédibilité de tweets écrits par des machines. Les trois chercheurs de l’université de Zurich (Suisse) ont montré à un panel de près de 700 personnes une série de messages réagissant à des thèmes d’actualité sources de polémiques : les vaccins, la technologie 5G et le covid-19, ou encore la théorie de l’évolution. Charge ensuite aux participants de distinguer si les tweets avaient été écrits par un utilisateur de Twitter ou une IA. Les scientifiques avaient confié l’écriture des messages « synthétiques » à GPT3, un modèle d’IA lancé en 2020 et qui précède ChatGPT, outil encore plus performant ayant connu un succès mondial à son arrivée en 2022.

« Les résultats montrent que cet outil est une arme à double tranchant : par rapport aux humains, il peut produire des informations exactes et plus faciles à comprendre, mais il peut aussi produire une désinformation plus convaincante », concluent les auteurs de l’étude. Après le test, les participants perçoivent leur difficulté à distinguer l’intelligence humaine et de l’IA et perdent confiance en leur capacité à y parvenir. « Lorsque les individus sont confrontés à une grande quantité d’informations, ils peuvent se sentir dépassés et renoncer à essayer de les évaluer de manière critique », relèvent les chercheurs. 


source
• Giovanni Spitale et al., « AI model GPT-3 (dis)informs us better than humans », Science Advance, vol. IX, n° 26, 28 juin 2023.