La société américaine NewsGuard, qui fournit des réponses au score et estime la fiabilité des sites d’information, identifie depuis quelques semaines les sites d’information peu fiables et les problèmes existants générés par l’IA.
Dans le même temps, Newsguard annonce qu’il crée un cadre permettant de déterminer de manière transparente si une page en ligne est composée d’un site d’actualités généré par l’IA (UAIN) non fiable. Celui-ci est composé de 4 critères : l’obtention de preuves transparentes qu’une partie importante du contenu est produite à l’aide de technologies d’IA, de fortes raisons pour lesquelles le contenu a été publié sans contrôle humain, une présentation faite de manière à amener le lecteur moyen à penser que le contenu a été produit par des humains, et l’absence d’indication transparente que le contenu est produit par les technologies d’IA.
Alors qu’il en comptait 49 début mai, il affirme dans son bulletin du 20 mai en compter 125 « entièrement ou fondamentalement générés » par des outils d’intelligence synthétique générative, soit une accumulation de 155% en deux semaines. Les sites indexés publient en anglais, arabe, chinois, français, indonésien, néerlandais, portugais, tagalog, thaï et tchèque.
Pour l’entreprise, cela montre que ces nouvelles technologies sont utilisées à grande échelle pour créer des informations de mauvaise qualité, le tout principalement pour générer des profits grâce à l’attraction de publicités programmatiques, ajoutant « de grandes marques occidentales, qui sans le savoir ces sites peu fiables ».