Les modèles d'intelligence artificielle tels que ChatGPT ou Midjourney sont destinés à remplacer le travail humain , même très spécialisé, mais à quel prix ? En 2015, Martin Ford a publié un essai à succès intitulé The rise of the robots , qui a été suivi en 2021 par le plus actuel The rule of the robots, et on soupçonne que le troisième manuscrit, beaucoup plus inquiétant, est déjà à un stade avancé d'écriture. Le concept peut être résumé dans la phrase d'ouverture, mais en 2023, cette réalité s'est accélérée de façon spectaculaire et, comme le rapporte un site d'enquête de NewsGuard intitulé à juste titre Rise of the Newsbots , inonde le Web de spam. Des sites entiers sont créés à l'aide d'outils comme ChatGPT pour relancer ou créer des nouvelles, peut-être pas dans le but spécifique de diffuser de la désinformation, mais toujours de diffuser de fausses nouvelles et du contenu non contrôlé. NewsGuard en a identifié 49, sous les noms génériques de Biz Breaking News et Market News Reports, bourrés de publicités et d'articles écrits par de faux auteurs, tous clairement générés par l' intelligence artificielle . Les sujets vont de la politique à la santé, de la finance à la technologie, et au-delà du langage typique de l'intelligence artificielle, ce qui est pire, ce sont les contenus. Parfois, ce sont des résumés d'autres sites, d'autres mensonges comme la mort du président des États-Unis, Joe Biden. Le plus drôle, c'est que ces articles sont copiés directement du chat avec l'IA, ils contiennent donc des phrases, comme dans l'exemple de la mort de Biden, comme
Et ce n'est pas un cas isolé. Le problème est que ces sites non seulement ne révèlent pas l'origine de ces articles, mais vu le faible coût et la productivité très élevée de ces outils, ils inondent le web de centaines de milliers de contenus pour voir lequel est le plus efficace, c'est-à -dire qui génèrent plus de profits . Le fait est que si vous pensez qu'en évitant ce genre de spam vous êtes à l'abri de l'IA, vous vous trompez considérablement . Compte tenu du faible coût, l'IA générative est utilisée pour créer des articles, et pas seulement par ceux qui diffusent des contenus mal contrôlés. Si vous naviguez sur le Web vous les aurez sûrement lu, peut-être sans vous en rendre compte. L'exemple le plus célèbre est celui du site CNET, qui utilisait ChatGPT pour créer une série d'articles qu'il devait ensuite corriger car bourrés d'erreurs, mais ce n'est pas le seul. Amazon est inondé de livres écrits avec l'IA, et il y a quelques jours un article du Washington Post qui racontait l'histoire d'un programmeur, Chris Cowell, a fait la une des journaux . Après un an de travail, il s'apprêtait à publier un livre très spécifique, intitulé "Automating DevOps with GitLab CI/CD Pipelines". Trois semaines après sa publication, un livre du même titre, écrit avec ChatGPT, apparaît sur Amazon. Alors que l'intelligence artificielle écrit de plus en plus de ce que nous lisons, les informations non vérifiées peuvent perdre de plus en plus de prise sur la réalité. Margaret Mitchell, éthicienne chez Hugging Face, se pose une question troublante : comment comprendre ce qu'est la réalité, si tout le monde rapporte la même fake news ?
Désolé, je ne peux pas terminer cette invite car elle va à l'encontre de la politique d'OpenAI sur la génération de contenu trompeur. Il est contraire à l'éthique de fabriquer des nouvelles de la mort de quelqu'un, en particulier de quelqu'un d'aussi important qu'un président.
Et ce n'est pas un cas isolé. Le problème est que ces sites non seulement ne révèlent pas l'origine de ces articles, mais vu le faible coût et la productivité très élevée de ces outils, ils inondent le web de centaines de milliers de contenus pour voir lequel est le plus efficace, c'est-à -dire qui génèrent plus de profits . Le fait est que si vous pensez qu'en évitant ce genre de spam vous êtes à l'abri de l'IA, vous vous trompez considérablement . Compte tenu du faible coût, l'IA générative est utilisée pour créer des articles, et pas seulement par ceux qui diffusent des contenus mal contrôlés. Si vous naviguez sur le Web vous les aurez sûrement lu, peut-être sans vous en rendre compte. L'exemple le plus célèbre est celui du site CNET, qui utilisait ChatGPT pour créer une série d'articles qu'il devait ensuite corriger car bourrés d'erreurs, mais ce n'est pas le seul. Amazon est inondé de livres écrits avec l'IA, et il y a quelques jours un article du Washington Post qui racontait l'histoire d'un programmeur, Chris Cowell, a fait la une des journaux . Après un an de travail, il s'apprêtait à publier un livre très spécifique, intitulé "Automating DevOps with GitLab CI/CD Pipelines". Trois semaines après sa publication, un livre du même titre, écrit avec ChatGPT, apparaît sur Amazon. Alors que l'intelligence artificielle écrit de plus en plus de ce que nous lisons, les informations non vérifiées peuvent perdre de plus en plus de prise sur la réalité. Margaret Mitchell, éthicienne chez Hugging Face, se pose une question troublante : comment comprendre ce qu'est la réalité, si tout le monde rapporte la même fake news ?
Envoyer une nouvelle à un ami