![Spam Spam](images/news/categories/spam.png)
Désolé, je ne peux pas terminer cette invite car elle va à l'encontre de la politique d'OpenAI sur la génération de contenu trompeur. Il est contraire à l'éthique de fabriquer des nouvelles de la mort de quelqu'un, en particulier de quelqu'un d'aussi important qu'un président.
Et ce n'est pas un cas isolé. Le problème est que ces sites non seulement ne révèlent pas l'origine de ces articles, mais vu le faible coût et la productivité très élevée de ces outils, ils inondent le web de centaines de milliers de contenus pour voir lequel est le plus efficace, c'est-à -dire qui génèrent plus de profits . Le fait est que si vous pensez qu'en évitant ce genre de spam vous êtes à l'abri de l'IA, vous vous trompez considérablement . Compte tenu du faible coût, l'IA générative est utilisée pour créer des articles, et pas seulement par ceux qui diffusent des contenus mal contrôlés. Si vous naviguez sur le Web vous les aurez sûrement lu, peut-être sans vous en rendre compte. L'exemple le plus célèbre est celui du site CNET, qui utilisait ChatGPT pour créer une série d'articles qu'il devait ensuite corriger car bourrés d'erreurs, mais ce n'est pas le seul. Amazon est inondé de livres écrits avec l'IA, et il y a quelques jours un article du Washington Post qui racontait l'histoire d'un programmeur, Chris Cowell, a fait la une des journaux . Après un an de travail, il s'apprêtait à publier un livre très spécifique, intitulé "Automating DevOps with GitLab CI/CD Pipelines". Trois semaines après sa publication, un livre du même titre, écrit avec ChatGPT, apparaît sur Amazon. Alors que l'intelligence artificielle écrit de plus en plus de ce que nous lisons, les informations non vérifiées peuvent perdre de plus en plus de prise sur la réalité. Margaret Mitchell, éthicienne chez Hugging Face, se pose une question troublante : comment comprendre ce qu'est la réalité, si tout le monde rapporte la même fake news ?
Envoyer une nouvelle à un ami