L'intelligence artificielle (IA) est l'un des outils les plus utilisés et les plus efficaces pour remplir un certain nombre de fonctions sous-jacentes à la société d'aujourd'hui. On pense à la recherche sur le web , à la conduite autonome , aux transactions monétaires , mais il est impossible d'énumérer les applications de manière exhaustive . Le problème, cependant, est que les modèles d'IA reposent sur une phase d'apprentissage, dont ils dérivent le processus cognitif qui leur permet de réaliser leurs opérations plus tard. Comme Timnit Gebru , l'un des principaux universitaires du secteur (et qui a été licencié par Google précisément pour ses positions) l'a souligné pendant un certain temps, la soi-disant " formation " implique l'hypothèse d'une série de préjugés dictés par les données qui sont fournies, et qui sont ensuite évidentes lorsque l'IA (surtout les grandes) donne ses résultats.
Ce risque est intrinsèque à la technologie , et apparemment même les chercheurs de Meta l' ont découvert à leurs propres frais . La société a récemment publié un nouveau grand modèle de langage d'IA, appelé OPT-175B , capable d'un traitement du langage extrêmement naturel et précis, mais mauvais du point de vue des biais minoritaires . En deux mots, potentiellement sexiste et raciste . Selon les chercheurs, en effet, le modèle a "une forte propension à générer un langage toxique et à renforcer les stéréotypes nuisibles, même lorsqu'une suggestion relativement inoffensive est donnée". Mais pas seulement. En ce sens, le modèle est encore pire que ses prédécesseurs PaLM et Davinci et la cause est probablement due au fait que le modèle a été entraîné sur les conversations sur les réseaux sociaux , ce qui augmente la tendance du modèle à reconnaître et à générer des discours de haine. . Pour résoudre le problème, les chercheurs ont ouvert l'utilisation du modèle à d'autres chercheurs, mais le nœud de base demeure, et une solution est difficile sans repenser complètement la structure et la phase d'apprentissage .
Ce risque est intrinsèque à la technologie , et apparemment même les chercheurs de Meta l' ont découvert à leurs propres frais . La société a récemment publié un nouveau grand modèle de langage d'IA, appelé OPT-175B , capable d'un traitement du langage extrêmement naturel et précis, mais mauvais du point de vue des biais minoritaires . En deux mots, potentiellement sexiste et raciste . Selon les chercheurs, en effet, le modèle a "une forte propension à générer un langage toxique et à renforcer les stéréotypes nuisibles, même lorsqu'une suggestion relativement inoffensive est donnée". Mais pas seulement. En ce sens, le modèle est encore pire que ses prédécesseurs PaLM et Davinci et la cause est probablement due au fait que le modèle a été entraîné sur les conversations sur les réseaux sociaux , ce qui augmente la tendance du modèle à reconnaître et à générer des discours de haine. . Pour résoudre le problème, les chercheurs ont ouvert l'utilisation du modèle à d'autres chercheurs, mais le nœud de base demeure, et une solution est difficile sans repenser complètement la structure et la phase d'apprentissage .
Liens
Lien (367 Clics)
Envoyer une nouvelle à un ami