Publié le 13/02/2024 Dans Press Releases
Le texte suivant est issu d'un communiqué de presse et ne reflète en rien l'opinion de la rédaction.
Le 13 février 2024 - Les fake news on fait les grands titres des journaux depuis qu' en 2016 elles sont devenues un sujet majeur lors de la course à la Maison Blanche. Huit ans après, une menace plus grande est là : une combinaison de désinformation et de deepfakes qui tromperait même les experts. Il y a des chances que des exemples récents de contenu généré par l'IA sur le thème des élections – une multitude d'images et de vidéos circulant à l'approche des élections présidentielles en Argentine et un audio falsifié de Jo Biden – soient des précurseurs de ce qui peut se produire à plus grande échelle.
Avec près d’un quart de la population mondiale qui se rendra aux urnes en 2024, la désinformation et des supercheries basées IA pourraient être utilisées par des acteurs néfastes pour influencer les résultats car beaucoup d’experts craignent la généralisation des deepfakes.
La menace de la désinformation
Près de deux milliards de personnes se rendront cette année dans leurs bureaux de vote pour élire leurs représentants et dirigeants. Des élections majeures sont prévues aux États-Unis, au Royaume-Uni, en Inde ainsi que pour le Parlement européen. Cela pourrait potentiellement changer le paysage politique et l’orientation de la géopolitique pour les prochaines années et même au-delà .
Dans le même temps, le Forum Economique Mondial (FEM) a récemment classé la désinformation comme le risque mondial numéro un pour les deux années à venir.
Le défi avec les deepfakes c’est la technologie basée IA devenue bon marché, accessible et puissante pouvant causer des dommages à grande échelle. Elle démocratise la capacité des cybercriminels, des acteurs étatiques et des hacktivistes pour lancer des campagnes de désinformation convaincantes et des escroqueries toujours plus ponctuelles. C’est pour cela que le FEM a récemment classé la désinformation comme le plus grand risque mondial des deux années à venir, et le deuxième risque actuel, après les conditions météorologiques extrêmes. C’est ce que révèlent 1 490 experts du monde universitaire et des affaires, des gouvernements, de la communauté internationale et de la société civile consultés par le FEM.
Le rapport explique :
«Les contenus synthétiques manipuleront les individus, porteront préjudice aux économies et fractureront les sociétés de diverses manières au cours des deux prochaines années… il y a un risque que certains gouvernements soient trop lents confrontés à la prévention de la désinformation et à la protection de la liberté d'expression.»
Le deepfake
Des outils tels que ChatGPT et l’IA générative(GenAI), librement accessible, ont permis à un grand nombre d’individus de créer des campagnes de désinformation pilotées par la technologie deepfake. Dès lors, les acteurs malveillants ont plus de temps pour préparer leurs messages et leurs efforts d’amplification pour garantir que leur faux contenu soit vu et entendu.
Dans un contexte électoral, les deepfakes peuvent être utilisés pour réduire la confiance des électeurs dans un candidat particulier. Il est plus facile de convaincre quelqu’un de ne pas faire quelque chose que l’inverse. Si les partisans d’un parti politique ou d’un candidat peuvent être influencés de manière appropriée par de faux enregistrements audio ou vidéo, cela constituerait une victoire définitive pour les rivaux. Des États voyous peuvent chercher à saper la confiance dans l’ensemble du processus démocratique, de sorte que celui qui gagnera aura du mal à gouverner légalement.
Au centre du défi, il y a une vérité simple : lorsque les humains traitent des informations, ils préfèrent valoriser la quantité et la facilité de compréhension. Plus nous regardons du contenu avec un message similaire et plus il est facile à comprendre, plus nous avons de chances d’y croire. Ainsi, les campagnes marketing ont tendance à être composées de messages courts et répétés en continu. De plus, distinguer les deepfakes du contenu réel devient toujours plus difficile et peut mener à un désastre démocratique.
De la théorie à la pratique
Les deepfakes auront probablement aussi un impact sur les sentiments des électeurs. En janvier 2024, un faux audio de Joe Biden a été diffusé via un appel automatisé à un nombre inconnu d'électeurs des primaires du New Hampshire. Dans le message, il leur aurait dit de ne pas participer et de « garder leur vote pour les élections de novembre ». Le numéro de l’appelant était falsifié pour faire croire que le message avait été envoyé à partir du numéro personnel de Kathy Sullivan, ancienne présidente du Parti démocrate de l’État qui dirige actuellement un super-PAC pro-Biden.
On peut alors imaginer comment de tels appels peuvent être utilisés pour dissuader les électeurs de se présenter pour leur candidat préféré avant l’élection présidentielle de novembre. Le risque est important lors d’élections très disputées, où le déplacement d’un petit nombre d’électeurs détermine le résultat. Avec seulement des dizaines de milliers d’électeurs dans quelques États charnières décidant du résultat, une campagne ciblée peut causer des dégâts incalculables. Et, comme dans le cas ci-dessus, la propagation s'est faite via des appels automatisés plutôt que les réseaux sociaux, c’est encore plus difficile d'en suivre ou d’en mesurer l'impact.
Que font les entreprises technologiques?
YouTube et Facebook auraient été lentes à réagir à certains deepfakes influençant les récentes élections. Et cela malgré une nouvelle loi européenne (sur les services numériques) qui oblige les sociétés de médias sociaux à réprimer les tentatives de manipulation électorale.
De son côté, OpenAI va mettre en œuvre les informations d'identification numériques de la Coalition for Content Provenance and Authenticity (C2PA) pour les images générées par DALL-E 3. La technologie de filigrane cryptographique – aussi testée par Meta et Google – est conçue pour rendre plus difficile la production de fausses images.
Cependant, ce ne sont que de petits pas et il y a des inquiétudes légitimes quant à la réponse technologique qui serait trop limitée, trop tardive, alors que la fièvre électorale s’empare du monde. En particulier lorsque les menaces se propagent dans des réseaux assez fermés comme WhatsApp ou les appels automatisés, il est difficile de suivre et de discréditer rapidement tout faux audio ou vidéo.
La théorie du « biais d’ancrage » suggère que l’information qui nous reste à l’esprit est la première que nous entendons, même si elle est fausse. Si les deepfakers parviennent d’abord à faire basculer les électeurs, les paris sont ouverts quant à savoir qui sera le vainqueur final. À l’ère des médias sociaux et de la désinformation alimentée par l’IA, la phrase de Jonathan Swift « le mensonge vole, et la vérité suit en boitant » prend un tout nouveau sens.
A propos d’ESET
Depuis plus de 30 ans, ESET® développe des logiciels et des services de sécurité informatique de pointe pour protéger les entreprises, les infrastructures critiques et les consommateurs du monde entier contre les menaces numériques toujours plus sophistiquées. De la sécurité des terminaux et des mobiles à l'EDR en passant par le chiffrement, l'authentification à double facteur, les solutions légères et performantes d'ESET protègent et surveillent 24/7, mettant à jour, en temps réel, les défenses afin d’assurer sans interruption la sécurité des utilisateurs et des entreprises. L'évolution constante des menaces nécessite un fournisseur de sécurité informatique évolutif qui permet d’utiliser la technologie de façon sûre. Ceci est supporté par les centres de R&D d'ESET dans le monde entier, travaillant à soutenir notre avenir commun. Pour plus d’information visitez www.eset.com , ou suivez-nous sur LinkedIn, Facebook, Instagram et https://www.eset.com/be-fr/
Avec près d’un quart de la population mondiale qui se rendra aux urnes en 2024, la désinformation et des supercheries basées IA pourraient être utilisées par des acteurs néfastes pour influencer les résultats car beaucoup d’experts craignent la généralisation des deepfakes.
La menace de la désinformation
Près de deux milliards de personnes se rendront cette année dans leurs bureaux de vote pour élire leurs représentants et dirigeants. Des élections majeures sont prévues aux États-Unis, au Royaume-Uni, en Inde ainsi que pour le Parlement européen. Cela pourrait potentiellement changer le paysage politique et l’orientation de la géopolitique pour les prochaines années et même au-delà .
Dans le même temps, le Forum Economique Mondial (FEM) a récemment classé la désinformation comme le risque mondial numéro un pour les deux années à venir.
Le défi avec les deepfakes c’est la technologie basée IA devenue bon marché, accessible et puissante pouvant causer des dommages à grande échelle. Elle démocratise la capacité des cybercriminels, des acteurs étatiques et des hacktivistes pour lancer des campagnes de désinformation convaincantes et des escroqueries toujours plus ponctuelles. C’est pour cela que le FEM a récemment classé la désinformation comme le plus grand risque mondial des deux années à venir, et le deuxième risque actuel, après les conditions météorologiques extrêmes. C’est ce que révèlent 1 490 experts du monde universitaire et des affaires, des gouvernements, de la communauté internationale et de la société civile consultés par le FEM.
Le rapport explique :
«Les contenus synthétiques manipuleront les individus, porteront préjudice aux économies et fractureront les sociétés de diverses manières au cours des deux prochaines années… il y a un risque que certains gouvernements soient trop lents confrontés à la prévention de la désinformation et à la protection de la liberté d'expression.»
Le deepfake
Des outils tels que ChatGPT et l’IA générative(GenAI), librement accessible, ont permis à un grand nombre d’individus de créer des campagnes de désinformation pilotées par la technologie deepfake. Dès lors, les acteurs malveillants ont plus de temps pour préparer leurs messages et leurs efforts d’amplification pour garantir que leur faux contenu soit vu et entendu.
Dans un contexte électoral, les deepfakes peuvent être utilisés pour réduire la confiance des électeurs dans un candidat particulier. Il est plus facile de convaincre quelqu’un de ne pas faire quelque chose que l’inverse. Si les partisans d’un parti politique ou d’un candidat peuvent être influencés de manière appropriée par de faux enregistrements audio ou vidéo, cela constituerait une victoire définitive pour les rivaux. Des États voyous peuvent chercher à saper la confiance dans l’ensemble du processus démocratique, de sorte que celui qui gagnera aura du mal à gouverner légalement.
Au centre du défi, il y a une vérité simple : lorsque les humains traitent des informations, ils préfèrent valoriser la quantité et la facilité de compréhension. Plus nous regardons du contenu avec un message similaire et plus il est facile à comprendre, plus nous avons de chances d’y croire. Ainsi, les campagnes marketing ont tendance à être composées de messages courts et répétés en continu. De plus, distinguer les deepfakes du contenu réel devient toujours plus difficile et peut mener à un désastre démocratique.
De la théorie à la pratique
Les deepfakes auront probablement aussi un impact sur les sentiments des électeurs. En janvier 2024, un faux audio de Joe Biden a été diffusé via un appel automatisé à un nombre inconnu d'électeurs des primaires du New Hampshire. Dans le message, il leur aurait dit de ne pas participer et de « garder leur vote pour les élections de novembre ». Le numéro de l’appelant était falsifié pour faire croire que le message avait été envoyé à partir du numéro personnel de Kathy Sullivan, ancienne présidente du Parti démocrate de l’État qui dirige actuellement un super-PAC pro-Biden.
On peut alors imaginer comment de tels appels peuvent être utilisés pour dissuader les électeurs de se présenter pour leur candidat préféré avant l’élection présidentielle de novembre. Le risque est important lors d’élections très disputées, où le déplacement d’un petit nombre d’électeurs détermine le résultat. Avec seulement des dizaines de milliers d’électeurs dans quelques États charnières décidant du résultat, une campagne ciblée peut causer des dégâts incalculables. Et, comme dans le cas ci-dessus, la propagation s'est faite via des appels automatisés plutôt que les réseaux sociaux, c’est encore plus difficile d'en suivre ou d’en mesurer l'impact.
Que font les entreprises technologiques?
YouTube et Facebook auraient été lentes à réagir à certains deepfakes influençant les récentes élections. Et cela malgré une nouvelle loi européenne (sur les services numériques) qui oblige les sociétés de médias sociaux à réprimer les tentatives de manipulation électorale.
De son côté, OpenAI va mettre en œuvre les informations d'identification numériques de la Coalition for Content Provenance and Authenticity (C2PA) pour les images générées par DALL-E 3. La technologie de filigrane cryptographique – aussi testée par Meta et Google – est conçue pour rendre plus difficile la production de fausses images.
Cependant, ce ne sont que de petits pas et il y a des inquiétudes légitimes quant à la réponse technologique qui serait trop limitée, trop tardive, alors que la fièvre électorale s’empare du monde. En particulier lorsque les menaces se propagent dans des réseaux assez fermés comme WhatsApp ou les appels automatisés, il est difficile de suivre et de discréditer rapidement tout faux audio ou vidéo.
La théorie du « biais d’ancrage » suggère que l’information qui nous reste à l’esprit est la première que nous entendons, même si elle est fausse. Si les deepfakers parviennent d’abord à faire basculer les électeurs, les paris sont ouverts quant à savoir qui sera le vainqueur final. À l’ère des médias sociaux et de la désinformation alimentée par l’IA, la phrase de Jonathan Swift « le mensonge vole, et la vérité suit en boitant » prend un tout nouveau sens.
A propos d’ESET
Depuis plus de 30 ans, ESET® développe des logiciels et des services de sécurité informatique de pointe pour protéger les entreprises, les infrastructures critiques et les consommateurs du monde entier contre les menaces numériques toujours plus sophistiquées. De la sécurité des terminaux et des mobiles à l'EDR en passant par le chiffrement, l'authentification à double facteur, les solutions légères et performantes d'ESET protègent et surveillent 24/7, mettant à jour, en temps réel, les défenses afin d’assurer sans interruption la sécurité des utilisateurs et des entreprises. L'évolution constante des menaces nécessite un fournisseur de sécurité informatique évolutif qui permet d’utiliser la technologie de façon sûre. Ceci est supporté par les centres de R&D d'ESET dans le monde entier, travaillant à soutenir notre avenir commun. Pour plus d’information visitez www.eset.com , ou suivez-nous sur LinkedIn, Facebook, Instagram et https://www.eset.com/be-fr/