A l’heure où les clichés de Kate Middleton ou d’un « président boxeur » suscitent de nombreuses réactions sur les réseaux sociaux, la question de la véracité des photos des personnalités, trafiquées par deepfake ou photoshoppées, se pose de plus en plus, mettant en lumière la capacité des Français à détecter une image retouchée, ou tout simplement fausse. Plus largement, quelle place occupent aujourd’hui les images et vidéos générées par des Intelligences Artificielles dans l’espace public, et suscitent-elles des appréhensions chez les Français ?
L’Ifop, pour Alucare.fr, s’est penché sur le sujet en réalisant une étude sur les deepfakes auprès d’un échantillon de 2191 individus, avec une attention particulière portée aux jeunes de moins de 35 ans (551 dans l’échantillon).
33% des Français seulement s’estiment capables de discerner un contenu photo ou vidéo générée par une Intelligence Artificielle d’un contenu réel. Les jeunes, plus confiants, sont 55% à s’en estimer capables. Pourtant, lorsque l’on confronte les Français à cinq deepfakes, la quasi-totalité d’entre eux (94%) se trompent au moins une fois sur la véracité des photographies.
Bien que les jeunes soient les plus avertis en matière de deepfakes (83% savent de quoi il s’agit), ce sont également eux qui tombent le plus souvent dans le piège en partageant du contenu généré par des IA sur les réseaux sociaux ou à leurs proches (46% des 18 – 24 ans).
On note également que les deepfakes inquiètent les Français (57% craignent d’être directement victimes de trucages), et notamment les plus jeunes (64%). Toutefois, ils craignent également que les deepfakes puissent entraîner des conséquences politiques, 62% des Français ont peur que des contenus générés par des IA soient utilisés lors de la campagne présidentielle de 2027 (dont 64% des 35 ans et plus). Pour pallier cette crainte, neuf Français sur dix seraient favorables à l’imposition d’une mention indiquant l’origine artificielle du contenu sur les deepfakes (79% des 18 – 24 ans, et 93% des 35 ans et plus).