
En 2026, l’intelligence artificielle générative a franchi un nouveau cap avec un taux d’utilisation mondial de 66%. Mais cette intégration masque une défiance. Entre l’exigence de transparence (86% des consommateurs réclament un étiquetage obligatoire) et la montée des « deepfakes » qui inquiètent 87% des citoyens, les marques font face à un défi historique. Analyse.
L’usage de l’IA a franchi un seuil de masse. D’après une étude de Google, deux tiers des citoyens mondiaux (66%) déclarent avoir utilisé une application d’IA au cours des douze derniers mois, une augmentation de 18% par rapport à 2024.
Et dans le milieu professionnel, selon le dernier Digital Trust Index de Thales, 93% des responsables informatiques déploient des initiatives liées à l’IA générative.
Ce n’est pas la seule réalité que masque l’adoption massive de l’IA générative. L’AI Index Report de l’Université de Stanford en pointe au moins 3 autres :

- Excitation vs Nervosité : Si l’optimisme quant aux bénéfices est passé de 55% à 59% en un an, la nervosité progresse parallèlement pour atteindre 52% au niveau mondial
- Le Fossé experts/public : Aux États-Unis, 73% des experts prévoient un impact positif de l’IA sur le travail, contre seulement 23% du côté du grand public
- L’usage au travail : Près de 58% des employés utilisent l’IA régulièrement, mais ce chiffre dépasse 80% dans les économies émergentes comme l’Inde ou la Chine
En moyenne, sur les sept marchés étudiés de leur côté par YouGov et Meltwater, la méfiance l’emporte.
La majorité des répondants (51%) exprime sa méfiance face à un futur marqué par l’IA, contre seulement 39% d’opinions favorables (Google était à 50-50 trois mois plus tôt).

Les jeunes adultes de 25 à 34 ans constituent le groupe le plus enthousiaste (48%), suivis de près par les 18-24 ans et les 35-44 ans (45%), alors que ce sentiment tombe à 31% chez les plus de 55 ans.

Une fracture de genre significative est également observée : les hommes sont nettement plus enclins à se dire enthousiastes (45%) que les femmes (34%), ces dernières étant majoritairement réservées (52%) face au développement croissant de l’IA.
La méfiance, posture par défaut
La méfiance envers les entreprises qui déploient l’IA est devenue la norme également. Les études le confirment les unes après les autres :
- 23% des consommateurs font confiance aux entreprises pour utiliser l’IA de manière responsable avec leurs données personnelles, d’après l’étude Digital Trust Index de Thales
- 54% des travailleurs craignent d’être « laissés pour compte », selon Edelman
- Aux USA, en Grande-Bretagne et au Danemark, le ratio de rejet de l’usage croissant de l’IA est de 2:1 (Edelman)
- 70% des salariés suspectent leur CEO de mentir quand il s’agit du futur de l’IA (Edelman encore)
Cette méfiance est alimentée par des craintes concrètes : 64% des Américains pensent que l’IA entraînera une réduction nette du nombre d’emplois au cours des 20 prochaines années (Stanford).
De plus, 53% craignent une érosion de la créativité humaine et 50% redoutent un affaiblissement des relations humaines (Pew Resaerch).

L’impératif de transparence et le recul des marques
Pour le public, la transparence est une exigence de survie pour les marques.
Environ 86% des consommateurs sondés par YouGov et Meltwater exigent que tout contenu généré par IA soit explicitement étiqueté.
- Peur de l’ « AI slop » : 32% des sondés affirment qu’apprendre qu’une marque utilise l’IA réduirait leur confiance envers elle

- Aversion pour l’IA dans la communication : 50% des consommateurs préfèrent traiter avec des marques qui n’utilisent pas l’IA dans leurs messages publicitaires, affirme de son côté Gartner
- Problème du « jardin fermé » : 51% des utilisateurs d’outils de recherche par IA ont l’impression d’être enfermés dans un système limitant la vérification (étude Yelp/morning Consult)
Crise de la vérité
L’IA générative a instauré une « crise du savoir », comme la nomme l’Unesco.
En 2026, les deepfakes sont devenus routiniers et techniquement indétectables pour le public (UC Berkeley).
- Érosion de la preuve : L’existence des deepfakes permet désormais de nier des preuves réelles en les qualifiant de fabrications (le « dividende du menteur »)
- Risques de fraude : Les pertes liées à la fraude par IA aux États-Unis pourraient atteindre 40 milliards de dollars d’ici 2027 (Unesco)
- Scepticisme Informationnel : 68% des consommateurs se demandent fréquemment si le contenu qu’ils voient en ligne est réel (Gartner)
Une question de géographie
Selon l’étude de Stanford, le niveau de confiance varie radicalement selon les régions :
- L’optimisme de l’Asie du Sud-Est : En Malaisie, Thaïlande et Indonésie, plus de 80% des citoyens pensent que l’IA améliorera leur vie
- Le scepticisme occidental : Les États-Unis affichent le taux de confiance le plus bas envers leur gouvernement pour réguler l’IA (31%), contre 81% à Singapour
- Le modèle européen : L’Union européenne est l’entité la plus respectée pour réguler l’IA (53%)

Vers une confiance « souveraine » et « humaine » ?
Pour restaurer la confiance, les organisations privilégient deux axes :
- L’IA souveraine : 83% des entreprises considèrent l’IA souveraine comme une priorité stratégique pour garantir leur indépendance, d’après Deloitte
- Le retour à l’humain : Selon CapGemini, la demande pour un support client humain explose, 74% des consommateurs valorisant l’assistance en personne pour les actes complexes
La confiance ne se gagne plus par la performance technique. Mais par la preuve de l’authenticité et le maintien de l’implication humaine…
Xavier Degraux ► Stratège LinkedIn™, Employee Advocacy & Social Selling ► Je transforme Marques, Comex & Dirigeants en Médias (Autorité) ► Thought Leadership Data-Driven & IA ► Ex-Journaliste Éco

