L’intelligence artificielle générative occupe désormais une place centrale dans l’actualité technologique. En France, près de la moitié de la population déclare utiliser des outils d’IA, selon le baromètre du numérique 2026. À l’échelle internationale, affaires de deepfakes, pratiques de démarchage automatisé, usages médicaux non encadrés et interventions réglementaires visant les grandes plateformes structurent un débat élargi sur les conditions de déploiement de ces technologies.
Une adoption rapide des outils conversationnels
Les données publiées par le baromètre du numérique indiquent que 48 % des Français ont déjà utilisé un outil d’intelligence artificielle générative, contre 20 % deux ans auparavant. Les usages les plus fréquents concernent la recherche d’information, la rédaction de contenus et l’assistance à des tâches quotidiennes. Cette progression touche particulièrement les jeunes adultes, les indépendants et certaines catégories socioprofessionnelles, tandis qu’une partie de la population demeure à distance de ces outils.
Cette diffusion s’accompagne d’une intégration accrue de services tiers dans les agents conversationnels. L’annonce de l’intégration de la plateforme Leboncoin dans les applications de ChatGPT constitue une première pour un acteur français du commerce en ligne. Cette fonctionnalité permet d’interagir avec des annonces directement depuis une interface conversationnelle, sans passer par un site externe.
« Quand l’usage devient banal, les interfaces cessent d’être perçues comme des innovations. »
Deepfakes et détournements informationnels
Plusieurs affaires récentes ont mis en lumière les risques liés à la production de contenus synthétiques trompeurs. En France, une vidéo générée par intelligence artificielle a attribué au professeur Serge Hercberg des propos fictifs, sans lien avec ses prises de position publiques. L’épisode a relancé les discussions sur la capacité du public à distinguer contenus authentiques et contenus artificiels, en l’absence de dispositifs de signalement systématiques.
En Inde, la diffusion d’une vidéo montrant le ministre en chef de l’Assam, Himanta Biswa Sarma, tirant sur une représentation de musulmans a suscité de vives réactions. La vidéo, générée par IA et diffusée brièvement par une branche régionale du parti au pouvoir avant d’être supprimée, a entraîné des condamnations politiques et des interrogations sur l’usage de ces technologies dans le débat public, sans annonce immédiate de cadre spécifique.
Démarchage automatisé et exploitation des données
Le recours à l’intelligence artificielle dans le démarchage téléphonique constitue un autre volet de cette séquence. Des systèmes automatisés capables de générer des voix synthétiques, d’usurper des numéros et de collecter des données personnelles sont désormais utilisés à grande échelle. Ces dispositifs reposent sur des algorithmes adaptant les discours en temps réel selon les réponses obtenues.
Les autorités chargées de la protection des consommateurs et des données personnelles se heurtent à des difficultés d’identification des responsables. La fragmentation des infrastructures techniques et l’externalisation des services compliquent l’application des cadres juridiques existants, notamment en matière de consentement et de traçabilité des appels.
« Les numéros changent, les voix aussi, mais les plaintes se répètent. »
Usages médicaux et limites de l’autodiagnostic
Une étude britannique relayée en France a mis en évidence les limites des agents conversationnels dans le cadre de l’autodiagnostic médical. Les participants identifient plus fréquemment une pathologie à l’aide d’un moteur de recherche classique qu’en interrogeant un agent conversationnel. Les erreurs relevées concernent notamment la hiérarchisation des symptômes et l’interprétation de situations cliniques complexes.
Ces résultats interviennent alors que certains utilisateurs recourent à ces outils pour obtenir des avis de santé en amont, voire en substitution d’une consultation médicale. Les autorités sanitaires rappellent que ces dispositifs ne sont pas des outils médicaux certifiés et ne relèvent d’aucune procédure d’homologation comparable à celle des dispositifs médicaux.
Interventions réglementaires et concurrence numérique
Au niveau européen, la Commission a adressé à Meta une notification formelle estimant que WhatsApp pourrait enfreindre les règles de concurrence en limitant l’accès de services d’IA concurrents à sa messagerie professionnelle. Cette procédure s’inscrit dans le cadre du droit européen de la concurrence, destiné à prévenir les abus de position dominante. Meta conteste cette analyse, invoquant des enjeux de sécurité et d’intégrité du service.
Parallèlement, les autorités européennes poursuivent la mise en œuvre de cadres plus larges, tels que le règlement sur les marchés numériques et le futur règlement sur l’intelligence artificielle. Ce dernier vise à classer les systèmes d’IA selon leur niveau de risque et à imposer des obligations différenciées aux fournisseurs et utilisateurs.
Les usages de l’intelligence artificielle continuent de se déployer plus rapidement que les dispositifs de contrôle et de certification. Les cadres juridiques existants sont mobilisés, mais leur adaptation aux spécificités des systèmes génératifs demeure incomplète. Les autorités nationales et européennes poursuivent leurs travaux sans calendrier unifié pour l’ensemble des mesures envisagées.
Dans quelle mesure les dispositifs réglementaires permettront-ils de distinguer usages commerciaux, informationnels et médicaux ? Les mécanismes de traçabilité et de responsabilité pourront-ils s’appliquer efficacement à des contenus et services produits de manière automatisée ?