Publication
Éthique et usage de l'intelligence artificielle
Technologies émergentes

Adolescents & Anthropomorphic AI: Rethinking Design for Wellbeing

9 mars 2026
Publication

À l'occasion du Sommet sur l'intelligence artificielle 2026 en Inde, iRaise a publié son rapport « Adolescents & Anthropomorphic AI », qui examine la manière dont l'IA conversationnelle façonne le développement, l'autonomie et les relations des adolescents. S'appuyant sur des consultations avec l'industrie, des contributions d'experts multidisciplinaires, le laboratoire iRAISE et le dialogue politique mondial au Forum de Paris sur la paix, ce rapport traduit les préoccupations convergentes en recommandations concrètes.

Auteur : Mathilde Cerioli, Ph.D (everyone.AI & iRaise)

Résumé

L'IA conversationnelle fait désormais partie intégrante du quotidien des adolescents, les aidant dans des tâches allant des devoirs scolaires au réconfort émotionnel. Quelle que soit leur intention, les adolescents ont tendance à nouer des relations sociales avec ces systèmes. Cela soulève une question fondamentale en matière de gouvernance et de conception : les interactions avec l'IA favorisent-elles le développement des adolescents vers l'autonomie, la résilience et la pensée indépendante, ou encouragent-elles des schémas de dépendance qui remplacent les relations réelles et affaiblissent les compétences critiques ?

Ce rapport aborde le décalage croissant entre le déploiement rapide de systèmes d'IA socialement fluides et la lenteur des preuves en matière de développement. S'appuyant sur des consultations avec l'industrie, des contributions d'experts multidisciplinaires, le laboratoire iRAISE et le dialogue politique mondial au Forum de Paris sur la paix, il traduit les préoccupations convergentes en recommandations concrètes.

Les conclusions s'articulent autour d'un cadre comportemental qui rend le risque d'interaction vérifiable à travers trois dimensions du comportement modèle : les indices anthropomorphiques, les indices interactionnels et les indices relationnels. Le fait de traiter ces indices comme des gradients ajustables plutôt que comme des éléments binaires montre comment un contenu identique peut avoir des implications très différentes sur le développement selon le style d'interaction. Le rapport identifie des garde-fous largement consensuels à appliquer immédiatement, ainsi que des questions ouvertes nécessitant des preuves supplémentaires.

Dans l'ensemble, ce travail recadre la sécurité de l'IA pour les adolescents comme une responsabilité de conception fondée sur les droits des enfants, fournissant une base pour des normes mesurables, des garanties applicables et des recherches futures reliant le comportement de l'IA aux résultats en matière de développement.

Lire la synthèse du rapport

Lire le rapport complet