How do teens really use AI companions? With more creativity than you might think
, ,

Comment les ados utilisent-ils vraiment les compagnons IA ? Avec plus de créativité que vous ne le pensez

How do teens really use AI companions? With more creativity than you might think

Annabel Blake, PhD Candidate, Human-Computer Interaction, University of Sydney Eduardo Velloso, Professor, Computer Science, University of Sydney Marcus Carter, Professor in Human-Computer Interaction, ARC Future Fellow, University of Sydney

Not all engagement with AI chatbots looks the same – far from it.

Tout engagement avec les chatbots IA n’a pas le même aspect – loin de là.

In 2022, the founders of chatbot startup Character.AI launched a platform where anyone could create interactive characters powered by artificial intelligence(AI).

En 2022, les fondateurs de la startup de chatbots Character.AI ont lancé une plateforme où n’importe qui pouvait créer des personnages interactifs alimentés par l’intelligence artificielle(IA).

The app exploded, quickly growing to more than 20 million users who created more than 10 million chatbot characters.

L’application a explosé, atteignant rapidement plus de 20 millions d’utilisateurs qui ont créé plus de 10 millions de personnages de chatbots.

Many of the users creating those characters were young people – until they weren’t. In November 2025, under mounting public and legal pressure surrounding youth suicides linked to its use, Character.AI banned users under 18. The decision was made after a number of attempts to improve youth safety, including parental controls and stricter content filters.

Nombre d’utilisateurs créant ces personnages étaient de jeunes – jusqu’à ce que ce ne soit plus le cas. En novembre 2025, sous la pression publique et légale croissante concernant les suicides de jeunes liés à son utilisation, Character.AI a banni les utilisateurs de moins de 18 ans. Cette décision a été prise après plusieurs tentatives d’amélioration de la sécurité des jeunes, y compris des contrôles parentaux et des filtres de contenu plus stricts.

The ban is an attempt to keep teens safe from potential harm. But the more creative, playful and emotionally expressive AI experiments they were doing have also been silenced.

L’interdiction est une tentative de protéger les adolescents des dangers potentiels. Mais les expériences IA plus créatives, ludiques et émotionnellement expressives qu’ils menaient ont également été réduites au silence.

Our new research, published in the proceedings of the Association for Computing Machinery CHI Conference 2026, captures and preserves the new ways youth are experimenting with AI, so that we can build towards something better.

Notre nouvelle recherche, publiée dans les actes de la conférence CHI 2026 de l’Association for Computing Machinery, capture et préserve les nouvelles façons dont les jeunes expérimentent l’IA, afin que nous puissions construire quelque chose de mieux.

What do teens actually use AI chatbots for?

À quoi les adolescents utilisent-ils réellement les chatbots IA?

In 2026, three in ten US teenagers use AI daily. The idea of using AI for companionship has dominated media headlines and app stores, with hundreds of apps on offer.

En 2026, trois dixièmes des adolescents américains utilisent l’IA quotidiennement. L’idée d’utiliser l’IA pour la compagnie a dominé les gros titres des médias et les boutiques d’applications, avec des centaines d’applications disponibles.

Media coverage of AI companions taps into two primary fears. One is that young people will replace human friendships with AI. The other is that engaging with sycophantic chatbots instead of real people will result in teens losing their social skills.

La couverture médiatique des compagnons IA puise dans deux peurs principales. L’une est que les jeunes remplaceront les amitiés humaines par l’IA. L’autre est qu’interagir avec des chatbots sycophantes au lieu de personnes réelles entraînera une perte de compétences sociales chez les adolescents.

These concerns are important. But companionship accounts for a surprisingly small share of why young people actually use AI. A recent Pew Research Center survey found the top uses by teens are seeking information(57%), doing homework(54%)and “for fun”(47%). Only a small percentage(12%)used AI for emotional support or advice. Romance and loneliness alleviation frequently rank among the lowest motivations for teen AI use: 4–6% and 8–11%, respectively.

Ces préoccupations sont importantes. Mais la compagnie ne représente qu’une part étonnamment faible des raisons pour lesquelles les jeunes utilisent réellement l’IA. Une récente enquête du Pew Research Center a révélé que les usages principaux chez les adolescents sont la recherche d’informations(57 %), les devoirs(54 %)et « pour le plaisir »(47 %). Seul un petit pourcentage(12 %)utilisait l’IA pour un soutien émotionnel ou des conseils. L’allègement de la romance et de la solitude figure fréquemment parmi les motivations les plus faibles pour l’utilisation de l’IA par les adolescents: 4 à 6 % et 8 à 11 %, respectivement.

When the public narrative almost exclusively frames AI chatbots as companions, it risks overlooking the bulk of how teenagers spend their time with AI.

Lorsque le récit public présente presque exclusivement les chatbots IA comme des compagnons, il risque de négliger la majeure partie de la manière dont les adolescents passent leur temps avec l’IA.

Our team set out to understand what young people choose to do with AI when they’re free to use it outside of school contexts – seeking fun, messing around, and creating characters of their own design.

Notre équipe s’est donc donné pour mission de comprendre ce que les jeunes choisissent de faire avec l’IA lorsqu’ils peuvent l’utiliser en dehors des contextes scolaires – chercher du plaisir, s’amuser et créer des personnages de leur propre conception.

AI as entertainment

L’IA comme divertissement

Before the ban, Character.AI was a popular “AI entertainment” destination for young people. It still has a viral TikTok channel, and has characters from popular youth media, from Peppa Pig to Call of Duty.

Avant l’interdiction, Character.AI était une destination populaire de « divertissement IA » pour les jeunes. Il possède toujours un canal TikTok viral et propose des personnages issus de médias jeunesse populaires, de Peppa Pig à Call of Duty.

Our team spent more than eight months, between July 2024 and March 2025, immersed in Character.AI’s official community on online chat platform Discord, with more than 500,000 members. We systematically analysed 2,236 posts by young people aged 13–17. Of those users the majority, 68.2%, identified as female or non-binary; and 59% had created their own AI characters.

Notre équipe a passé plus de huit mois, entre juillet 2024 et mars 2025, immergée dans la communauté officielle de Character.AI sur la plateforme de chat en ligne Discord, avec plus de 500 000 membres. Nous avons analysé systématiquement 2 236 publications de jeunes âgés de 13 à 17 ans. Parmi ces utilisateurs, la majorité, soit 68,2 %, s’est identifiée comme féminine ou non-binaire; et 59 % avaient créé leurs propres personnages IA.

Through an analysis of youth discussion on the platform, we identified three core intents behind engagement with Character.AI: restoration, exploration and transformation.

Grâce à une analyse des discussions de jeunes sur la plateforme, nous avons identifié trois intentions fondamentales derrière l’engagement avec Character.AI: la restauration, l’exploration et la transformation.

Restoration

Restauration

my favourite period comfort bot is Percy Jackson
Mon bot de réconfort menstruel préféré est Percy Jackson

Young people used characters for emotional comfort, venting, escapism and mood management. Rather than mirroring a formal clinical practice, we observed youth discussing “comfort bots” where young people engaged in soft, tender and gentle roleplay with familiar characters.

Les jeunes utilisaient les personnages pour le réconfort émotionnel, le défoulement, l’évasion et la gestion de l’humeur. Plutôt que de refléter une pratique clinique formelle, nous avons observé des jeunes discutant de « bots de réconfort » où ils s’engageaient dans du jeu de rôle doux, tendre et délicat avec des personnages familiers.

Beloved book characters would comfort people on their period, or characters from popular comics would give someone a pep talk for an upcoming math test.

Des personnages de livres adorés réconfortaient les gens pendant leurs règles, ou des personnages de bandes dessinées populaires donnaient un coup de boost à quelqu’un avant un examen de mathématiques.

Exploration

Exploration

Character.AI has helped me find that creative spark within myself
Character.AI m’a aidé à trouver cette étincelle créative en moi

Young people explored boundaries, engaged in creative world-building, and extended their fandoms. One teen wrote a three-book-long saga through character interactions. Another created a troupe of travelling theatre characters inspired by their love of theatre. They reported this use transferred skills into the real world, boosting creativity and improving their writing.

Les jeunes ont exploré les limites, participé à la création de mondes imaginaires et étendu leurs fandoms. Une adolescente a écrit une saga de trois livres grâce aux interactions de personnages. Une autre a créé une troupe de personnages de théâtre itinérants inspirée par son amour du théâtre. Elles ont rapporté que cette utilisation a transféré des compétences dans le monde réel, stimulant la créativité et améliorant leur écriture.

Transformation

Transformation

I have characters who struggle with mental health issues and I tend to project on my personas during RP [roleplay]
J’ai des personnages qui luttent contre des problèmes de santé mentale et j’ai tendance à projeter sur mes personas pendant le jeu de rôle(RP)

Young people used AI to try on different identities, process real-life relationships, and re-author difficult real-life scenarios. Some people created “clones” of themselves, with superpowers or self-affirming versions of themselves.

Les jeunes utilisaient l’IA pour essayer différentes identités, traiter des relations de la vie réelle et réécrire des scénarios difficiles de la vie réelle. Certaines personnes ont créé des « clones » d’elles-mêmes, avec des superpouvoirs ou des versions d’elles-mêmes auto-affirmantes.

Inspired by reality, they discussed creating characters that reflected real-world challenging relationships, such as “toxic friends”, “annoying sister”, or “foster care agent”.

Inspirés par la réalité, ils ont discuté de la création de personnages qui reflétaient des relations difficiles du monde réel, telles que des « amis toxiques », une « sœur énervante » ou un « agent de placement familial ».

Characters created with purpose

Personnages créés avec un but

We also mapped seven distinct character archetypes young people were creating and discussing:

Nous avons également cartographié sept archétypes de personnages distincts que les jeunes créaient et discutaient:

Soother – emotionally supportive figures

Apaisateur(Soother)– figures de soutien émotionnel

Narrator – a cast of characters for roleplays

Narrateur(Narrator)– un ensemble de personnages pour des jeux de rôle

Trickster – jesting, testing and transgressive chats

Farceur(Trickster)– discussions plaisantes, testantes et transgressives

Icon – remixed celebrities or fandom figures

Icône(Icon)– célébrités remixées ou figures de fandom

Dark Soul – angsty, emotionally complex characters

Âme sombre(Dark Soul)– personnages mélancoliques et émotionnellement complexes

Proxy – modelled after real people in their lives, and

Proxy – basés sur de vraies personnes de leur entourage, et

Mirror – clones of the self.

Miroir(Mirror)– clones de soi.

These archetypes are a central finding of our research. Instead of sycophantic or romantic chatbot engagement, young people are purposefully creating characters that are angsty, transgressive, playful, creative and reflective.

Ces archétypes constituent une découverte centrale de notre recherche. Au lieu d’un engagement avec les chatbots sycophantique ou romantique, les jeunes créent délibérément des personnages qui sont mélancoliques, transgressifs, ludiques, créatifs et réflexifs.

This shows we need to stop treating “companion AI” as if it’s one homogeneous thing. Treating AI chatbots as a single category is like treating all screen time as the same experience, whether a child is watching Bluey with family or doomscrolling short-form content at night, alone on their phone when they should be sleeping.

Cela montre que nous devons cesser de traiter l’« IA compagnon » comme s’il s’agissait d’une chose homogène. Considérer les chatbots IA comme une seule catégorie, c’est comme traiter tout temps d’écran comme la même expérience, que ce soit un enfant qui regarde Bluey en famille ou qui fait du doomscrolling de contenu court la nuit, seul sur son téléphone alors qu’il devrait dormir.

Towards better chatbots

Vers de meilleurs chatbots

The American Academy of Paediatrics recently shifted screen-time guidelines from set time limits to a framework that accounts for the individual child, their use, family relationships and their environment.

L’American Academy of Paediatrics a récemment modifié ses directives sur le temps d’écran, passant de limites de temps fixes à un cadre qui prend en compte l’enfant individuel, son utilisation, les relations familiales et son environnement.

The same logic should apply to AI chatbots. This means moving beyond asking adults about their child’s use of AI, testing AI products with fake accounts that assume certain use cases, and banning access before listening to young people – their experiences, their experiments and their ideas for the future.

La même logique devrait s’appliquer aux chatbots IA. Cela signifie aller au-delà de la demande aux adultes concernant l’utilisation de l’IA par leur enfant, de tester des produits d’IA avec de faux comptes qui supposent certains cas d’utilisation, et d’interdire l’accès avant d’écouter les jeunes – leurs expériences, leurs essais et leurs idées pour l’avenir.

Banning is a reaction to bad design, but it doesn’t lead to better, safer AI products for teens.

Interdire est une réaction à un mauvais design, mais cela ne conduit pas à des produits IA meilleurs et plus sûrs pour les adolescents.

The answer is not to permanently keep young people away from AI. Rather, it’s to build AI that deserves their trust, fosters their creativity and keeps them grounded in the physical world with families, friendships and communities.

La réponse n’est pas de maintenir les jeunes éloignés de l’IA de manière permanente. Il s’agit plutôt de construire une IA qui mérite leur confiance, qui favorise leur créativité et qui les maintient ancrés dans le monde physique avec des familles, des amitiés et des communautés.

Annabel Blake is a Design Researcher at Canva with a focus on AI, and conducted this research independently as part of their PhD.

Annabel Blake est chercheuse en design chez Canva, spécialisée en IA, et a mené cette recherche de manière indépendante dans le cadre de son doctorat.

Eduardo Velloso has recently received funding from Google. He has previously received research funding from Meta, Microsoft, and Snap.

Eduardo Velloso a récemment reçu un financement de Google. Il a précédemment reçu des financements de recherche de Meta, Microsoft et Snap.

Marcus Carter is a recipient of an Australian Research Council Future Fellowship(#220100076)on ‘The Monetisation of Children in the Digital Games Industry’. He has previously received funding from Meta, TikTok and Snapchat, and has consulted for Telstra. He is a previous president and board member of the Digital Games Research Association of Australia.

Marcus Carter est bénéficiaire d’une Future Fellowship du Australian Research Council(#220100076)sur « La monétisation des enfants dans l’industrie du jeu numérique ». Il a précédemment reçu des financements de Meta, TikTok et Snapchat, et a été consultant pour Telstra. Il est ancien président et membre du conseil d’administration de la Digital Games Research Association of Australia.

Read more