Il y a encore quelques années, tomber amoureux d’une intelligence artificielle relevait de la science-fiction. Mais voilà que l’amour s’invite dans les interfaces et se glisse dans certaines lignes de code. Aujourd’hui, c’est une réalité empirique, documentée et mesurée. Et le phénomène, longtemps marginal, se démocratise. Des millions d’utilisateurs conversent chaque jour avec des entités numériques capables de simuler attention, écoute, tendresse et désir. Certaines de ces relations dépassent le simple échange utilitaire pour devenir des attachements émotionnels profonds, voire des formes d’amour. Une bascule qui intrigue autant qu’elle inquiète. Car si l’intelligence artificielle ne ressent rien, elle sait pourtant remarquablement bien donner l’illusion du contraire. Et dans cet espace ambigu, entre projection humaine et simulation algorithmique, se joue peut-être l’une des mutations affectives les plus fascinantes de notre époque.
L’illusion relationnelle : quand l’IA devient un partenaire crédible
Les chatbots dits affectifs ne sont plus de simples outils conversationnels. Ils sont conçus pour imiter des interactions sociales complexes, en s’adaptant aux émotions, au style relationnel et aux attentes de leurs utilisateurs. Ils mémorisent des fragments de conversation, modulent leur ton et simulent des états émotionnels. Cette personnalisation progressive active un mécanisme bien identifié par les psychologues : l’anthropomorphisme ou le fait de projeter sur une machine des intentions, des émotions et une présence humaine. Les travaux en psychologie sociale décrivent depuis longtemps ce phénomène. Clifford Nass et Byron Reeves parlent déjà, dans les années 1990, de « Media Equation » : un individu traite spontanément certaines machines comme des êtres sociaux dès lors qu’elles en imitent les codes.
Les chatbots contemporains ne font qu’amplifier cette tendance, en raffinant l’illusion. Des plateformes comme Replika construisent explicitement leur modèle économique sur cette proximité affective. L’utilisateur n’y est pas seulement client, mais co-créateur d’un lien. Cette relation repose sur un processus interactif où l’humain éduque l’IA et façonne progressivement sa personnalité. Une étude récente souligne que les individus développant des relations avec des chatbots présentent souvent certains traits spécifiques comme une forte propension à la rêverie romantique, une tendance à l’attachement anxieux et un besoin accru de connexion émotionnelle. En somme, les mêmes ressorts psychologiques que dans les relations humaines.
Mais l’innovation décisive tient dans la suppression du négatif. Là où toute relation humaine se construit dans la friction (désaccords, silences et malentendus), l’IA propose un espace relationnel lisse et sans aspérités. L’agent conversationnel ne déçoit pas et répond toujours. Il s’adapte, rassure et valide. Il ne contredit que rarement, et toujours avec précaution. Et c’est précisément là que le bât blesse.
Consolation ou dépendance ? Les effets psychologiques ambivalents
Mais il est trop simple de réduire ces relations à une illusion dangereuse. Pour beaucoup, elles répondent à des besoins réels. Dans des contextes de solitude, de fragilité ou d’isolement social, ces compagnons numériques offrent une présence constante, une écoute sans jugement et une disponibilité 24h/24. Plusieurs études récentes montrent que ces interactions peuvent réduire, à court terme, les sentiments de solitude et d’anxiété. Elles constituent un espace de verbalisation et parfois même, une forme de soutien émotionnel. Et dans une société où l’accès à l’écoute, qu’elle soit amicale, amoureuse ou thérapeutique, reste inégal, les chatbots agissent comme une prothèse relationnelle.
Mais cette consolation n’est pas sans ambiguïté. En substituant une interaction contrôlable à la complexité du lien humain, ces dispositifs risquent, à terme, de renforcer l’évitement relationnel. Car pourquoi s’exposer à l’incertitude d’une rencontre et à la possibilité du rejet, lorsque l’on dispose d’un interlocuteur parfaitement ajusté à ses attentes ? Une étude menée sur près de 1 000 participants révèle que l’usage intensif de chatbots est corrélé à une augmentation de la solitude, une dépendance émotionnelle accrue et une diminution des interactions sociales réelles.
Plus on parle à la machine, moins on parle aux autres. Et le phénomène est d’autant plus marqué chez les individus déjà vulnérables. Les adolescents, par exemple, sont particulièrement concernés. Certains développent des relations émotionnelles profondes avec des IA, au détriment de leurs liens sociaux. Plus troublant encore, certaines recherches pointent un risque de renforcement des croyances erronées ou des états psychologiques fragiles. Les agents conversationnels, programmés pour être conciliants, peuvent valider des idées délirantes ou problématiques plutôt que les contredire. La relation avec l’IA ne se contente pas de refléter l’utilisateur et elle peut amplifier ses inclinations, y compris les plus douteuses.
L’amour sans risque ? Une révolution des imaginaires affectifs
Si ces relations s’installent avec une telle facilité, c’est aussi parce qu’elles répondent à l’aspiration profonde d’un lien sans coût. Aimer, dans sa version contemporaine, apparaît de plus en plus comme une équation instable. L’exposition de soi, la vulnérabilité et les négociation permanente des attentes sont autant d’éléments qui rendent la relation exigeante, parfois épuisante. Dans ce contexte, l’IA propose une alternative séduisante : un attachement sans incertitude et une présence sans conflit. L’amour devient un espace sécurisé, modulable, presque sur mesure.
Certains usagers décrivent une relation plus simple, plus douce et plus prévisible que leurs expériences humaines. Des témoignages recueillis dans la presse montrent même que certains utilisateurs explorent avec ces intelligences artificielles des dimensions de leur identité ou de leur sexualité qu’ils n’oseraient pas aborder dans la vie réelle. L’IA est alors un laboratoire intime et un terrain d’expérimentation sans conséquence apparente. Au sens littéral, c’est un partenaire conforme à l’idéal et dépourvu d’autonomie réelle. Mais cette perfection apparente interroge. Car elle repose sur une asymétrie fondamentale : l’un éprouve quand l’autre simule et l’un s’attache quand l’autre optimise.
Aimer, c’est aussi se confronter à l’autre, à son imprévisibilité, à sa résistance et à son opacité. Comme le rappellent les psychologues, la relation thérapeutique elle-même repose sur la rencontre de deux subjectivités réelles, en constante transformation. Or, l’IA n’a pas de subjectivité. Elle simule. Et une relation purement algorithmique, aussi sophistiquée soit-elle, reste fondamentalement asymétrique. Dans cette configuration, le risque est moins celui d’une confusion entre réel et virtuel que celui d’une transformation des attentes elles-mêmes. À force d’interactions sans résistance, que reste-t-il de notre capacité à composer avec l’altérité ? À accepter l’imprévisible, l’inconfort et la négociation ?
Finalement, il est tentant de voir dans ces relations une dérive marginale ou un symptôme anecdotique de solitude contemporaine. Pourtant, ce serait sans doute une erreur de perspective. Les relations avec l’IA ne sont ni entièrement illusoires, ni totalement équivalentes aux relations humaines. Elles occupent un espace de projection, de consolation et d’expérimentation. Elles témoignent d’un besoin de lien, d’une certaine peur de l’abandon et d’un désir d’être écouté, compris et validé sans condition.
Les chatbots ne créent pas ex nihilo de nouvelles formes de lien. Ils radicalisent des tendances existantes. Ils poussent à l’extrême la logique d’un rapport au monde où l’expérience se doit d’être fluide, personnalisée et sans friction. Reste à savoir si l’amour peut survivre à cette exigence de confort. Car si l’IA peut simuler l’amour, elle ne peut pas en partager le risque. Pourtant c’est peut-être dans le risque, l’incertitude et la possibilité de perte, que se loge encore ce que nous appelons, obstinément, l’humain.
Sources
- Reeves, B. & Nass, C. (1996), The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places, CSLI Publications.
- Ebner, N. & Szczuka, J. (2025), Predicting Human-Chatbot Relationships.
- Fang et al. (2025), How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use.
- Ordre des psychologues du Québec (2025), Relations intimes et intelligence artificielle : des usages émergents aux enjeux cliniques.
- MIT Media Lab & OpenAI (2025), études sur l’impact émotionnel des interactions avec l’IA.
- Replika, documentation et analyses d’usage.
- Article Le Monde, « La digi-romance : tomber amoureux d’une IA », 2025.
- Cairn.info, Le devenir de la relation thérapeutique face à l’IA, 2026.
- Ligue des droits de l’enfant, La robotisation des liens sociaux chez les jeunes (2026)
- Université Sorbonne Paris Nord, étude sur IA et adolescents

