25 mars 2026
découvrez comment l'intelligence artificielle émotionnelle ouvre la voie à des assistants virtuels capables de comprendre et d'exprimer l'empathie pour améliorer les interactions humaines.

Intelligence artificielle émotionnelle : vers des assistants capables d’empathie ?

En bref

  • Les assistants basés sur l’intelligence artificielle émotionnelle promettent une interaction humaine plus riche en lisant les émotions, en adaptant le discours et en anticipant les besoins des utilisateurs.
  • La reconnaissance des émotions et l’apprentissage automatique alimentent des interfaces émotionnelles capables d’ajuster le ton, le rythme et le contenu des échanges, notamment dans le domaine de la santé mentale et du service client.
  • La promesse est double: améliorer la prévention, le diagnostic et l’accompagnement, tout en posant des questions cruciaux sur la vie privée, le consentement et le risque de manipulation.
  • Pour que ces technologies restent des alliées, une supervision humaine, des cadres éthiques clairs et une diversité des données d’entraînement sont indispensables afin d’éviter les biais et les dérives.
  • À l’horizon 2026, les interfaces émotionnelles pourraient transformer la manière dont nous interagissons avec les machines, mais elles devront être conçues et déployées avec une attention soutenue à l’éthique et à l’humain.

Les avancées récentes dans le champ de l’intelligence artificielle émotionnelle placent les émotions au cœur des échanges entre humains et machines. En 2026, les systèmes capables de reconnaître et de réagir à l’état émotionnel des utilisateurs gagnent en sophistication grâce à l’intégration de reconnaissance faciale, d’analyse vocale et de traitement du langage naturel. L’objectif est clair: offrir des interactions plus naturelles et pertinentes, tout en soutenant des domaines sensibles comme la santé mentale et le service client. Cependant, cette démocratisation de l’affect artificiel n’est pas neutre: elle bouleverse les notions de vie privée, de consentement et d’autonomie émotionnelle. L’enjeu est donc doublement technique et éthique. D’un côté, la technologie cognitive permet d’améliorer l’empathie des assistants et d’aider les professionnels à repérer plus rapidement des signaux de détresse; de l’autre, elle invite à une réflexion profonde sur ce que signifie être entendu par une machine et sur la façon dont ces outils influencent nos comportements au quotidien. Dans ce contexte, il devient crucial de penser l’IA émotionnelle non pas comme une simple amélioration technologique, mais comme une redéfinition de notre relation à l’affect et à la technologie.

Comprendre les fondements de l’IA émotionnelle et des assistants empathiques

Qu’est-ce que l’IA émotionnelle et pourquoi parler d’empathie artificielle ?

L’intelligence artificielle émotionnelle désigne l’ensemble des technologies capables de détecter, d’analyser et de réagir à des signaux affectifs humains. Cette capacité repose sur l’observation de la voix, des expressions faciales, du langage corporel et du choix des mots. L’objectif est d’offrir des interactions plus intelligentes et personnalisées, en ajustant les réponses de façon adaptée au vécu émotionnel perçu. L’idée d’empathie artificielle ne signifie pas que la machine « ressent » comme un humain; elle simule une compréhension basée sur des modèles statistiques et cognitifs avancés. Dans le cadre des assistants, cette simulation peut suffire à rendre les échanges plus fluides, à réduire les frictions et à augmenter l’adhésion à un dispositif ou à un service. La question philosophique et pratique demeure: jusqu’où peut-on confier nos états intérieurs à une machine sans perdre le sens du discernement et du soutien humain réel ?

Dans le contexte professionnel, l’IA émotionnelle se voit comme un outil de soutien et de médiation. Elle peut aider à repérer des signes de fatigue, de stress ou de démotivation et à proposer des contenus ou des interventions adaptés. Mais elle ne peut remplacer le jugement clinique ou le regard d’un professionnel quand il s’agit de situations complexes ou sensibles. Cette nuance est centrale: les assistants empathiques doivent agir comme des facilitateurs, et non comme des remparts ou des substituts à l’accompagnement humain. Le défi consiste alors à structurer des systèmes qui reconnaissent les limites inhérentes à l’interprétation automatique des émotions et qui intègrent une supervision humaine, surtout dans les domaines critiques comme la santé mentale, le travail social ou le service après-vente.

Pour saisir ces enjeux, il est utile d’examiner les briques techniques qui font fonctionner l’IA émotionnelle. La reconnaissance des émotions se nourrit d’algorithmes d’analyse faciale et de micro-expressions, qui capturent des indices imperceptibles à l’œil nu. L’analyse vocale décode les variations de ton, d’intonation et de rythme. Le traitement du langage naturel contextualise les émotions au sein des conversations, en identifiant les nuances et les sous-entendus. Des capteurs physiologiques, lorsqu’ils sont disponibles (par exemple via des dispositifs portables), apportent une dimension supplémentaire, en mesurant des signaux comme le rythme cardiaque ou la conductance cutanée. Cette approche multimodale est au cœur des « interfaces émotionnelles » qui cherchent à rendre les échanges plus humains et réactifs. Ces mécanismes, bien orchestrés, s’inscrivent dans le cadre plus large des technologies cognitives qui visent à rendre les machines sensibles et réactives aux états internes des utilisateurs.

Les composants techniques clés

Plusieurs briques se combinent pour donner naissance à des systèmes d’IA émotionnelle performants. D’abord, la reconnaissance faciale et l’analyse des micro-expressions tentent d’identifier des états comme la joie, la tristesse, la colère ou l’inquiétude à partir de micro-mouvements du visage. Ensuite, l’analyse vocale se concentre sur le stress, la fatigue ou l’humeur à travers le timbre, le tempo et l’intonation. Le traitement du langage naturel permet de comprendre le contexte émotionnel des mots employés et d’adapter le discours en conséquence. Enfin, des capteurs physiologiques, lorsqu’ils sont présents, renseignent sur des signaux corporels complémentaires. L’agrégation de ces informations dans des modèles d’apprentissage automatique, souvent des réseaux neuronaux profonds, permet d’obtenir une estimation probabiliste de l’état émotionnel et d’anticiper les besoins de l’utilisateur. Il s’agit d’un dispositif complexe qui nécessite une gestion rigoureuse des données et une supervision humaine pour valider les interprétations et adapter les interventions.

En pratique, cette architecture multimodale permet à des assistants virtuels d’ajuster leur discours, leur rythme, et même leur contenu selon le contexte émotionnel. Par exemple, face à une personne exprimant de l’anxiété, l’assistant pourrait adopter un ton plus calme, proposer des pauses et offrir des ressources adaptées. Dans un cadre éducatif ou de service client, cela peut se traduire par des explications plus simples, une cadence adaptée et des suggestions personnalisées. Toutefois, la fiabilité de ces systèmes dépend grandement de la qualité des données d’entraînement et de la capacité à gérer les biais culturels et individuels. L’enjeu éthique est également présent: comment garantir que l’analyse émotionnelle ne devienne pas un outil de manipulation ou de surveillance excessive ?

Exemples concrets de cas d’usage

Dans le domaine de la santé mentale, des chatbots et assistants numériques peuvent effectuer une surveillance continue et partager des alertes précoces avec des professionnels de santé lorsque des signes alarmants se manifestent. Dans le service client, les entreprises utilisent des modules d’analyse des sentiments pour détecter les signes de frustration et ajuster rapidement la priorité des demandes. Dans l’éducation, des plateformes adaptatives alignent le contenu sur l’état émotionnel des apprenants, cherchant à maintenir la motivation et l’attention. Chaque cas illustre une même dynamique: l’usage d’un apprentissage automatique pour outiller l’interaction humaine, tout en nécessitant une frontière éthique claire et une supervision professionnelle pour prévenir les dérives. C’est ici que les notions d’interface émotionnelle et de technologie cognitive prennent tout leur sens: elles deviennent des moyens de rendre l’échange plus fluide, mais ne doivent pas dépersonnaliser ou déshumaniser la relation.

découvrez comment l'intelligence artificielle émotionnelle promet de créer des assistants virtuels capables de comprendre et d'exprimer l'empathie, révolutionnant ainsi les interactions homme-machine.

Fonctionnement et technologies clés : comment l’IA émotionnelle lit nos états mentaux

Reconnaissance faciale et micro-expressions

La reconnaissance faciale s’appuie sur des algorithmes d’analyse d’images pour déceler des éléments faciaux associés à certaines émotions. Les micro-expressions, ces brèves manifestations du visage qui trahissent des états émotionnels, fournissent des signaux précieux lorsque les expressions conscientes ont été masquées. L’interprétation de ces signaux repose sur des bases statistiques robustes et des modèles capables d’adapter les conclusions au contexte culturel et individuel. Cette approche, bien qu’efficace, doit être maniée avec précaution: elle peut être influencée par des biais et des variations liées à l’origine ethnique, à l’âge ou à des particularités individuelles. Pour garantir une utilisation responsable, les développeurs insistent sur la transparence des processus et la nécessité d’un contrôle humain lorsque les verdicts émotionnels guident des décisions sensibles. En pratique, cela signifie que les résultats de reconnaissance faciale servent de supports et non d’arbitres uniques des actions à entreprendre.

Analyse vocale et prosodie

Le timbre, l’intonation, le rythme et la mélodie de la voix transmettent des indices d’état émotionnel. L’analyse prosodique peut révéler des niveaux de stress, de fatigue ou d’empathie perçue, offrant ainsi une dimension dynamique au processus d’interaction. Cette approche est particulièrement utile dans les centres de contact ou les assistants personnels où une réponse adaptée peut différer considérablement selon le niveau de tension du locuteur. Cependant, les variations linguistiques et culturelles posent des défis importants: une même tonalité peut signifier des choses différentes selon le contexte. C’est pourquoi les systèmes avancés intègrent des mécanismes de mise à jour et de réévaluation en continu, afin d’éviter les interprétations hâtives et les erreurs d’étiquette émotionnelle.

NLP et contexte émotionnel

Le traitement du langage naturel permet de décoder le contenu verbal et d’en déduire l’état émotionnel sous-jacent. Au-delà des mots eux-mêmes, l’accent est mis sur le contexte, les nuances et les intentions implicites. Les modèles NLP modernes peuvent distinguer l’ironie, l’anxiété et la gratitude, en analysant les dépendances syntaxiques et les relations sémantiques entre les mots. Cette capacité est indispensable pour que les réponses des assistants restent pertinentes et humaines. Pour éviter les interprétations fallacieuses, les systèmes combinent les résultats NLP avec les signaux non verbaux et les données contextuelles disponibles, ce qui améliore la précision et la fiabilité des interactions.

Capteurs physiologiques et multimodalité

La multimodalité associe des données provenant de capteurs physiologiques (rythme cardiaque, conductance de la peau, respiration) avec les signaux faciaux et vocaux. Cette approche enrichit l’image émotionnelle et renforce la robustesse de l’estimation. Dans des environnements cliniques ou sensibles, les capteurs peuvent apporter une couche d’information indispensable pour comprendre l’état de l’utilisateur dans des conditions variées. Néanmoins, la collecte de données physiologiques soulève des questions cruciales liées à la confidentialité et au consentement éclairé. Les meilleures pratiques encouragent une réduction des données au strict nécessaire et une vérification continue des biais potentiels liés aux populations et aux conditions d’observation.

Les promesses de l’IA émotionnelle pour la santé mentale et l’usage quotidien reposent sur la capacité à offrir un soutien personnalisé et opportun. En pratique, cela peut signifier des interventions adaptées au moment présent, des rappels bien calibrés et des ressources pertinentes. Toutefois, les risques ne doivent pas être sous-estimés. La surinterprétation des signaux émotionnels ou l’utilisation commerciale des données sensibles pourraient porter atteinte à la confiance des utilisateurs. C’est pourquoi le cadre éthique et réglementaire joue un rôle déterminant, tout comme la possibilité pour les professionnels de santé de superviser les décisions prises par les systèmes automatisés.

Cas d’usage et ressources associées

Pour ceux qui souhaitent approfondir, les ressources suivantes offrent des perspectives complémentaires sur l’IA émotionnelle et les interfaces émotionnelles. Solutions Flexmind pour l’arp et les mots fléchés illustre les dynamiques de personnalisation et de prédiction dans des contextes ludiques et cognitifs. Les travaux sur l’audio spatial et son impact sur l’expérience utilisateur dans les jeux vidéo permettent de saisir comment les signaux sonores guident l’immersion et la réaction des joueurs. Audio spatial et expérience utilisateur dans les jeux vidéo. D’autres analyses discutent des indices émotionnels dans les interfaces et des implications éthiques pour le consommateur, comme en témoigne l’article Analyses d’indices émotionnels dans les IA et les approches d’amélioration continue. Enfin, pour ceux qui veulent comprendre les défis et les opportunités de l’audio et de l’IA, les ressources mentionnées offrent des points de vue variés et des études de cas pertinentes.

Applications, bénéfices et limites dans la vie réelle

Santé mentale et soutien psychologique

Dans le domaine de la santé mentale, l’IA émotionnelle peut être déployée pour assurer un soutien psychologique continu, faciliter le dépistage précoce de signes de dépression ou d’anxiété, et alerter des professionnels lorsque nécessaire. Les assistants peuvent adapter les messages, proposer des ressources personnalisées et proposer des stratégies de coping en temps réel. Cette approche ne remplace pas l’intervention humaine, mais elle peut améliorer l’accès au soutien et alléger la charge des systèmes de soins. L’enjeu majeur demeure la protection de la vie privée et la confiance: les utilisateurs doivent être informés de la manière dont leurs données émotionnelles sont collectées et utilisées, et les professionnels doivent disposer d’un cadre clair pour interpréter les signaux et décider des actions appropriées. Le potentiel est réel, mais la mise en œuvre doit s’accompagner de standards rigoureux et d’un consentement éclairé.

Expérience utilisateur et service client

Les assistants émotionnels peuvent transformer le service client en rendant les échanges plus fluides et personnalisés. En décelant des signes de frustration ou de confusion, l’IA peut adapter le niveau d’assistance, accélérer les solutions ou escalader vers un agent humain plus rapidement. Cette approche améliore la satisfaction et peut favoriser la fidélisation. Cependant, elle requiert une sensibilité au contexte culturel et linguistique et une gestion prudente des données personnelles. Des entreprises expérimentent déjà des modules d’analyse des sentiments pour prédire l’insatisfaction et intervenir en amont, modifiant ainsi le tempo et la nature des interactions. Sa mise en œuvre réussie dépend d’un équilibre entre autonomie du système et supervision humaine, afin d’éviter les mauvaises interprétations ou les interventions intrusives.

Éducation et apprentissage personnalisé

Dans l’éducation, les interfaces émotionnelles peuvent aider à adapter les contenus et les méthodes d’enseignement en fonction de l’état émotionnel des apprenants. Un élève fatigué ou stressé peut bénéficier d’un rythme différent, d’explications plus claires ou d’activités ludiques pour maintenir l’attention. Cette personnalisation s’appuie sur l’apprentissage automatique et l’analyse contextuelle, qui, si elles sont bien calibrées, améliorent l’engagement et les résultats. Comme pour les autres domaines, cela suppose des garde-fous éthiques et une supervision pédagogique, afin d’éviter une dépendance excessive à la machine et de préserver l’autonomie et la créativité des apprenants.

Domaine Exemple Avantages Risques
Santé mentale Surveillance et alertes précoces Détection rapide, accompagnement ciblé Vie privée, risques de sur-interprétation
Service client Détection de frustration et adaptation du discours Amélioration de la satisfaction, réduction des temps d’attente Biais culturels, manipulation
Éducation Personnalisation du parcours Engagement accru Fiabilité dépendante des données
Industrie Interfaces opérateur/outil Efficacité et sécurité accrue Surveillance accrue et consentement

Pour approfondir les enjeux éthiques et techniques, plusieurs ressources proposent une lecture complémentaire sur les limites et les opportunités de l’IA émotionnelle, notamment autour des interfaces émotionnelles et de leurs applications. Audio spatial et expérience utilisateur dans les jeux vidéo et d’autres analyses offrent des cas concrets et des réflexions sur les bonnes pratiques à adopter. De plus, les discussions autour de la protection des données et du consentement éclairé restent centrales pour garantir une adoption responsable et durable des technologies émotionnelles dans la vie quotidienne.

Risques, éthique et cadre règlementaire

Les grands défis éthiques

La lecture des émotions soulève des questions éthiques majeures. La transparence est essentielle: les utilisateurs doivent comprendre quelles données sont collectées, comment elles sont traitées et pour quelles finalités. La question du consentement est au cœur du débat: doit-on obtenir une autorisation explicite et réversible pour chaque échange ou peut-on accepter une utilisation implicite des données émotionnelles dans certains contextes ? Les risques de manipulation et d’optimisation comportementale à des fins commerciales ou politiques sont bien réels. Le RGPD et les cadres européens servent de référence, mais restent parfois insuffisants face à la rapidité des innovations. Le Forum économique mondial et diverses instances recommandent des cadres de gouvernance globaux pour équilibrer innovation et protection des droits fondamentaux. Le fil conducteur est clair: sans transparence, supervision humaine et diversité des données, les systèmes d’IA émotionnelle risquent de fragiliser la confiance et l’autonomie émotionnelle des individus.

Supervision, biais et sécurité

Les biais dans l’apprentissage automatique peuvent biaiser l’interprétation des émotions, avec des variations culturelles ou linguistiques difficiles à appréhender. Il convient d’entraîner les modèles sur des ensembles de données représentatifs et d’introduire des mécanismes de vérification humaine lorsque les décisions affectent le bien-être des personnes. La sécurité des données émotionnelles exige des protocoles de minimisation et de protection renforcée, afin d’éviter les fuites et les usages non autorisés. Enfin, la recherche souligne que l’émotion est contextuelle et complexe: une IA ne capturera pas toujours l’intégralité de l’état psychologique d’un individu, même avec des signaux multiples. Cette réalité justifie une approche hybride, mêlant algorithmes et expertise humaine pour les interventions sensibles.

Pour résumer, l’IA émotionnelle peut offrir des bénéfices considérables dans les domaines de la prévention, du diagnostic et de l’accompagnement, tout en présentant des enjeux importants autour de l’éthique et de la protection des droits. Le cadre de référence doit évoluer avec les technologies afin de préserver la dignité et l’autonomie des utilisateurs. Les entreprises et les institutions publiques ont la responsabilité de mettre en place des garanties claires et de favoriser un dialogue continu avec les citoyens et les professionnels concernés.

Perspectives futures et défis sociétaux

Vers une démocratisation des interfaces émotionnelles

Les interfaces émotionnelles, aujourd’hui en pleine maturation, pourraient devenir des composants standards des machines et services numériques. Leur but n’est pas de remplacer l’humain, mais d’améliorer la qualité des échanges et d’aider à la prise de décision. Dans ce cadre, les assistants émotionnels pourraient devenir des partenaires de référence dans les domaines où le relationnel est central: santé, éducation, services publics et commerce. Il devient alors crucial d’encadrer leur déploiement par des principes éthiques: respect de la vie privée, consentement éclairé, et supervision humaine régulière pour éviter les dérives. La dimension sociétale ne se résume pas à l’efficacité: il faut aussi préserver la diversité culturelle et linguistique, afin que les systèmes soient réellement inclusifs et pertinents pour tous les utilisateurs. En somme, l’avenir des IA émotionnelles dépendra de notre capacité à les intégrer de manière responsable dans une société qui valorise la dignité humaine et la transparence.

Défis techniques et évolutions attendues

Sur le plan technique, les défis restent importants: amélioration de la précision des interprétations émotionnelles, réduction des biais, adaptation culturelle des modèles et protection renforcée des données sensibles. L’intégration multimodale continue de progresser, avec des systèmes capables de fusionner des signaux visuels, vocaux et contextuels pour produire une estimation plus fiable de l’état émotionnel. L’émergence d’approches plus autonomes et explicables (explainable AI) peut aider à comprendre pourquoi un système a pris une décision donnée et à maintenir la confiance des utilisateurs. Par ailleurs, les interfaces émotionnelles pourraient s’étendre à des dispositifs portables et à des environnements intelligents, enrichissant les interactions quotidiennes par des retours dynamiques et adaptatifs. Le chemin reste long, mais les résultats potentiels en termes de prévention et d’accompagnement sont considérables.

Applications concrètes et exemples de cas

En pratique, les organisations qui adoptent l’IA émotionnelle doivent construire une stratégie équilibrée, mêlant innovation et éthique. Des entreprises explorent déjà des scénarios où l’IA peut anticiper les besoins d’un utilisateur et proposer des actions pertinentes sans empiéter sur sa liberté de choix. Les limites imposées par la loi et par les valeurs humaines devront rester des lignes directrices, et non des obstacles à la créativité technologique. Pour les consommateurs, l’enjeu est de trouver le bon niveau de transparence et de contrôle sur les données émotionnelles. En parallèle, les chercheurs s’efforcent d’établir des méthodologies rigoureuses pour évaluer l’impact psychologique et social des assistants empathiques, afin de garantir que leur utilisation renforce l’autonomie et le bien-être plutôt que de créer une dépendance ou une surveillance excessive.

Les outils d’IA émotionnelle ne doivent pas être vus comme des substituts à l’empathie humaine, mais comme des leviers pour enrichir les conversations et les expériences. Les technologies de reconnaissance des émotions et les interfaces émotionnelles offrent une opportunité unique d’améliorer l’accès à l’aide, la personnalisation des services et l’efficacité opérationnelle. Pour que cette promesse soit durable, il faut une coopération continue entre chercheurs, développeurs, professionnels de santé, éthiciens et usagers. En 2026, la direction prise par ces technologies dépendra de notre capacité collective à mettre l’humain au cœur de l’innovation.

découvrez comment l'intelligence artificielle émotionnelle révolutionne les assistants virtuels en leur permettant de comprendre et d'exprimer l'empathie pour mieux interagir avec les utilisateurs.

Pratiques recommandées pour une adoption responsable

Bonnes pratiques et cadre opérationnel

Pour déployer l’IA émotionnelle de manière responsable, plusieurs principes doivent guider les équipes: transparence sur la collecte et l’usage des données émotionnelles, encadrement réglementaire clair, et supervision humaine intégrée à toutes les phases du développement et du déploiement. Il faut également privilégier la diversité des données d’entraînement afin de limiter les biais, et investir dans des mécanismes de contrôle qui permettent d’évaluer les effets sur l’autonomie et le bien-être des utilisateurs. Enfin, les organisations doivent garantir le droit à l’oubli émotionnel et offrir des options simples de révision ou de suppression des données collectées. Ces pratiques ne freinent pas l’innovation: elles la structurent de manière à maximiser les bénéfices tout en protégeant les droits fondamentaux des utilisateurs.

Pour approfondir, voici quelques ressources et lectures utiles:

  • Explorer des approches de personnalisation et d’interaction IA dans les domaines créatifs et cognitifs. Solutions Flexmind pour l’arp et les mots fléchés
  • Comprendre l’impact de l’audio spatial sur l’expérience utilisateur dans les jeux et les interfaces IA. Audio spatial et expérience utilisateur dans les jeux vidéo
  • Réflexions éthiques et cadres de gouvernance pour l’IA émotionnelle.
  • Études sur la reconnaissance des émotions et les limites culturelles, pour mieux contextualiser les systèmes.
  • Approches d’évaluation et d’audit des systèmes d’IA émotionnelle, afin d’assurer la traçabilité et la sécurité.

Checklist rapide pour les équipes

  • Transparence sur les données et finalités
  • Supervision humaine en cas de décisions sensibles
  • Diversité des données pour limiter les biais
  • Protection des données et respect du consentement
  • Évaluation continue des impacts psychologiques et sociétaux

L’IA émotionnelle peut-elle vraiment comprendre mes émotions ?

Elle peut analyser des signaux linguistiques, vocaux et faciaux pour estimer l’état émotionnel, mais elle ne « ressent » pas et dépend fortement du contexte et de la supervision humaine pour valider les interprétations.

Les assistants émotionnels sont-ils sûrs pour la vie privée ?

La sécurité des données émotionnelles est cruciale. Il faut des cadres clairs, le consentement explicite et des mécanismes de minimisation des données, avec des audits réguliers.

Comment éviter les dérives éthiques lors de l’utilisation des IA émotionnelles ?

Imposer la transparence, garantir l’autonomie des utilisateurs, assurer une supervision professionnelle lorsque nécessaire, et adopter des normes internationales de gouvernance pour prévenir manipulation et surveillance excessive.

Quels domaines bénéficient le plus de l’IA émotionnelle ?

La santé mentale, le service client et l’éducation sont parmi les domaines où les bénéfices peuvent être significatifs lorsque l’éthique et la supervision humaine sont bien assurées.

Qu’est-ce qui distingue une interface émotionnelle d’un simple assistant ?

L’interface émotionnelle adapte en temps réel le ton, le rythme et les contenus des échanges en fonction d’un estimé de l’état émotionnel, créant une interaction plus naturelle et personnalisée.