En vis-à-vis des travaux de psychologie pour avoir une connaissance théorique des émotions, nous avons étudié aussi les travaux informatiques pour avoir une vue plus fonctionnelle et pour obtenir un modèle fonctionnel qui nous semble intéressant. En fait nous avons regardé les modèles récents, depuis 1999.
2.2.1 FLAME – Fuzzy Logic Adaptive Model of Emotion
Le modèle FLAME [5] d’El-Nasr et al proposé en 1999 est un modèle informatique des émotions basées sur l'évaluation d'événement. Il incorpore quelques composants d’apprentissage pour augmenter l'adaptation pour la modélisation des émotions. Il emploie également un composant de filtrage d'émotion, qui tient compte des états de motivation, pour résoudre des émotions contradictoires. FLAME emploie des règles de la logique floue pour faire un mapping de l'impact des événements sur des buts à des intensités émotionnelles. L'agent de FLAME emploie une valeur prédéfinie de récompense pour l'impact de l'action de l'utilisateur sur le but d'un agent.
En fait, le modèle FLAME contient trois composants : composant émotionnel, composant d’apprentissage et composant de prise de décision.
Figure 1 - Architecture de FLAME
L’agent d’abord perỗoit l’ộvộnement externe dans l’environnement. Ces perceptions sont ensuite fournies au composant d’apprentissage et aussi au composant émotionnel.
Le composant émotionnel va traiter ces perceptions ; additionnellement, elle utilise aussi quelques sorties du composant d’apprentissage, y comprise des
associations événement-but et des désirs, à produire un comportement émotionnel.
Ce comportement est ensuite retourné au composant de prise de décision pour choisir une action. La décision est prise selon la situation, l’humeur de l’agent, l’état émotionnel et le comportement émotionnel ; action choisie sera lancée auprès de cette décision.
Figure 2 - Composant émotionnelle du modèle FLAME
Le composant émotionnel est présenté dans la figure ci-dessus. Dans cette figure, les boợtes reprộsentent des processus diffộrents dans ce composant. L’information est passée d’un processus à l’autre comme présenté dans la figure. Les perceptions sur l’environnement sont d’abord évaluées. Le processus d’évaluation consiste de deux étapes séquentielles. Premièrement, le modèle d’expériences détermine quels buts seront affectés par l’événement et le degré d’impact que cet événement a sur ces buts. Deuxièmement, les règles de mapping calculent un niveau de désirabilité
La mesure de désirabilité, une fois calculée, est passée au processus d’évaluation pour déterminer le changement de l’état émotionnel de l’agent. Une émotion (ou un mélange d’émotions) sera déclenchée utilisant la mesure de désirabilité. Ce mélange est ensuite filtré pour produire un état émotionnel cohérent. Puis, l’état émotionnel est passé au processus de sélection de comportement. Les critères de sélection sont la situation actuelle, l’humeur de l’agent et l’état émotionnel. L’état émotionnel est en fait abaissé éventuellement et ré-alimenté au système pour les prochaines itérations.
2.2.2 ParleE – Adaptive Plan Based Event Appraisal Model of Emotions
Proposé en 2002 par Bui et al., ParleE [6] est un modèle quantitatif, flexible et adaptatif des émotions pour un agent conversationnel dans un environnement multi-agent ayant la capacité de communication multimodale. ParleE évalue des événements basés sur l’apprentissage et sur un algorithme probabiliste de planification. ParleE modélise également la personnalité et les états de motivation et leur rôle pour déterminer la manière dont un agent éprouve l'émotion.
Figure 3 - Architecture de ParleE
A l’entrée d’un événement, un Emotion Impulse Vector (EAV) est généré en évaluant cet événement utilisant les règles proposées par le modèle d’Ortony et al.
basé sur le but, le plan et les standards de l’agent. Un EIV contient les valeurs de l’impact de l’événement sur les émotions. L’EIV est puis utilisé pour mettre à jour l’Emotion State Vector (ESV), qui contient des valeurs représentant l’intensité des émotions.
Le Emotion Appraisal Component prend l’événement, la personnalité, le plan, et les modèles des autres agents comme entrée pour produire l’ESV en sortie. Le Planner produit un plan pour acquérir le but de l’agent. Il calcule aussi la probabilité d’acquérir ce but. Cette probabilité est utilisée par l’Emotion Appraisal Component pour calculer l’EIV. L’Emotion Component prend l’EIV et les états motivationnels comme entrée et produit en sortie le vecteur d’émotions actualisées.
Cette composant coopère aussi avec l’Emotion Decay pour produire les émotions abaissées. L’Emotion Decay calcule comment une émotion est abaissée. Ce composant prend en compte aussi l’influence de la personnalité sur le changement de l’émotion. D’ailleurs, le Model of other agents est utilisé pour générer les émotions Desire-other (le désir vers la fortune des autres agents).
La personnalité utilisée dans ce modèle est le modèle de personnalité de Rousseau [7] classifié selon les différents processus qu'un agent peut effectuer : perception, raisonnement, apprentissage, décision, action, interaction, indication, et sensation - tout en relevant de l’émotion. Cependant, le modèle manque des spécifications de l'influence exacte des émotions sur le processus de planification. D'ailleurs, le composant les modèles des autres agents semble rendre le modèle pas aussi flexible que les auteurs ont supposé.
2.2.3 Kismet - robot avec les émotions artificielles
Ce modèle tend à établir une interaction entre un robot, Kismet [8], et un humain inspirant la relation entre les parents et leur enfant dans les premières communications. Cynthia Breazeal qui a proposé ce modèle d’émotions en 2002 a situé son approche dans l'architecture basée-agent : les différents composants du système fonctionnent en parallèle et s'influencent mutuellement.
Figure 4 - Architecture du modèle d'émotions de Kismet
Ce modèle a été expérimenté avec 5 émotions de base (colère, dégỏt, peur, tristesse, joie) et trois celles additionnelles (surprise, intérêt, et excitation). Puisque ce modèle a inspiré la relation entre les parents et les enfants, la personnalité n'a pas été modélisée.
2.2.4 Greta – La dynamique de l’état affective dans un agent conversationnel animé
En visant à établir une interface de humain-ordinateur, basée sur un agent conversationnel animé, C. Pelachaud et I. Poggi ont proposé en 2003 le modèle Greta [9]. Leur modèle d’agent inclut deux composants étroitement en corrélation :
une représentation de l’esprit d'agents avec un mécanisme dynamique pour la mise à jour : ceci inclut des composants à long et à court terme (personnalité et émotions), la manière qu'ils sont déclenchés et ils se délabrent avec le temps, la manière dont l'agent décide de se cacher ou de les manifester, la manière de sélectionner les ‘médias’ du corps pour les manifester (regard fixe, voix, visage). Les réseaux dynamiques de croyance avec des buts pondérés sont le formalisme utilisé à ce but ;
une traduction de l'état cognitif de l'agent dans une expression de visage qui utilise les divers canaux disponibles (direction de regard fixe, forme de sourcil, direction principale et mouvement de la tête, etc.). Ceci exige de résoudre les situations contradictoires qui surgissent pour calculer l'expression finale : les divers signaux recouvrent les uns avec les autres, un masque d’un signal sur l’autre, ou un signal sera intensifié ou désintensifié, et ainsi de suite.
Figure 5 - Réseaux dynamiques de croyance du modèle Greta
Quoique d’avoir mis en application de la personnalité dans leur modèle, cette notion a semblé ne pas être décrite clairement. En outre, la relation concrète entre la personnalité et l'émotion ou les influences de l'émotion sur l'esprit de Greta ne sont pas vraiment identifiées.
2.2.5 EMA – EMotion and Adaptation
Dans leur recherche, J. Gratch et S. Marcella avaient développé un modèle
réponses cognitives et comportementales, en particulier des réponses de coping.
L'état mental courant d'EMA est représenté avec une structure mentale complexe, appelộe Interprộtation Causale (Causal Interpretation en anglais), conỗue pour unifier en une architecture/structure simples tous les besoins d'un agent émotionnel. Cette interprétation causale est établie de trois parts causalement liées : l'histoire causale (le passé), le monde courant (le présent) et le réseau des tâches (le futur). Cette interprétation causale tient compte de beaucoup de facteurs affectant des émotions comme le plan, la croyance, les désirs, les intentions, les probabilités et les utilités des événements.
Figure 6 - Architecture de EMA
En modélisant EMA, les auteurs ont basé sur la théorie d'Ortony et al. au sujet de l'évaluation d'événement, de la théorie de Lazarus au sujet d'évaluation et de coping. Le modèle a été implémenté et employé pour écrire l'application ó les gens peuvent agir l'un sur l'autre avec les humains virtuels par le langage naturel dans les arrangements sociaux à haute pression. Cependant, les auteurs n'ont pas modélisé de la personnalité dans le modèle d'EMA.
2.2.6 GALAAD – GRAAL Affective and Logical Agent for Argumentation and Dialog
Proposé en 2005 par Carole Adam et al., GALAAD [11] est aussi un agent conversationnel émotionnel dont l'architecture est basée sur les agents BDI, sur les jeux de dialogue et sur les actes de langage. Basé sur la théorie d'OCC sur l'évaluation, l'agent GALAAD peut produire une émotion. Cette émotion influence alors les règles du jeu de dialogue et lance un processus de coping, qui est défini par Lazarus. La stratégie de coping a pour but de maintenir les équilibres de l'agent en diminuant l'intensité des émotions négatives ou sensibles qui pourraient causer de mauvais effets sur son comportement.
Figure 7 - Architecture de GALAAD
Quoi qu'il en soit, ce modèle n’est qu’un essai d'intégrer une vraie évaluation et coping à l'architecture de l'agent conversationnel dans des jeux de dialogue, il n'a pas tenu compte de la personnalité et des états de motivation dans le raisonnement d'émotion.
Un autre modèle de Carole Adam est le modèle PLEIAD [12] qui semble être une autre version de GALAAD. Dans ce modèle, l'auteur a concentré à la manière de mettre à jour la base de connaissance de l'agent en introduisant le module logique de
faciale et corporelle n'est pas manipulée du tout. Comme GALAAD, PLEIAD n'intègre pas de la personnalité à leur agent de BDI.