Participation du LPVS au congrès annuel de Vision Science Society

Le LPVS a présenté plusieurs projets de recherche au cours du congrès annuel de Vision Science Society, qui s’est déroulé à St. Pete Beach, en Floride, lors de la semaine du 17 au 22 mai 2019. Ce congrès de renommée internationale rassemble des chercheurs travaillant dans le domaine de la vision afin de faire progresser les connaissances scientifiques actuelles. Plusieurs disciplines liées à ce champ d’étude s’entrecoupent donc entre elles et le congrès vise à présenter les diverses avancées présentes au sein de chacune d’entre elles. Ces disciplines incluent la psychologie visuelle et perceptive, les neurosciences, la vision computationnelle et la psychologie cognitive. Les nombreuses séances de présentation d’affiches sont divisées en thèmes selon les sujets qui y sont présentés. Voici un aperçu des affiches présentées par notre laboratoire lors du congrès:

Séance d’affiche – Visages: Les procédés de traitement des traits faciaux

 

Right hemisphere horizontal tuning during face processing

Justin Duncan1,2, Guillaume Lalonde-Beaudoin1, Caroline Blais1 , Daniel Fiset1;

1 Université du Québec en Outaouais, 2 Université du Québec à Montréal

 

VOIR AFFICHE

 

Left visual field (LVF) superiority refers to greater face processing accuracy and speed, compared to faces presented in the right VF (e.g., Sergent & Bindra, 1981). It is generally attributed to right hemisphere dominance (e.g., Kanwisher et al., 1997), but few mechanisms have been proposed for this phenomenon (e.g., global/local or low/high spatial frequency processing differences). Recent forays in the face processing literature have however revealed a critical role for horizontal spatial orientations (e.g., Goffaux & Dakin, 2010; Pachai et al., 2013). In line with these results, we verified whether orientation tuning might differ across hemispheres. Thirty participants completed two tasks measuring tuning profiles with orientation bubbles (Duncan et al., 2017). The first task was a 10 AFC identification, to generate a reference profile. The second task introduced lateralized presentations. In this task, a filtered probe face half (one of ten familiar individuals) was presented to either the LVF or RVF, while the other side viewed an average face half (randomized across trials). A target was then presented bilaterally, and participants indicated whether the probe and target were the same person. Central fixation was enforced with eye tracking (M = 97.7%, SD = 3.1% compliant trials) during the probe presentation (60 ms). Classification images were generated to extract diagnostic orientations. The statistical threshold (Zcrit = 2.101, p < 0.05) was established with the Stat4CI toolbox (Chauvin et al., 2005). As expected, horizontals predicted the best accuracy in the reference task (Z = 3.38). This relationship was also observed for the LVF (Z = 3.45), but not for the RVF (Z = –1.92). These results provide novel evidence for right hemisphere horizontal tuning for faces.

 

Identity specific orientation tuning for faces revealed by morphing Angelina into Jessica

Gabrielle Dugas1, Justin Duncan1,2, Caroline Blais1 , Daniel Fiset1;

1 Université du Québec en Outaouais, 2 Université du Québec à Montréal

 

VOIR AFFICHE

 

Many recent studies have revealed that face recognition heavily relies on the processing of horizontal spatial orientations. However, most of those studies used tasks where it is difficult to dissociate the impact of physical face information from that of identity-specific information. To investigate this issue, we used a method designed to precisely control the physical difference between stimuli, and verified the horizontal tuning for faces of identical distances with regard to low-level properties but of different perceptual distance with regard to identity. Ten participants each completed 2,880 trials in a 2-ABX match-to-sample task. On each trial, the participants saw a target and two response alternatives, both sampled with the same orientation bubbles (Duncan et al., 2017). One response choice was visually identical to the sample (i.e. the correct response) whereas the other was either on the same side (within-identity [WI]) or on the other side (between-identity [BI]) of the categorical barrier. Thus, the physical distance between the target and the different (WI or BI) alternative was always the same, but the perceptual distance was not. As expected, WI trials were more difficult than BI trials for all participants, as indicated by the higher number of bubbles needed for the former (WI: M=101.66, SD=83.50) than the latter (BI: M=15.85, SD=14.94). Orientation tuning in the BI and WI conditions was revealed by computing a weighted sum of the orientation filters across trials, using participant accuracies as weights. In the BI condition, horizontal orientations between 62 and 101degres were significantly associated with accuracy (Zcrit=2.101; Zmax=4.25, p<0.05, peak at 84 degres); whereas no orientation reached the threshold in the WI condition (Zmax=1.41, p>0.05). Comparing horizontal tuning between the two conditions using a paired sample t test reveals an identity-specific horizontal tuning for faces, t(6) = 2.8, p < 0.05.

 

Séance d’affiche – Visages: Expressions faciales et discours

 

Discrimination of facial expressions and pain through different viewing distances

Isabelle Charbonneau1, Joël Guérette1 2, Caroline Blais1, Stéphanie Cormier1, Fraser Smith, Daniel Fiset1;

1 Université du Québec en Outaouais, 2 Université du Québec à Montréal

 

VOIR AFFICHE

 

Due to its important communicative function, a growing body of research has focused on the effective recognition of the facial expression of pain. Here, we investigated how pain along with the basic emotions are recognized at different viewing distances. Sixteen participants took part in an 8-expression categorization task (2400 trials per participant). We used the Laplacian Pyramid toolbox (Burt & Adelson, 1983) to create six reduced-size images simulating increasing viewing distances (i.e. 3.26, 1.63, 0.815, 0.41, 0.20, 0.10 degree of visual angle). Unbiased hit rates (Wagner, 1993) were calculated to quantify the participants’ performance at each viewing distance. A 6 x 8 (Distance x Emotion) repeated measures ANOVA revealed a significant interaction F(8.54, 128.22) = 15.97, p < .001 (η2=0.516). Separate repeated measure ANOVAs looking at the effect of Emotion for each Distance were conducted and follow-up paired sample t-tests (corrected p = 0.05/28) revealed significant differences between expressions. At the most proximal distance, we found a significant effect of Emotion F(7,105)=21.41, p<.001 (η2=0.588) where happiness and angry were the two best-recognized emotions (all p’s<.005) followed by disgust, pain, fear, surprise and sadness. Interestingly, we found surprise and happiness to be the best-recognized expressions at further distances (all p’s<.05) which is consistent with previous findings (Smith & Schyns, 2009). Most importantly, recognition of pain decreased with increasing viewing distances and was not well recognized at the furthest distance. Taking into account that changes in viewing distance modulate the spatial frequency content available to an observer by progressively peeling off high SFs as the stimulus moves further away, these results are consistent with recent findings suggesting that pain categorization and discrimination rely mostly on mid-SFs (Guérette et al., VSS 2017).

 

 


Spatial frequencies 
underlying the detection of basic emotions and pain

Joël Guérette1 2 , Isabelle Charbonneau1, Stéphanie Cormier1, Caroline Blais1, Daniel Fiset1;

1 Université du Québec en Outaouais, 2 Université du Québec à Montréal

 

VOIR AFFICHE

 

Many studies have examined the role of spatial frequencies (SFs) in facial expression perception. However, although their detection and recognition have been proposed to rely on different perceptual mechanisms (Sweeny et al., 2013; Smith & Rossit, 2018), the SFs underlying these two tasks have never been compared. Thus, the present study aimed to compare the SFs underlying the detection and recognition of facial expressions of basic emotions and pain. Here, we asked 10 participants (1400 trials per participant) to decide if a stimulus randomly sampled with SF Bubbles (Willenbockel et al., 2010) corresponded to an emotion or a neutral face. Classification vectors for each emotion were computed using a weighted sum of SFs sampled on each trial, with accuracies transformed in z-scores as weights. We then compared the SFs used in this task to those obtained in a previous study using the same stimuli and method but during a recognition task (Charbonneau et al., 2018). Overall, accurate detection of emotions was significantly associated with the use of low-SFs (ranging from 3.33 to 6 cycles per face (cpf); Zcrit=3.45, p< 0.05). Happiness was the only emotion relying on similar low-SFs for both tasks. Other emotions were associated with the use of higher SFs in the recognition task. Interestingly, the detection of fear (ranging from 1.67 to 7 cpf, peaking at 4 cpf) and surprise (ranging from 1.33 and 6.33 cpf, peaking at 3.33 cpf) was associated with the lowest SF information. These results are consistent with the idea that low-SF represent potent information for the detection of emotions, especially those with a survival value such as fear. However, the contribution of higher SFs is needed to discriminate between emotions for their accurate recognition.

 

Séance d’affiche – Visages: Attention et différences individuelles

 


Link between initial fixation location and spatial fre- quency utilization in face recognition

Amanda Estéphan1,2, Carine Charbonneau1 , Virginie Leblanc1, Daniel Fiset1, Caroline Blais1;
1 Université du Québec en Outaouais, 2 Université du Québec à Montréal

 

VOIR AFFICHE

 

Recent face perception studies have explored cultural and individual differences with regard to visual processing strategies. Two main strategies, associated with distinct eye movement patterns, have been highlighted: global (or holistic) face processing involves fixations near the center of the face to facilitate simultaneous peripheral processing of key facial features (i.e. eyes and mouth); local (or analytic) face processing involves fixations directed to those facial features (Chuk et al, 2014; Miellet et al, 2011). Interestingly, some studies have also found cultural and individual differences in the spatial frequencies (SFs) used for face identification, which seem to fit the eye movement data. For instance, East Asians use a more global fixation pattern (Blais et al, 2008), and lower SFs (Tardif et al, 2017), compared to Western Caucasians; myopes tend to use a more local fixation pattern, and higher SFs, compared to emmetropes (Estephan et al, 2018). However, whether a common underlying link between eye movements and SF use exists is still unknown. In order to investigate this question, the eye movements of 24 Canadian participants were monitored while they completed an Old/New face recognition task, and the SF Bubbles method (Willenbockel et al., 2010) was used to measure the same participants’ SF utilization during a face identification task. Fixation duration maps were computed for each participant using the iMap4 toolbox (Lao et al., 2017), and participants’ individual SF tuning peaks, obtained with SF Bubbles, were calculated. Group analyses based on participants’ initial fixation location were performed on SF tuning; correlations between initial fixation location and SF tuning peaks were also calculated. In sum, our data failed to reveal a clear link between eye movement patterns and SF utilization. However, these results are preliminary and more participants will be tested to increase statistical power. Nonetheless, our results highlight that the underlying relation between eye movements and SF use that could possibly drive the previously observed contingencies between these two measures is potentially of a more complex nature.

 

Séance d’affiche – Visages: Facteurs sociaux et culturels

Evaluating Trustworthiness: Differences in Visual Rep- resentations as a Function of Face Ethnicity

Francis Gingras1, Karolann Robinson1, Daniel Fiset1, Caroline Blais1;

1 Université du Québec en Outaouais

 

VOIR AFFICHE

 

Trustworthiness is rapidly and automatically assessed based on facial appearance, and it is one of the main dimensions of face evaluation (Oosterhof & Todorov, 2008). Few studies have investigated how we evaluate trustworthiness in faces of other ethnicities. The present study aimed at comparing how individuals imagine a trustworthy White or Black face. More specifically, the mental representations of a trustworthy White and Black face were measured in 30 participants using a Reverse Correlation task (Mangini & Biederman, 2004). On each trial (N=500 per participant), two stimuli, created by adding sinusoidal white noise to an identical base face (White or Black, depending on the experimental condition), were presented side-by-side. The participant’s task was to decide which of the two looked most trustworthy. The noise patches corresponding to the chosen stimuli were summed to produce a classification image, representing the luminance variations associated with a percept of trustworthiness. A statistical threshold was found using the Stat4CI’s cluster test (Chauvin et al., 2005), a method that corrects for the multiple comparisons across all pixels while taking into account the spatial dependence inherent to coherent images (tcrit=3.0, k=246, p<0.025). Results show that for a White face, perception of trustworthiness is associated with a lighter eye region; for a Black face, perception of trustworthiness is associated with a darker right eye and a lighter mouth. Statistically comparing both classification images (tcrit=3.0, k=246, p<0.025) revealed that the eye region was more important in judging trustworthiness of White faces, while the mouth region was more important for Black faces. The present study shows that facial traits used to form the mental representation of trustworthiness differ with face ethnicity. More research will be needed to verify if this finding generalizes across populations of different ethnicities.

 

Variation of empathy in viewers impacts facial features encoded in their mental representation of pain expression.

Marie-Pier Plouffe-Demers1 2 , Camille Saumure1, Daniel Fiset1 , Stéphanie Cormier1 ,  Miriam Kunz3 , Caroline Blais1;
1 Université du Québec en Outaouais, 2 Université du Québec à Montréal, 3 University of Groningen

 

VOIR AFFICHE

 

 

The impact of gender on visual strategies underlying the discrimination of facial expressions of pain

Camille Saumure1, Marie-Pier Plouffe-Demers1 2, Daniel Fiset1 , Stéphanie Cormier1 ,  Miriam Kunz3 , Caroline Blais1;
1 Université du Québec en Outaouais, 2 Université du Québec à Montréal, 3 University of Groningen

 

VOIR AFFICHE

 

Previous studies have found a female advantage in the recognition/detection (Hill and Craig, 2004; Prkachin et al., 2004) of pain expressions, although this effect is not systematic (Simon et al., 2008; Riva et al., 2011). However, the impact of gender on pain expression recognition visual strategies remains unexplored. In this experiment, 30 participants (15 males) were tested using the Bubbles method (Gosselin & Schyns, 2001), which randomly sampled facial features across five spatial frequency (SF) bands to infer what visual information was successfully used. On each of the 1,512 trial, two bubblized faces, sampled from 8 avatars (2 genders; 4 levels of pain intensity), were presented to participants who identified the one expressing the highest pain level. Three difficulty levels, determined by the percentage of pain difference between the two stimuli (i.e 100%, 66% or 33%) were included. Number of bubbles needed to maintain an average accuracy of 75% was used as a performance measure (Royer et al., 2015). Results indicated a trend towards a higher number of bubbles needed by male (M=57.7, SD=30.4) in comparison to female (M=40.2, SD=23.2), [t(28)=2.02, p=0.05]. Moreover, this difference was significant with the highest level of difficulty [t(28)=2.22, p=0.04], suggesting that pain discrimination was more difficult for male (M=77.6, SD=36.8) than female (M=52.3, SD=24.5). Classification images, generated by calculating a weighted sum of the bubbles position (where accuracies transformed in z-scores were used as weights), revealed that female made a significantly higher use of the lowest band of SF (Zcrit = 2.7, p<0.05; 5.4-2.7 cycles per face). These results suggest that gender impacts the performance and the visual strategies underlying pain expression recognition.

De grandes avancées pour le LPVS!

Nous sommes heureux d’annoncer que le Laboratoire de perception visuelle et sociale (LPVS) a reçu dernièrement un fond de recherche d’une valeur de 249 978$ en provenance de la Fondation canadienne pour l’innovation (FCI) et de ses partenaires, dont le Gouvernement du Québec. Ces fonds seront utilisés en vue de développer trois nouvelles plateformes au sein du laboratoire, soit une plateforme de psychophysique, une plateforme de mouvements oculaires et une plateforme d’électroencéphalographie. Plein de nouveaux projets pour le laboratoire sont à venir!

Le LPVS a également sû se démarquer lors du congrès annuel de la Société québécoise pour la recherche en psychologie (SQRP) qui s’est déroulé au Mont-Tremblant les 22, 23 et 24 mars derniers. En effet, nos directeurs et nos étudiants ont participé à deux symposiums lors du congrès et ont présenté, en tout, onze communications orales et deux affiches. De plus, trois étudiantes du laboratoire, soit Isabelle Charbonneau, Marie-Pier Plouffe-Demers et Gabrielle Dugas, ont fait partie du comité organisationnel du congrès et ont donc contribué grandement à la gestion et à l’organisation de cette fin de semaine.

Ashley Nixon Photography. De gauche à droite: Gabrielle Dugas, Isabelle Charbonneau, Amanda Estéphan, Camille Saumure, Caroline Blais, Daniel Fiset, Justine Goulet, Joël Guérette, Justin Duncan et Francis Gingras. (Manquant: Adrianne Pauzé)

Nous désirons également souligner l’obtention du Prix Guy-Bégin lors du congrès de la SQRP par Amanda Estéphan, étudiante du laboratoire au Ph.D. Elle a sû se démarquer lors de la publication de son article intitulé «Time Course of Cultural Differences in Spatial Frequency Use for Face Identification (2018)», qu’elle a d’ailleurs pu présenter lors du congrès. Son étude a démontré que la culture pouvait affecter la nature même de l’information préférée par le système visuel et que son impact sur le traitement des visages avait lieu très tôt au cours du processus.

«La perception relève de l’interprétation du monde qui nous entoure. Par conséquent, des phénomènes visuels que l’on croyait robustes et universels, comme certaines illusions d’optique, ne se généralisent pas nécessairement à tous les environnements culturels et géographiques. On observe notamment des différences importantes entre la façon dont des individus issus de cultures de l’Asie de l’Est et ceux issus de cultures occidentales distribuent leur attention. Par exemple, des différences sur le plan des mouvements oculaires en reconnaissance de visages suggèrent que les Asiatiques distribuent leur attention plus largement que les Occidentaux, et que ces différences attentionnelles ont même un impact sur les mécanismes fondamentaux du traitement visuel : pour identifier un visage, les Asiatiques utilisent davantage l’information plus grossière (codée en basses fréquences spatiales) contenue dans le stimulus, tandis que les Occidentaux utilisent davantage l’information plus fine (codée en hautes fréquences spatiales). La présente étude a, de surcroît, démontré qu’entre des Canadiens et des Chinois, ces différences surviennent à des stades précoces du traitement visuel, aussi tôt que 34 ms suivant l’apparition du visage. » Amanda Estéphan

Toutes nos félicitations à Amanda!

Ashley Nixon Photography. Amanda Estéphan.

Enfin, nous souhaitons féliciter Joël Guérette, étudiant au Ph.D, qui a remporté pour une deuxième année consécutive le prix de la meilleure communication orale étudiante dans l’axe social/organisationnel suite à sa présentation intitulée « La décision de compensation chez les arbitres sportifs : L’influence du niveau d’aptitudes d’un joueur de la Ligue de baseball majeur sur les décisions de l’officiel ». Au cours de sa présentation, il a présenté des données montrant qu’une expulsion pour avoir crié après l’arbitre avantage l’équipe du joueur exclu lorsque le comportement est effectué par l’un des meilleurs joueurs de celle-ci.

« Le but de notre étude était de démontrer l’influence du niveau de performance de joueurs de baseball professionnels sur les décisions des officiels. Notre hypothèse était que l’éjection des meilleurs joueurs d’une équipe pousserait un arbitre à prendre des décisions ultérieures en faveur de cette équipe, afin de compenser pour la perte d’un joueur ayant une grande utilité. Cette hypothèse s’appuyait sur la théorie de la décision de compensation (makeup call) qui stipule que les arbitres sportifs ont tendance à tenter d’équilibrer les conséquences de leurs décisions par souci d’équité pour les deux équipes. Cette étude fait suite à celle présentée au congrès de la SQRP de l’an dernier, dans laquelle nous avions montré que le fait de crier après l’arbitre pouvait influencer les décisions de ce dernier à l’avantage de l’équipe formulant la critique. Nos plus récentes données permettent de montrer que les comportements agressifs dirigés vers l’arbitre peuvent offrir un avantage pour son équipe, mais que cet avantage est modulé par l’ampleur des conséquences des décisions de l’officiel, supportant la théorie de la décision de compensation. » Joël Guérette

Félicitations Joël!

Ashley Nixon Photography. De gauche à droite: Isabelle Charbonneau, Joël Guérette et Denis Cousineau.

Une subvention attribuée au LPVS-UQO pour un projet pilote!

Le LPVS-UQO a obtenu une subvention de recherche dans le cadre du concours de subventions pilotes du Centre de recherche en neurosciences cognitives de l’Université du Québec à Montréal (NeuroQAM).

Dans le cadre de ce concours, Dr Fiset et Dre Blais en collaboration avec Dr Saint-Amour de l’UQAM ont mis sur pied un projet intitulé «l’Impact de l’amblyopie sur le traitement de visages : Une étude psychophysique et électrophysiologique». Ainsi ce projet vise à mieux comprendre les conséquences de l’amblyopie sur la perception des visages au niveau comportemental et neurophysiologique.

Nous sommes bien heureux de cette nouvelle et enthousiastes d’entamer ce projet passionnant !

Des diplômes et distinctions pour les étudiants du LPVS

Samedi dernier a été marqué par la cérémonie de la collation des grades organisée pas l’Université du Québec en Outaouais, lors de laquelle les étudiants du LPVS se sont démarqués.

Félicitation à nos doctorantes:

Jessica Royer

Essai doctoral intitulé : Différences individuelles dans les habiletés d’identification et l’utilisation de l’information visuelle des visages

L’identification d’un visage requiert l’extraction fine et précise des informations contenues dans le stimulus; or, tous les individus ne sont pas aussi habiles pour accomplir cette tâche. Nos travaux ont permis de démontrer que la stratégie d’extraction de l’information visuelle lors d’une tâche d’identification de visages, particulièrement l’utilisation de la région des yeux, est liée au niveau d’habileté individuel à reconnaître les visages.

Cette essai était dirigé par docteur Daniel Fiset et codirigée par docteure Caroline Blais.

Youna Dion-Marcoux


Essai doctoral intitulé : Impact du vieillissement sur les stratégies perceptives utilisées en reconnaissance d’expressions faciales d’émotion

Les données de la littérature scientifique suggèrent la présence d’une diminution des habiletés de reconnaissances des expressions faciales lors du vieillissement normal. Cette thèse visait en premier lieu à évaluer les performances en reconnaissance des expressions faciales chez les personnes âgées avec des stimuli appartenant aux deux groupes d’âge. Elle avait comme second objectif de vérifier l’impact de l’âge sur les stratégies perceptives utilisées lors du traitement des expressions faciales par nos deux groupes de participants.

Cet essai était dirigé par docteure Caroline Blais. et codirigé par docteurs Daniel Fiset et Hélène Forget.

Marie-Josée Roy


Essai doctoral intitulé : L’impact de l’anxiété sociale sur les stratégies perceptives sous-jacentes au traitement des expressions faciales d’émotion

La capacité à développer et à maintenir des liens sociaux et plus spécifiquement à comprendre les émotions semble déficitaire dans plusieurs pathologies psychiatriques. Dans l’anxiété sociale, des performances mitigées au niveau de la reconnaissance des expressions faciales d’émotion ont été observées, ce qui pourrait s’expliquer par une sur-activation de l’amygdale pour certaines expressions faciales. Puisque l’amygdale modulerait les stratégies perceptives utilisées en reconnaissance d’expressions faciales, il est possible que les stratégies perceptives utilisées par les anxieux sociaux diffèrent de celles des participants contrôles. Cet essai doctoral visait ainsi à mieux comprendre les stratégies perceptives sous-jacentes à la reconnaissance des expressions faciales d’émotion chez un échantillon d’adultes d’hommes et de femmes rapportant
vivre de l’anxiété sociale. Plus précisément, cet essai visait à vérifier si les participants anxieux sociaux différaient des participants contrôles sur leur utilisation des stratégies perceptives en reconnaissance des six expressions faciales de base : le dégoût, la colère, la peur, la joie, la surprise et la tristesse.

Cet essai était dirigé par docteur Daniel Fiset.

Félicitation à nos Bacheliers: Isabelle Charbonneau, Joël Guérette et Marie-Pier Plouffe-Demers.

Une mention toute spéciale à Isabelle pour l’obtention de la prestigieuse médaille d’argent de la Gouverneure générale du Canada qui lui a été décernée au nom de son Excellence, la très honorable Julie Payette, pour avoir  terminé son baccalauréat en psychologie avec une moyenne cumulative de 4,26/4,30.

Nous sommes très très fiers de vous et vous souhaitons encore bien des découvertes et réussites pour les années à venir.

Plein de bonnes nouvelles pour le LPVS

Plusieurs membres du LPVS se sont distingués aux concours de bourses des grands organismes subventionnaires cette année.

Deux étudiantes graduées se sont démarquées entre autres Camille Saumure qui a obtenu la prestigieuse bourse d’études supérieures du Canada Joseph-Armand-Bombardier du Conseil de Recherche en Sciences Humaines (CRSH)

Félicitation aussi à nos récipiendaires et nouveaux candidats au doctorat, Joël Guérette candidat au Phd profil recherche à l’UQAM ( Bourse de maîtrise en recherche (B1) du FRQSC), Marie-Pier Plouffe-Demers candidate au PhD profil recherche à l’UQAM (Bourse de maîtrise en recherche (B1) du FRQNT et BESC Maitrise du CRSH), Isabelle Charbonneau candidate au dPsy en neuropsychologie à l’UQO (Bourse de maîtrise en recherche (B1) du FRQNT et BESC Maitrise du  CRSNG) et Valérie Plouffe candidate au dPsy en neuropsychologie à l’UQO (BESC Maitrise du CRSNG)

Cet été encore  le laboratoire a aussi accueilli plusieurs autres boursiers du premier cycle , Marie-Pier Plouffe-DemersIsabelle CharbonneauMichael N’GuiambaGuillaume Lalonde-Beaudoin, Francis GingrasCassandra Voyer, Jasmine MichaudAlexandra Lévesque Lacasse et Virginie Leblanc dans le cadre du programme de Bourses de recherche de premier cycle octroyées pas le Conseil de Recherche en Sciences Naturelles et en Génie (CRSNG).

Finalement nous tenons à souligner l’excellence de  Joël GuéretteIsabelle Charbonneau, et Marie-Pier Plouffe-Demers, pour l’obtention de la Bourse d’excellence du premier cycle de la fondation UQO ainsi que  Gabrielle Dugas pour la Bourse d’excellence du deuxième cycle de la fondation UQO.

Tous vos efforts auront porté fruits. Nous sommes très fiers de vous!

C’est maintenant reparti pour une nouvelle année 🙂

Congrès de la Vision science society 2018

Voici un aperçu des projets qui ont été présentés par le LPVS au prestigieux congrès de Vision Science Society qui rassemble des chercheurs d’un large éventail de disciplines contribuant à l’avancement scientifique en vision dont la psychologie visuelle et perceptive, les neurosciences, la vision computationnelle ainsi que la psychologie cognitive. Le contenu scientifique des présentations reflète la diversité des sujets du domaine de la vision allant du codage visuel à la perception, en passant par le contrôle visuel de l’action et le développement de nouvelles méthodologies en psychologie cognitive, en vision par ordinateur ou en neuroimagerie.

Séance d’affiche – Visages et mécanismes neuronaux

N170 sensitivity to the horizontal information of facial expressions

Justin Duncan1,2, Frédéric Gosselin3 , Caroline Blais1 , Daniel Fiset1
1 Université du Québec en Outaouais, 2 Université du Québec à Montréal, 3 Université de Montréal

 

VOIR AFFICHE

 

The N170 event-related potential, which is preferentially tuned to faces (see for review Rossion, 2014), has been linked with processing of the eyes (Rousselet, Ince, van Rijsbergen & Schyns, 2014), of diagnostic facial features of emotions (Schyns, Petro & Smith, 2007), and of horizontal facial information (Jacques, Schiltz & Goffaux, 2014). Recent findings have shown that horizontal information is highly diagnostic of the basic facial expressions, and this link is best predicted by utilization of the eyes (Duncan et al., 2017). Given these findings, we were interested in how N170 amplitude relates with spatial orientations in a facial expressions categorization task. Five subjects each completed 7,000 trials (1,000 per expression) while EEG activity was measured at a 256 Hz sampling rate. Faces were randomly filtered with orientation bubbles (Duncan et al., 2017) and presented on screen for 150ms. Performance was maintained at 57.14%, using QUEST (Watson & Pelli, 1983) to modulate stimulus contrast. The signal was referenced to the mastoid electrodes and bandpass filtered (1-30 Hz). It was epoched between -300 and 700 ms relative to stimulus onset, and eye movements were removed using ICA. Single-trial spherical spline current source density (CSD) was computed using the CSD toolbox (Kayser & Tenke, 2006; Tenke & Kayser, 2012). Our main analysis consisted in conducting a multiple linear regression of singletrial orientation filters on PO8 voltages at each time point. The statistical threshold (Zcrit= 3.6, p< .05, two-tailed) was established with the Stat4CI toolbox (Chauvin et al., 2005). We found a negative correlation between horizontal information availability and voltage (Zmin= -5.43, p< .05) in the 50ms leading up to the N170’s peak. Consistent with the proposition that the N170 component reflects the integration of diagnostic information (Schyns, Petro & Smith, 2007), the association between horizontal information and amplitude was strongest 25 ms before the peak, and completely disappeared at peak.

Remerciement: Conseil de recherches en sciences naturelles et en génie du Canada (CRSNG)

 

Cortical activation of fearful faces requires central resources: multitasking processing deficits revealed by event-related potentials

Amélie Roberge1 , Justin Duncan2-3, Ulysse Fortier-Gauthier1 , Daniel Fiset2 , Benoit Brisson1
1 Département de psychologie, Université du Québec à Trois-Rivières, 2 Département de Psychoéducation et de Psychologie, Université du Québec en Outaouais, 3 Département de Psychologie, Université du Québec à Montréal

 

To investigate if emotional face processing requires central attention, a psychological refractory period paradigm was combined with the event-related potential (ERP) technique. Participants were asked to categorize tones as high (900 Hz or 2000 Hz) or low (200 Hz or 426 Hz) as quickly and accurately as possible and then to indicate if a face expressed fear or a neutral expression. Stimulus onset asynchrony (SOA) between the presentation of the tone and the face was manipulated (SOA: 300, 650 or 1000ms) to vary the amount of central attention available to perform the face expression task (less central attention available at short than long SOAs). The amplitude of frontally distributed ERP components associated to emotional face processing (computed as the difference between fear and neutral conditions: Eimer & Holmes, 2007) were measured at all SOAs. The first component (175-225 ms post-visual stimulus onset), which is thought to reflect rapid initial detection of the emotion, was not affected by SOA, F(2,50) = 2.24, p = .12. However, a significant effect of SOA was observed on a later sustained frontal positivity (300-400 ms post-visual stimulus onset), that is thought to reflect the conscious evaluation of emotional content, F(2,50) = 5.33, p = .01. For both components, no effect of SOA was observed in a subsequent control experiment in which both stimuli were presented but only a response to the expression of the face was required, F(2,32) = 2.80, p = .10 and F(2,32) = 1.26, p = .30. These results suggest that the rapid perceptual detection of the facial expression is independent of central attention. In contrast, the subsequent cognitive stage of conscious evaluation of emotional content does require central attention to proceed.

Remerciements: Conseil de recherches en sciences naturelles et en génie du Canada (CRSNG), Fonds québécois de la recherche sur la nature et les technologies (FRQNT)

 

Séance d’affiche – Visages et émotions

Spatial frequencies for accurate categorization and discrimination of facial expressions

Isabelle Charbonneau1, Stéphanie Cormier 1 , Joël Guérette1 , Marie-Pier Plouffe-Demers1 , Caroline Blais1 , Daniel Fiset1 Université du Québec en Outaouais

 

VOIR LE AFFICHE

 

studies have examined the role of spatial frequencies (SFs) in facial expression perception. However, most of these studies used arbitrary cut-off to isolate the impact of low and high SFs (De Cesarei & Codispoti, 2012) thus removing possible contribution of mid-SFs. This present study aims to reveal the diagnostic SFs for each basic emotion as well as neutral using SFs Bubbles (Willenbockel et al., 2010). Forty participants were tested (20 in a categorization task, 20 in a discrimination task; 4200 trials per participant). In the categorization task, subjects were asked to identify the perceived emotion among all the alternatives. In the discrimination task, subjects were asked, in a block-design setting (block order was counterbalanced across participants), to discriminate between a target emotion (e.g fear) and all other emotions. Mean accuracy was maintained halfway between chance (i.e. 12.5% and 50% correct for each task, respectively) and perfect accuracy. In both tasks, accuracy for happiness and surprise is associated with low-SFs (peaking at around 5 cycles per face (cpf); Zcrit=3.45, p< 0.05 for all analysis) whereas accuracy for sadness and neutrality is associated with mid-SFs (peaking between 11.5 and 15 cpf for both tasks). Interestingly, the facial expressions of fear and anger reveal significantly different patterns of use across task. Whereas their correct categorization is correlated with the presence of mid-to-high SFs (peaking at 14 and 20 cpf for angry and fear, respectively) their accurate discrimination is correlated with the utilization of lower SFs (peaking at 4 and 3.7 cpf). These results suggest that the visual system is able to use low-SF information to detect and discriminate social threatening cues. However, higher-SFs are probably necessary in a multiple-choices categorization task to allow fine-grained discrimination.

Remerciement: Conseil de recherches en sciences naturelles et en génie du Canada (CRSNG)

 

Spatial frequencies for the visual processing of the facial expression of pain

Joël Guérette1 , Stéphanie Cormier1 , Isabelle Charbonneau1 , Caroline Blais1 , Daniel Fiset1 ;
1 Département de psychoéducation et de psychologie, Université du Québec en Outaouais

 

VOIR AFFICHE

 

Recent studies suggest that low spatial frequencies (SFs) are particularly important for the visual processing of the facial expression of pain (Wang et al., 2015; 2017). However, these studies used arbitrary cut-off to isolate the impact of low (under 8 cycles per faces (cpf)) and high (over 32 cpf) SFs, thus removing any contribution of the mid-SFs. Here we compared the utilization of SFs for pain and other basic emotions in three tasks (20 participants per task), that is 1) a facial expression recognition task with all basic emotions and pain, 2) a facial expression discrimination task where one target expression needed to be discriminated from the others and 3) a facial expression discrimination task with only two choices (i.e. fear vs. pain, pain vs. happy). SF Bubbles were used (Willenbockel et al., 2010), a method which randomly samples SFs on a trial-by-trial basis, enabling us to pinpoint the SFs that are correlated with accuracy. In the first task, accurate categorization of pain was correlated with the presence of a large band of SFs ranging from 4.3 to 52 cpf peaking at 14 cpf (Zcrit=3.45, p< 0.05 for all analysis). In the second task, the correct discrimination of pain was correlated with the presence of a band of SFs ranging from 5 to 20 cpf peaking at 11 cpf. In the third task, we computed the classification vectors for pain-happiness and pain-fear conditions and revealed the overlapping SFs. In this task, SFs ranging from 2.7 to 13 cpf peaking at 7.3 cpf are significantly correlated with pain discrimination. Our results highlight the importance of the mid-SFs in the visual processing of the facial expression of pain and suggest that any method removing these SFs offers an incomplete account of SFs diagnosticity.

Remerciement: Conseil de recherches en sciences naturelles et en génie du Canada (CRSNG)

 

Séance d’affichage – Visages et différences individuelles

Task-specific extraction of horizontal information in faces

Gabrielle Dugas1 , Jessica Royer1 , Justin Duncan1, 2, Caroline Blais1 , Daniel Fiset1 ;
1 Université du Québec en Outaouais, 2 Université du Québec à Montréal

 

VOIR AFFICHE

 

Horizontal information is crucial for accurate face processing (Goffaux & Dakin, 2010). Individual differences in horizontal tuning were shown to correlate with aptitude levels in both face identification (Pachai, Sekuler & Bennett, 2013) and facial expression categorization (Duncan et al., 2017).These results thus indicate that the same visual information correlates with abilities in two different face processing tasks. Here, we intended to verify if the ability to extract horizontal information generalizes from one task to the other at the individual level. To do this, we asked 28 participants to complete both a 10-AFC face identification task and a race categorization (Caucasian vs. African-American) task (600 trials per task). To find out which parts of the orientation spectrum were associated with accuracy, images were randomly filtered with orientation bubbles (Duncan et al., 2017). We then performed, for each subject, what amounts to a multiple linear regression of orientation sampling vectors (independent variable) on response accuracy scores (dependent variable). A group classification vector (CV) was created by first summing individually z-scored CVs across subjects, and then dividing the outcome by √n, where n is the sample size. These analyses, performed separately for each task, show that horizontal information is highly diagnostic for both face identification (Zmax = 24.8) and race categorization (Zmax = 22.9), all ps < .05 and Group CVs of both task were highly correlated, r= .96, p< .001, showing high similarity in visual strategies at the group level. At the individual level, however, horizontal tuning measures (as per Duncan et al., 2017) in the identification and race categorization tasks did not correlate, r = -0.02, ns. Our results thus show that, although horizontal information is diagnostic for both tasks, individual differences in the extraction of this information appears to be task dependent.

Remerciement: Conseil de recherches en sciences naturelles et en génie du Canada (CRSNG)

 

Individual differences in face identification correlate with face detection ability

Virginie Burns1, Guillaume Lalonde-Beaudoin1 , Justin Duncan1,2, Stéphanie Bouchard1 , Caroline Blais1 , Daniel Fiset1
1 Département de Psychoéducation et de Psychologie, Université du Québec en Outaouais, 2 Département de Psychologie, Université du Québec à Montréal

 

VOIR AFFICHE

 

Our brain is tuned to detect, identify and integrate social information conveyed by faces. Despite the crucial role of face detection, little is known about the visual processes underlying this endeavor and how it is related to face identification. Recently, Xu and Biederman (2014) presented a case of acquired prosopagnosia with a face-specific detection impairment. Compared with controls, MJH needs significantly more visual signal for face detection, but not for car detection. Thus, we hypothesized that there may exist a correlation between face identification and detection proficiency in normal adults. Forty-five participants (24 women) performed the Cambridge Face Memory Test (CFMT; Duchaine, & Nakayama, 2006), the Cambridge Face Perception Test (CFPT; Duchaine, Germine, & Nakayama, 2007), and the Glasgow Face Memory Test (GFMT; Burton, White, & McNeil, 2010). They also completed two detection tasks : a face detection task and a car detection task. The power spectra were equalized across face and car stimuli. Individual face identification abilities were calculated by computing a weighted average of CFMT, GFMT, and CFPT scores (the latter of which was negatively scored). Face and car detection abilities were reflected by their respective detection thresholds, defined as phase spectrum coherence (as per Xu and Biederman, 2014). We observed a negative correlation between face identification ability scores and face detection thresholds (r = -.47 p< .01), which remained significant when computing the Spearman correlation (rs = -.42, p< .01). The correlation also remained significant when controlling for car detection ability (r = -.371, p< .05). Our results suggest that face detection and face identification share some perceptual or cognitive resources. More research will be needed to better understand what exactly is shared between these two tasks.

Remerciement: Conseil de recherches en sciences naturelles et en génie du Canada (CRSNG)

 

Séance d’affiche – Attention et différences individuelles

 

Evidence for a broader allocation of attention in emmetropes over myopes during three visual processing tasks

Amanda Estéphan1,2, Carine Charbonneau1 , Hana Furumoto-Deshaies1 , Marie-Pier PlouffeDemers1 , Daniel Fiset1 , Roberto Caldara3 , Caroline Blais1 ;
1 Département de Psychoéducation et Psychologie, Université du Québec en Outaouais, 2 Département de Psychologie, Université du Québec à Montréal, 3 Department of Psychology, University of Fribourg

 

VOIR AFFICHE

 

Last year (VSS, 2017), we explored the impact of myopia on visual attention as a possible explanation for the perceptual differences observed between Easterners and Westerners: namely, that Easterners have a larger global advantage than Westerners in a Navon Task (McKone et al., 2010); fixate less the eyes and mouth, and more the centre of the face during its processing (Blais et al., 2008); and tend to process faces in lower spatial frequencies (Tardif et al., 2017). Myopes and emmetropes were tested using Navon’s paradigm to measure their ability to detect global versus local target letters, and the Spatial Frequency (SF) Bubbles method (Willenbockel et al., 2010a) to measure their use of SFs during a face identification task: we initially found unexpected results suggesting that emmetropes were better than myopes at detecting global letters and that they used lower SFs than the latter group to correctly identity faces. Here, we delved deeper into this inquiry: a greater number of participants were tested with Navon’s paradigm (myopes = 18; emmetropes = 29) and with SF Bubbles (myopes = 15; emmetropes = 18). In addition, we measured participants eye-movements during another face recognition task (myopes = 11; emmetropes = 9). In support of our previous findings, our new results indicate that emmetropes have a higher global processing bias than myopes [t(45) = -3.269; p = 0.002], and make greater use of lower SFs, between 4.3 to 5.7 cycles per face [Stat4CI (Chauvin et al., 2005): Zcrit=-3.196, p< 0.025]. Finally, our eye-movement results suggest that emmetropes fixate the center of the face to a greater extent than myopes [analysis with iMap4 (Lao et al., in press)]. These findings offer a new avenue to explore how myopes and emmetropes process information contained in visual stimuli.

Remerciement: Conseil de recherches en sciences naturelles et en génie du Canada (CRSNG)

 

Séance d’affiche – Visages: Culture, familiarité et effet de l’autre ethnie

Cultural differences in spatial frequency utilisation do not generalize across various object classes

Caroline Blais1 , Amanda Estéphan1, 2, Michael N’Guiamba N’Zie1 , Marie-Pier Plouffe-Demers1 , Ye Zhang3,4, Dan Sun3,4, Daniel Fiset1 ;
1 Psychology department, University of Quebec in Outaouais, 2 Psychology department, University of Quebec in Montreal, 3 Institute of Psychological Sciences, Hangzhou Normal University, 4 Zhejiang Key Laboratory for Research in Assessment of Cognitive Impairments

 

VOIR AFFICHE

 

Several studies have shown cultural differences in the fixation patterns observed during tasks of different nature, e.g. face identification (Blais et al., 2008; Kelly et al., 2011), race categorization (Blais et al., 2008), and recognition of visually homogeneous objects (Kelly et al., 2010). These differences suggest that Easterners deploy their attention more broadly and rely more on extrafoveal processing than Westerners (Miellet et al., 2013). This finding is in line with a dominant theory in the field suggesting that cultural differences in cognition, attention and perception may be related to social systems (Nisbett & Miyamoto, 2005). Specifically, Easterners, because they have evolved in a more collectivistic system, would deploy their attention more broadly than Westerners, who have evolved in a more individualistic system. However, studies revealing cultural differences in fixation patterns during face processing have been challenged by the findings that two fixations suffice for face recognition (Hsiao & Cottrell, 2008), and that early fixations are not modulated by culture (Or, Peterson & Eckstein, 2015). Since deploying attention over a broader area has been shown to modulate the spatial resolution, directly assessing the spatial frequency (SF) utilisation underlying stimulus recognition would help clarify the impact of culture on perceptual processing. Here, we present a set of four experiments in which the SF used by Easterners and Westerners were measured while they identified faces, discriminated familiar from unfamiliar faces, and categorized object and scenes. The results reveal that Easterners are tuned towards lower SF than Westerners when they identify faces and discriminate familiar from unfamiliar ones (Tardif et al., 2017), but use the same SF to categorize objects and scenes. Together, these results challenge the view that the exposition to different social systems leads to the development of different perceptual strategies generalizable to various object classes.

Remerciement: Conseil de recherches en sciences naturelles et en génie du Canada (CRSNG)

 

The impact of culture on visual strategies underlying the judgment of facial expressions of pain.

Camille Saumure1, Marie-Pier Plouffe-Demers1 , Daniel Fiset1 , Stéphanie Cormier1 , Dan Sun3,4, Zhang Ye3,4, Miriam Kunz2 , Caroline Blais1 ;
1 Département de psychoéducation et de psychologie, Université du Québec en Outaouais, 2 Department of General Practice and Elderly Care Medicine, University of Groningen, 3 Institute of Psychological Sciences, Hangzhou Normal University, 4 Zhejiang Key Laboratory for Research in Assessment of Cognitive Impairments

 

VOIR AFFICHE

 

Research has revealed that observers’ ability to recognize basic facial emotions expressed by individuals of another ethnic group is poor (Elfenbein, & Ambady, 2002), and that culture modulates the visual strategies underlying the recognition of basic facial expressions (Jack et al., 2009; Jack, Caldara, Schyns, 2012; Jack et al., 2012). Although it has been suggested that pain expression has evolved in order to be easily detected (Williams, 2002), the impact of culture on the visual strategies underlying the recognition of pain facial expressions remains underexplored. In this experiment, Canadians (N=28) and Chinese (N=30) participants were tested with the Bubbles method (Gosselin & Schyns, 2001) to compare the facial features used to discriminate between two pain intensities. Stimuli consisted of 16 face avatars (2 identities x 2 ethnicities x 4 levels of intensity difference) created with FACEGen and FACSGen. The amount of facial information needed to reach an accuracy rate of 75% was higher for Chinese (M=93.3, SD=25.04) than for Canadian participants (M=47.2, SD=48.02) [t(44.3)=-4.63, p< 0.001], suggesting that it was harder for Chinese to discriminate among two pain intensities. Classification images representing the facial features used by participants were generated separately for Asian and Caucasian faces. Statistical thresholds were found using the cluster test from Stat4CI (Chauvin et al, 2005; Zcrit=3.0; k=667; p< 0.05). Canadians used the eyes, the wrinkles between the eyebrows and the nose wrinkles/upper lip area with both face ethnicities. Chinese used the eye area with Asian faces, but no facial area reached significance with Caucasian faces. Compared with Chinese participants, Canadians relied more on the nose wrinkles area (Zcrit=3.0; k=824; p< 0.025). Together, these results suggest that culture impacts the visual decoding of pain facial expressions.

Remerciement: Conseil de Recherches en Sciences Humaines

 

Marie-Pier Plouffe-DemersThe impact of culture on the visual representation of pain facial expressions

Marie-Pier Plouffe Demers 1, Camille Saumure1 , Stéphanie Cormier1 , Daniel Fiset1 , Miriam Kunz2 , Dan Sun3,4, Zhang Ye3,4, Caroline Blais1 ;
1 Department of psychoeducation and psychology, Université du Québec en Outaouais, 2 Department of General Practice and Elderly Care Medicine, University of Groningen, 3 Institute of Psychological Sciences, Hangzhou Normal University, 4 Zhejiang Key Laboratory for Research in Assessment of Cognitive Impairments

 

VOIR AFFICHE

 

Some studies suggest that communication of pain is connected to the evolution of human race and has evolved in a way to increase an individual’s chance of survival (Williams, 2002). However, even though facial expressions of emotions have long been considered culturally universal (Izard, 1994; Matsumoto & Willingham, 2009), some studies revealed cultural differences in the perceptual mechanisms underlying their recognition (e.g. Jack et al., 2009; Jack et al., 2012). The present study aims to verify the impact of culture on the facial features that are stored by individuals in their mental representation of pain facial expressions. In that respect, observer-specific mental representations of 60 participants (i.e. 30 Caucasians, 30 Chineses) have been measured using the Reverse Correlation method (Mangini & Biederman, 2004). In 500 trials, participants chose, from two stimuli, the face that looked the most in pain. For each trial, both stimuli would consist of the same base face (i.e. morph between average Asian and Caucasian avatars showing low pain level) with random noise superimposed, one with a random noise pattern added, and the other the same pattern subtracted. We generated a classification image (CI) for each group by averaging noise patterns chosen by participants. The cultural impact on mental representations was measured by subtracting the Caucasian CI from the Chinese CI, to which was applied a Stat4CI cluster test (Chauvin et al., 2005). Results indicate significant differences in the mouth and left eyebrow areas (ZCrit=3.09, K=167, p< 0.025), and suggest a mental representation of pain facial expression of greater intensity for Chinese participants. Given that mental representations reflect expectations about the world based on past experiences (Jack et al., 2012), the results suggest that Chinese participants may have previously been exposed to facial expressions displaying greater pain intensities.

Remerciement: Conseil de Recherches en Sciences Humaines

Première édition de la journée scientifique du Groupe de Neurosciences Sociales à l’UQO

Vendredi dernier avait lieu la première édition de la journée scientifique sous le thème des neurosciences sociales. Cet événement était organisé conjointement par le GNS et le département de psychoéducation et de psychologie de l’UQO.

C’est ainsi que plusieurs laboratoires de l’UQO, dont le LPVS, ainsi que quelques laboratoires de l’Université du Québec à Trois-Rivières et de l’Université Laval ont pu présenter le fruit de leurs projets de recherche.

Mot de bienvenue de la directrice du GNS et codirectrice du LPVS Dre Caroline Blais.

Les étudiants se sont rassemblés en matinée pour venir discuter avec quelques étudiants gradués et professeurs de leurs parcours académiques dans le cadre d’un événement satellite.

De gauche à droite: Justin Duncan, Annie Bérubé, Geneviève Forest, Daniel Fiset et Gabrielle Dugas.

Plusieurs ateliers étaient mis à la disposition des participants et leurs ont permis de découvrir les outils méthodologiques utilisés en neurosciences sociales. Du LPVS  Marie-Pier Plouffe-Demers a d’ailleurs présenté la méthode de corrélation inversée et Francis Gingras la méthode de morphing.

Le GNS a aussi eu l’immense plaisir d’accueillir le Dr Philip Jackson, professeur titulaire à l’École de psychologie de la faculté des sciences sociales de l’Université Laval qui nous à chaleureusement présenté les corrélats cérébraux de l’empathie pour la souffrance d’autrui. Il a entre autres abordé un des facteurs qui a très peu été étudié et qui est pourtant très pertinent dans un contexte clinique, soit le degré d’exposition à la douleur d’autrui.

Le LPVS a aussi présenté un symposium portant sur les mécanismes perceptifs et neuronaux en reconnaissance de visages, organisé par Isabelle Charbonneau co-coordonnatrice du labo.

Isabelle Charbonneau: Fréquences spatiales utiles en reconnaissance d’expressions faciales

 

Virginie Burns: Les différences individuelles en détection de visages corrèlent avec les habiletés d’identification de visages

 

Gabrielle Dugas: L’extraction de l’information horizontale en traitement de visages est-elle ascendante ou descendante

 

Justin Duncan: Le traitement atténué des expressions faciales en double-tâche : une étude électrophysiologique

 

Dr Daniel Fiset: Le rôle de l’aire occipitale des visages en reconnaissance d’expressions faciales d’émotion

Quelques étudiantes du LPVS ont aussi relevé le défi de présenter un condensé de leur projet de recherche en moins de 5 minutes dans le cadre de la séance de « Give me five ».

Le trois présentations de Camille, Marie-Pier et Amanda portaient sur l’impact de la culture sur l’extraction de l’information visuelle, plus spécifiquement dans la reconnaissance de visages et l’expression faciale de douleur.

Plusieurs communications affichées du LPVS ont aussi été présentées.

Guillaume: L’influence des orientations spatiales sur les capacités de lecture
Marie-Pier: Avantage dynamique: les processus visuels sous-jacents à la reconnaissance d’expressions faciales d’émotion
– Frederika: Une étude du jugement de l’authenticité des sourires dynamiques et statiques chez les hommes face à un stress psychosocial
Andrea: L’impact de l’ethnie du visage sur la représentation mentale de l’expression faciale de douleur
Carine: Le lien entre la représentation mentale de l’expression faciale de douleur et l’estimation de douleur chez autrui
Isabelle: Expérience perceptive et mécanismes visuels d’extraction des orientations spatiales : Lien avec la taille de l’effet de l’autre ethnie
Joël: Les fréquences spatiales pour le traitement visuel de l’expression faciale de douleur. et Crier après l’arbitre, une stratégie de modification de la prise de décision efficace au baseball
Michael: L’impact de la culture sur le traitement visuel des scènes et des objets

Nous aimerions ainsi remercier tous les étudiants pour leur participation et souligner le travail de Amanda Estephan qui s’est vue remettre le prix pour meilleure communication orale et Joël Guérette qui a gagné le prix de la meilleure communication affichée!

Bravo à tous!

Le LPVS se démarque au congrès annuel de la SQRP

Plusieurs étudiants se sont démarqués le week-end dernier lors de la tenue du 40e congrès annuel de la Société Québécoise pour la Recherche en Psychologie.

Nous tenons spécialement à féliciter Joël Guérette qui s’est vu décerner le prix de la meilleure communication orale toutes catégories confondues. Son projet d’étude visant à mesurer si le fait d’argumenter avec l’arbitre avantage ou non une équipe sportive. Cet effet pouvant être mesuré par une diminution de la taille de la zone de prises de l’équipe ayant argumenté.

Nous tenons aussi à souligner la nomination d’Isabelle Charbonneau à titre de représentante étudiante au conseil d’administration de la SQRP. C’est elle qui sera la voix étudiante au cours des deux années à venir. Bonne chance dans ton mandat Isabelle. Nous avons hâte de voir ce que tu nous réserves.

 

Une étudiante du LPVS remporte la première place au concours « Ma thèse en 180 secondes » de l’UQO

Félicitation à Camille Saumure, étudiante en deuxième année de son doctorat en neuropsychologie qui a séduit les membres du jury pour remporter les honneurs de cette édition 2018 de MT180 avec la présentation intitulée Lequel de ces deux visages exprime le plus de douleur ? Ce projet de recherche porte sur l’impact de la culture sur les mécanisme perceptifs sous-jacents à la reconnaissance de l’expression faciale de douleur.

Camille Saumure représentera l’UQO à la grande finale nationale qui se tiendra dans le cadre 86e Congrès de l’Association francophone pour le savoir (ACFAS), qui se déroule du 7 au 11 mai 2018, à l’Université du Québec à Chicoutimi (UQAC).

Rappelons que deux étudiantes du LPVS se sont rendues en finale nationale et internationale ces dernières années : Olivier Paquin a participé à la finale nationale en 2014 et Camille Daudelin-Peltier a participé à la finale à Paris, en 2015.

Encore une fois, bravo Camille!!!