Поиск :
Личный кабинет :
Электронный каталог: Шарапова Наталья Юрьевна - Восприятие неконгруэнтных экспрессий бимодальных (выражения лица VS интонации голоса) аффективных...
Шарапова Наталья Юрьевна - Восприятие неконгруэнтных экспрессий бимодальных (выражения лица VS интонации голоса) аффективных...

Нет экз.
Электронный ресурс
Автор: Шарапова Наталья Юрьевна
Восприятие неконгруэнтных экспрессий бимодальных (выражения лица VS интонации голоса) аффективных... : автореферат выпускной квалификационной работы : Магистерская диссертация
Издательство: Московский государственный психолого-педагогический университет, 2025 г.
ISBN отсутствует
Автор: Шарапова Наталья Юрьевна
Восприятие неконгруэнтных экспрессий бимодальных (выражения лица VS интонации голоса) аффективных... : автореферат выпускной квалификационной работы : Магистерская диссертация
Издательство: Московский государственный психолого-педагогический университет, 2025 г.
ISBN отсутствует
Электронный ресурс
Шарапова, Наталья Юрьевна.
Восприятие неконгруэнтных экспрессий бимодальных (выражения лица VS интонации голоса) аффективных состояний человека : автореферат выпускной квалификационной работы : Магистерская диссертация / Наталья Юрьевна Шарапова. – Москва : Московский государственный психолого-педагогический университет, 2025. – 5 с. – URL: http://psychlib.ru/inc/absid.php?absid=504497 . – 37.04.01 - Психологические науки. Магистерская программа "Когнитивная психология".
Исследование восприятия неконгруэнтных бимодальных экспрессий аффективных состояний актуально в условиях роста информационных нагрузок и использования социальных медиа, где противоречивые эмоциональные сигналы могут искажать коммуникацию. Эмпирическое исследование было проведено на основе модифицированной русскоязычной версии Женевского теста (GERT). Участвовали 68 испытуемых (34 мужчины, 34 женщины, средний возраст 29,5 лет). Стимульный материал включал 47 видеофрагментов (26 неконгруэнтных, 21 конгруэнтный) с экспрессиями 10 эмоций от 7 натурщиков. Применялись частотный анализ и критерий хи-квадрат Пирсона. Была подтверждена общая гипотеза, о том, что точность распознавания неконгруэнтных экспрессий будет ниже (38%), чем конгруэнтных (51%; p<0.001). Также была подтверждена частная гипотеза о доминировании визуальной модальности при восприятии неконгруэнтности: средняя точность визуального распознавания — 29%, аудиального — 9% (p<0.001). Исключением стала эмоция удивления (аудиальная точность 27%, визуальная — 6%). Результаты применимы для разработки процедур снижения когнитивного диссонанса, а также для создания и усовершенствования ИИ-систем анализа эмоций человека.
The study of perception of incongruent bimodal expressions of affective states is relevant in the context of increasing information loads and the use of social media, where contradictory emotional signals can distort communication. The empirical study was conducted on the basis of a modified Russian-language version of the Geneva Test (GERT). 68 subjects participated (34 men, 34 women, average age 29.5 years). The stimulus material included 47 video clips (26 incongruent, 21 congruent) with expressions of 10 emotions from 7 sitters. Frequency analysis and Pearson`s chi-square criterion were used. The general hypothesis was confirmed that the recognition accuracy of incongruent expressions will be lower (38%) than congruent (51%; p<0.001). A particular hypothesis about the dominance of visual modality in the perception of incongruity was also confirmed: the average accuracy of visual recognition was 29%, auditory — 9% (p<0.001). The exception was the emotion of surprise (auditory accuracy was 27%, visual accuracy was 6%). The results are applicable for the development of procedures for reducing cognitive dissonance, as well as for the creation and improvement of AI systems for analyzing human emotions.
Шарапова, Наталья Юрьевна.
Восприятие неконгруэнтных экспрессий бимодальных (выражения лица VS интонации голоса) аффективных состояний человека : автореферат выпускной квалификационной работы : Магистерская диссертация / Наталья Юрьевна Шарапова. – Москва : Московский государственный психолого-педагогический университет, 2025. – 5 с. – URL: http://psychlib.ru/inc/absid.php?absid=504497 . – 37.04.01 - Психологические науки. Магистерская программа "Когнитивная психология".
Исследование восприятия неконгруэнтных бимодальных экспрессий аффективных состояний актуально в условиях роста информационных нагрузок и использования социальных медиа, где противоречивые эмоциональные сигналы могут искажать коммуникацию. Эмпирическое исследование было проведено на основе модифицированной русскоязычной версии Женевского теста (GERT). Участвовали 68 испытуемых (34 мужчины, 34 женщины, средний возраст 29,5 лет). Стимульный материал включал 47 видеофрагментов (26 неконгруэнтных, 21 конгруэнтный) с экспрессиями 10 эмоций от 7 натурщиков. Применялись частотный анализ и критерий хи-квадрат Пирсона. Была подтверждена общая гипотеза, о том, что точность распознавания неконгруэнтных экспрессий будет ниже (38%), чем конгруэнтных (51%; p<0.001). Также была подтверждена частная гипотеза о доминировании визуальной модальности при восприятии неконгруэнтности: средняя точность визуального распознавания — 29%, аудиального — 9% (p<0.001). Исключением стала эмоция удивления (аудиальная точность 27%, визуальная — 6%). Результаты применимы для разработки процедур снижения когнитивного диссонанса, а также для создания и усовершенствования ИИ-систем анализа эмоций человека.
The study of perception of incongruent bimodal expressions of affective states is relevant in the context of increasing information loads and the use of social media, where contradictory emotional signals can distort communication. The empirical study was conducted on the basis of a modified Russian-language version of the Geneva Test (GERT). 68 subjects participated (34 men, 34 women, average age 29.5 years). The stimulus material included 47 video clips (26 incongruent, 21 congruent) with expressions of 10 emotions from 7 sitters. Frequency analysis and Pearson`s chi-square criterion were used. The general hypothesis was confirmed that the recognition accuracy of incongruent expressions will be lower (38%) than congruent (51%; p<0.001). A particular hypothesis about the dominance of visual modality in the perception of incongruity was also confirmed: the average accuracy of visual recognition was 29%, auditory — 9% (p<0.001). The exception was the emotion of surprise (auditory accuracy was 27%, visual accuracy was 6%). The results are applicable for the development of procedures for reducing cognitive dissonance, as well as for the creation and improvement of AI systems for analyzing human emotions.