تشخیص عواطف (احساسات)
بخشی از مقالهها درباره |
هوش مصنوعی |
---|
شناخت عواطف فرایند شناسایی عواطف انسانی است. دقت افراد در تشخیص احساسات دیگران، معمولاً بسیار متفاوت است. استفاده از فناوری برای کمک به افراد در حوزهٔ تشخیص احساسات، یک حوزه تحقیقاتی نسبتاً نوپا است. بهطور کلی، این فناوری در صورتی که از روشهای چندوجهی در پردازش دادهها استفاده کند، بسیار کارآمد خواهد بود. تا به امروز، بیشترین کار روی تشخیص خودکار حالات چهره از دادهٔ تصویری، عبارات گفتاری از دادههای صوتی، عبارات نوشتاری از دادههای متنی، و فیزیولوژی که توسط ابزارهای پوشیدنی اندازهگیری میشود، انجام شدهاست.
تشخیص عواطف از طریق انسان
[ویرایش]انسانها انعطاف زیادی در تواناییهای خود برای تشخیص عواطف نشان میدهند. نکته کلیدی که هنگام یادگیری در مورد تشخیص خودکار عواطف باید به خاطر داشت این است که چندین منبع "حقیقت پایه" یا حقیقت در مورد اینکه عواطف واقعی چیست، وجود دارد. فرض کنید سعی داریم که احساسات فردی به نام الکس را شناسایی کنیم. یک منبع این است که "بیشتر مردم چه میگویند در مورد این که الکس چه احساسی دارد؟" در این مورد، "حقیقت" ممکن است با آنچه الکس احساس میکند منطبق نباشد، اما ممکن است با آن عواطفی که اکثر مردم میگویند که به نظر میرسد الکس آنها را احساس میکند، مطابقت داشته باشد. به عنوان مثال، الکس ممکن است واقعاً احساس غمگینی کند، اما در ظاهر لبخند بزرگی میزند، درنتیجه اکثر مردم میگویند که او خوشحال به نظر میرسد. اگر یک روش خودکار به نتایجی یکسان با گروهی از ناظران دست یابد، ممکن است آن روش، روش دقیقی به حساب بیاید، حتی اگر واقعاً آنچه را که الکس واقعاً احساس میکند اندازهگیری نکند. منبع دیگر برای «حقیقت» این است که از خود الکس بپرسید که واقعاً چه احساسی دارد. این منبع هنگامی کارا است که الکس درک خوبی از وضعیت درونی خود داشته باشد و بخواهد که به شما بگوید که آن وضعیت درونیاش چیست، و همچنین توانایی بیان دقیق آن وضعیت درونی را با کلمات یا یک عدد داشته باشد. با این حال، برخی از افراد دارای نارسایی هیجانی هستند (افراد دارای نارسایی هیجانی، افرادی هستند که از بیان احساسات و عواطف خود عاجزند) و درک خوبی از احساسات درونی خود ندارند، یا با استفاده کلمات و اعداد، قادر به برقراری یک ارتباط دقیق با این احساسات درونی نیستند. بهطور کلی، دستیابی به این حقیقت که واقعاً عواطف چه چیزی را بیان میکنند، نیاز به تحقیقات بیشتری دارد، و بسته به انتخاب شاخصها، چگونگی این تحقیقات میتواند متفاوت باشد و معمولاً مستلزم درنظر گرفتن مقداری از عدم قطعیت است.
تشخیص عواطف خودکار
[ویرایش]دهههاست که تحقیقات علمی برای توسعه و ارزیابی روشهایی برای تشخیص خودکار عواطف انجام شدهاست. در حال حاضر ادبیات گستردهای وجود دارد که صدها نوع روش مختلف را پیشنهاد و ارزیابی میکند، تکنیکهایی را از حوزههای مختلف، مانند پردازش سیگنال، یادگیری ماشین، بینایی رایانه و پردازش گفتار به کار میگیرد. ممکن است روشها و تکنیکهای مختلفی برای تفسیر عواطف استفاده شود، مانند شبکههای بیزی استفاده شود.[۱] مدلهای مخلوط گاوسی[۲] و مدلهای مارکوف پنهان[۳] و شبکههای عصبی عمیق.[۴]
رویکردها
[ویرایش]دقت تشخیص احساسات معمولاً زمانی بهبود مییابد که تجزیه و تحلیل عبارات انسانی را از اشکال چندوجهی مانند متون، فیزیولوژی، صدا یا ویدیو ترکیب کند.[۵]
انواع مختلف احساسات از طریق ادغام اطلاعات از حالات چهره، حرکات بدن و ژستها و گفتار شناسایی میشوند.[۶] گفته میشود که این فناوری در پیدایش اینترنت به اصطلاح عاطفی یا احساسی کمک میکند.[۷]
رویکردهای موجود در تشخیص احساسات برای طبقهبندی کردن انواع خاص عواطف را میتوان بهطور کلی به سه دسته اصلی طبقهبندی کرد: تکنیکهای مبتنی بر دانش، روشهای آماری و رویکردهای ترکیبی.[۸]
تکنیکهای مبتنی بر دانش
[ویرایش]تکنیکهای مبتنی بر دانش (که گاهی به عنوان تکنیکهای مبتنی بر واژگان شناخته میشوند)، از دانش حوزه و ویژگیهای معنایی و نحوی زبان برای تشخیص انواع خاص احساسات استفاده میکنند.[نیازمند منبع] در این رویکرد، استفاده از منابع مبتنی بر دانش در طول فرایند طبقهبندی احساسات، مانند WordNet , SenticNet,[۹] ConceptNet و EmotiNet,[۱۰] رایج است.[۱۱] یکی از مزایای این رویکرد، دسترسی و صرفه اقتصادیای است که به سبب دسترسی زیاد به چنین منابع مبتنی بر دانش، به ارمغان آمدهاست.[۸] از سوی دیگر، یک محدودیت این تکنیک، ناتوانی آن در رسیدگی به مفاهیم ظریف و قوانین پیچیده زبانی است.[۸]
تکنیکهای دانش محور را میتوان عمدتاً در دو دسته، طبقهبندی کرد: رویکردهای مبتنی بر فرهنگ لغت و رویکردهای مبتنی بر پیکره.[نیازمند منبع] رویکردهای مبتنی بر فرهنگ لغت، کلمات بذر نظرات یا احساسات را در فرهنگ لغت پیدا میکنند و مترادف و متضاد آنها را جستجو میکنند تا فهرست اولیه نظرات یا احساسات را گسترش دهند.[۱۲] از سوی دیگر، رویکردهای مبتنی بر پیکره، با یک لیست اولیه از نظرات یا کلمات احساسات شروع میشوند و با یافتن کلمات دیگری با ویژگیهای زمینه خاص در یک مجموعه بزرگ، دادگان را گسترش میدهند.[۱۲] در حالی که رویکردهای مبتنی بر پیکره، زمینه را در نظر میگیرند، عملکرد آنها همچنان در حوزههای مختلف متفاوت است زیرا یک کلمه در یک حوزه میتواند جهتگیری متفاوتی در حوزهای دیگر داشته باشد.[۱۳]
روشهای آماری
[ویرایش]روشهای آماری معمولاً شامل استفاده از الگوریتمهای مختلف یادگیری ماشین تحت نظارت است که در آن مجموعه بزرگی از دادههای مشروح به الگوریتمها وارد میشود تا سیستم یاد بگیرد و انواع احساسات مناسب را پیشبینی کند.[۸] الگوریتمهای یادگیری ماشین عموماً دقت طبقهبندی معقولتری را در مقایسه با سایر رویکردها ارائه میکنند، اما یکی از چالشهای دستیابی به نتایج خوب در فرایند طبقهبندی، نیاز به مجموعه آموزشی به اندازه کافی بزرگ است.[۸]
برخی از متداولترین الگوریتمهای یادگیری ماشین شامل ماشینهای بردار پشتیبان (SVM)، بیز ساده و Maximum Entropy هستند.[۱۴] یادگیری عمیق، که زیرمجموعهای از خانواده یادگیری ماشین بدون نظارت است، نیز بهطور گسترده در تشخیص احساسات به کار میرود.[۱۵][۱۶][۱۷] الگوریتمهای معروف یادگیری عمیق شامل معماریهای مختلف شبکه عصبی مصنوعی (ANN) مانند شبکه عصبی کانولوشنی (CNN)، حافظه طولانی کوتاهمدت (LSTM) و ماشین یادگیری افراطی (ELM) میباشد.[۱۴] محبوبیت رویکردهای یادگیری عمیق در حوزه تشخیص احساسات عمدتاً به دلیل موفقیت آن در کاربردهای مرتبط با بینایی رایانه، تشخیص گفتار و پردازش زبان طبیعی (NLP) است.[۱۴]
رویکردهای ترکیبی
[ویرایش]رویکردهای ترکیبی در تشخیص عواطف، اساساً ترکیبی از تکنیکهای مبتنی بر دانش و روشهای آماری هستند که از ویژگیهای مکمل هر دو تکنیک استفاده میکنند.[۸] برخی از آثاری که مجموعهای از عناصر زبانی دانش محور و روشهای آماری را به کار گرفتهاند، شامل محاسبات حسی و iFeel هستند، که هر دو از منابع مبتنی بر دانش SenticNet در سطح مفهومی استفاده کردهاند. نقش چنین منابع دانش بنیان در اجرای رویکردهای ترکیبی در فرایند طبقهبندی احساسات بسیار مهم است.[۱۱] از آنجایی که تکنیکهای ترکیبی از مزایای ارائه شده توسط هر دو رویکرد مبتنی بر دانش و آماری به دست میآیند، در مقایسه با استفاده از روشهای مبتنی بر دانش یا آماری بهطور مستقل، عملکرد طبقهبندی بهتری دارند.[نیازمند منبع] اما یک نقطه ضعف استفاده از تکنیکهای ترکیبی، پیچیدگی محاسباتی در طول فرایند طبقهبندی است.[۱۱]
دادگانها
[ویرایش]داده بخشی جدایی ناپذیر از رویکردهای موجود در تشخیص احساسات هستند و یک چالش در اکثر موارد، به دست آوردن دادههای حاشیه نویسی است که برای آموزش الگوریتمهای یادگیری ماشین ضروری هستند. برای فرایند طبقهبندی انواع احساسات مختلف از منابع چندوجهی در قالب متون، صدا، ویدئو یا سیگنالهای فیزیولوژیکی، دادگانهای زیر موجود است:
- دادگان HUMAINE: کلیپهای طبیعی را با کلمات احساسی و برچسبهای نوشتاری در چند وجه مختلف ارائه میکند
- پایگاه داده بلفاست: کلیپهایی را در طیف گستردهای از احساسات از برنامههای تلویزیونی و ضبط مصاحبه ارائه میدهد[۱۸]
- دادگان SEMAINE: ضبط سمعی و بصری را بین یک شخص و یک عامل مجازی فراهم میکند و حاوی حاشیه نویسی احساساتی مانند عصبانیت، خوشحالی، ترس، انزجار، غم، تحقیر و سرگرمی است[۱۹]
- دادگان SEMAINE: ضبط جلسات دوتایی بین بازیگران را فراهم میکند و حاوی حاشیه نویسی احساساتی مانند شادی، خشم، غم، ناامیدی و حالت خنثی است[۲۰]
- دادگان eNTERFACE: ضبطهای سمعی و بصری از سوژههایی از هفت ملیت را فراهم میکند و حاوی حاشیهنویسیهای احساساتی مانند شادی، خشم، غم، تعجب، انزجار و ترس است
- دادگان DEAP: الکتروانسفالوگرافی (EEG)، الکتروکاردیوگرافی (ECG) و ضبط ویدیوی صورت، و همچنین حاشیه نویسی احساسات از نظر ظرفیت، برانگیختگی و تسلط افراد در حال تماشای کلیپهای فیلم را ارائه میدهد[۲۱]
- دادگان DREAMER: ضبطهای نوار مغزی (EEG ) و الکتروکاردیوگرافی (ECG) و همچنین حاشیه نویسی احساسات را از نظر ظرفیت، برانگیختگی و تسلط افراد در حال تماشای کلیپهای فیلم ارائه میدهد[۲۲]
- دادگان MELD: یک مجموعه داده مکالمه چند جانبه است که در آن هر گفته با عواطف و احساسات برچسب گذاری میشود. MELD[۲۳] مکالمات را در قالب ویدئویی فراهم میکند و از این رو برای تشخیص احساسات چندوجهی و تجزیه و تحلیل احساسات مناسب است. MELD برای تجزیه و تحلیل احساسات چندوجهی و تشخیص احساسات، سیستمهای گفتگو و تشخیص احساسات در مکالمات مفید است.[۲۴]
- دادگان MuSe: ضبط سمعی و بصری از تعاملات طبیعی بین یک فرد و یک شی را فراهم میکند.[۲۵] دارای حاشیهنویسیهای هیجانی گسسته و پیوسته از نظر ظرفیت، برانگیختگی و قابل اعتماد بودن و همچنین موضوعات گفتاری مفید برای تجزیه و تحلیل احساسات چندوجهی و تشخیص احساسات است.
- دادگان UIT-VSMEC: یک مجموعه احساسی رسانه اجتماعی استاندارد ویتنامی (UIT-VSMEC) با حدود ۶۹۲۷ جمله مشروح شده توسط انسان با شش برچسب احساس است که به تحقیقات تشخیص احساسات در ویتنامی کمک میکند که یک زبان کم منابع در پردازش زبان طبیعی (NLP) است. .[۲۶]
- دادگان BED: ضبطهای الکتروانسفالوگرافی (EEG) و همچنین حاشیه نویسی احساسات از نظر ظرفیت و برانگیختگی افراد در حال تماشای تصاویر را فراهم میکند. همچنین شامل ضبط الکتروانسفالوگرافی (EEG) از افرادی است که در معرض محرکهای مختلف (SSVEP، استراحت با چشمان بسته، استراحت با چشمان باز، وظایف شناختی) برای انجام وظایف بیومتریک مبتنی بر EEG هستند.[۲۷]
کاربردها
[ویرایش]تشخیص احساسات به دلایل مختلفی در جامعه مورد استفاده قرار میگیرد. Affectiva که توسط MIT توسعه داده شدهاست، یک نرمافزار هوش مصنوعی را ارائه میکند که انجام کارهایی که قبلاً به صورت دستی توسط افراد انجام میشد را کارآمدتر میکند. این نرمافزار عمدتاً برای جمعآوری اطلاعات حالت چهره و حالت صوتی مربوط به زمینههای خاصی است که بینندگان رضایت دادهاند این اطلاعات را به اشتراک بگذارند. به عنوان مثال، به جای پر کردن یک نظرسنجی طولانی دربارهٔ احساس شما در هر مرحله از تماشای یک فیلم آموزشی یا یک تبلیغات، میتوانید موافقت کنید که یک دوربین چهره شما را تماشا کند و به آنچه میگویید گوش فرا دهد، و توجه کند که در چه بخشهایی از تجربه، شما حالاتی مانند خستگی، علاقهمندی، سردرگمی یا لبخند زدن را نشان میدهید. (توجه داشته باشید که این به معنای خواندن احساسات درونی شما نیست - بلکه فقط آنچه را که شما به صورت ظاهری بیان میکنید میخواند) از دیگر کاربردهای نرمافزار Affectiva میتوان به کمک به کودکان مبتلا به اوتیسم، کمک به افراد نابینا برای خواندن حالات چهره، کمک به روباتها برای تعامل هوشمندانهتر با مردم و نظارت بر علائم هشدار هنگام رانندگی به منظور افزایش ایمنی راننده اشاره کرد.[۲۸]
اسنپ چت در سال ۲۰۱۵ یک ثبت اختراع انجام داد. این اختراع، روشی را برای استخراج دادههای مربوط به جمعیت در رویدادهای عمومی، با اجرای الگوریتمی شناسایی احساسات بر روی سلفیهای برچسب جغرافیاییدار کاربران شرح میدهد.[۲۹]
Emotient یک شرکت استارتاپی بود که از تشخیص احساسات برای خواندن اخمها، لبخندها و سایر حالات روی صورت، یعنی هوش مصنوعی برای پیشبینی «نگرشها و اعمال بر اساس حالات چهره» استفاده میکرد.[۳۰] اپل در سال ۲۰۱۶ Emotient را خرید و از فناوری تشخیص احساسات برای افزایش هوش هیجانی محصولات خود استفاده میکند.[۳۰]
nViso تشخیص احساسات بیدرنگ را برای برنامههای وب و تلفنهمراه از طریق یک API بیدرنگ فراهم میکند.[۳۱] Visage Technologies AB تخمین احساسات را به عنوان بخشی از Visage SDK خود، برای بازاریابی و تحقیقات علمی و اهداف مشابه ارائه میدهد.[۳۲]
Eyeris یک شرکت تشخیص احساسات است که برای ادغام نرمافزار تجزیه و تحلیل چهره و شناسایی احساسات خود، با سازندگان سیستمهای تعبیه شده از جمله خودروسازان و شرکتهای رباتیکی (ساخت رباتهای) اجتماعی کار میکند، همچنین این شرکت با سازندگان محتوای ویدیویی هم همکاری دارد، به اینصورت که به آنها کمک میکند اثربخشی درک شده از خلاقیت ویدیویی کوتاه و بلند خود را اندازهگیری کنند.[۳۳][۳۴]
همچنین بسیاری از محصولات برای جمعآوری اطلاعات از احساسات مخابره شدهٔ برخط، از جمله از طریق فشار دادن دکمه «پسندیدم» و از طریق تعداد عبارات مثبت و منفی موجود در متن وجود دارند. همچنین تشخیص تأثیر در برخی از انواع بازیها و واقعیت مجازی، هم برای اهداف آموزشی و هم برای این هدف که به بازیکنان کنترل طبیعی بیشتری بر روی آواتارهای اجتماعی خود بدهد، بهطور فزایندهای استفاده میشود.[نیازمند منبع]
زیرمجموعههای تشخیص عواطف
[ویرایش]تشخیص احساسات چنانچه به صورت اعمال چندین روش با ترکیب اشیاء مختلف، از جمله متن (مکالمه)، صدا، ویدیو و فیزیولوژی باشد، احتمالاً بهترین نتیجه را در شناسایی احساسات به دست میدهد.
تشخیص عواطف در متن
[ویرایش]دادههای متنی هنگامی که در همه جای زندگی انسان در دسترس و رایگان باشند، یک هدف تحقیقاتی مطلوب برای تشخیص احساسات است. در مقایسه با انواع دیگر دادهها، ذخیرهسازی دادههای متنی، به دلیل تکرار مکرر کلمات و کاراکترها در زبانها، کم حجمتر است و فشردهسازی آن آسان است. احساسات را میتوان از دو گونه اساسی متنی استخراج کرد: متون نوشتاری و متون مکالمه (دیالوگها).[۳۵] برای متون نوشتاری، بسیاری از محققان بر روی کار در سطح جمله برای استخراج «کلمات/عبارات» معرف احساسات تمرکز میکنند.[۳۶][۳۷]
تشخیص عواطف در صوت
[ویرایش]در استخراج احساسات از صدا، جدای شناسایی احساسات در متن، سیگنالهای صوتی هم برای شناسایی استفاده میشوند.[۳۸]
تشخیص عواطف در ویدیو
[ویرایش]دادههای ویدیویی ترکیبی از دادههای صوتی، دادههای تصویری و گاهی دادههای متنی (در شکل زیرنویس[۳۹]) است.
تشخیص عواطف در مکالمات
[ویرایش]تشخیص احساسات در مکالمه (ERC) نظرات بین شرکتکنندگان را از دادههای عظیم مکالمهای در پلتفرمهای اجتماعی، مانند فیسبوک، توییتر، یوتیوب و دیگران استخراج میکند.[۲۴] تشخیص احساسات در مکالمه میتواند دادههای ورودی مانند متن، صدا، ویدئو یا یک فرم ترکیبی را برای تشخیص چندین احساس مانند ترس، شهوت، درد و لذت دریافت کند.
جستارهای وابسته
[ویرایش]- محاسبات مؤثر
- ادراک چهره
- سیستم تشخیص چهره
- تحلیل احساسات
- دقت بین فردی
منابع
[ویرایش]- ↑ Miyakoshi, Yoshihiro, and Shohei Kato. "Facial Emotion Detection Considering Partial Occlusion Of Face Using Baysian Network". Computers and Informatics (2011): 96–101.
- ↑ Hari Krishna Vydana, P. Phani Kumar, K. Sri Rama Krishna and Anil Kumar Vuppala. "Improved emotion recognition using GMM-UBMs". 2015 International Conference on Signal Processing and Communication Engineering Systems
- ↑ B. Schuller, G. Rigoll M. Lang. "Hidden Markov model-based speech emotion recognition". ICME '03. Proceedings. 2003 International Conference on Multimedia and Expo, 2003.
- ↑ Singh, Premjeet; Saha, Goutam; Sahidullah, Md (2021). "Non-linear frequency warping using constant-Q transformation for speech emotion recognition". 2021 International Conference on Computer Communication and Informatics (ICCCI). pp. 1–4. arXiv:2102.04029. doi:10.1109/ICCCI50826.2021.9402569. ISBN 978-1-72815-875-4. S2CID 231846518.
- ↑ Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (September 2017). "A review of affective computing: From unimodal analysis to multimodal fusion". Information Fusion. 37: 98–125. doi:10.1016/j.inffus.2017.02.003.
{{cite journal}}
:|hdl-access=
requires|hdl=
(help) - ↑ Caridakis, George; Castellano, Ginevra; Kessous, Loic; Raouzaiou, Amaryllis; Malatesta, Lori; Asteriadis, Stelios; Karpouzis, Kostas (19 September 2007). Multimodal emotion recognition from expressive faces, body gestures and speech. IFIP the International Federation for Information Processing (به انگلیسی). Vol. 247. pp. 375–388. doi:10.1007/978-0-387-74161-1_41. ISBN 978-0-387-74160-4.
- ↑ Price. "Tapping Into The Emotional Internet". TechCrunch (به انگلیسی). Retrieved 2018-12-12.
- ↑ ۸٫۰ ۸٫۱ ۸٫۲ ۸٫۳ ۸٫۴ ۸٫۵ Cambria, Erik (March 2016). "Affective Computing and Sentiment Analysis". IEEE Intelligent Systems. 31 (2): 102–107. doi:10.1109/MIS.2016.31.
- ↑ Cambria, Erik; Liu, Qian; Decherchi, Sergio; Xing, Frank; Kwok, Kenneth (2022). "SenticNet 7: A Commonsense-based Neurosymbolic AI Framework for Explainable Sentiment Analysis" (PDF). Proceedings of LREC. pp. 3829–3839.
- ↑ Balahur, Alexandra; Hermida, JesúS M; Montoyo, AndréS (1 November 2012). "Detecting implicit expressions of emotion in text: A comparative analysis". Decision Support Systems. 53 (4): 742–753. doi:10.1016/j.dss.2012.05.024. ISSN 0167-9236.
- ↑ ۱۱٫۰ ۱۱٫۱ ۱۱٫۲ Medhat, Walaa; Hassan, Ahmed; Korashy, Hoda (December 2014). "Sentiment analysis algorithms and applications: A survey". Ain Shams Engineering Journal. 5 (4): 1093–1113. doi:10.1016/j.asej.2014.04.011.
- ↑ ۱۲٫۰ ۱۲٫۱ Madhoushi, Zohreh; Hamdan, Abdul Razak; Zainudin, Suhaila (2015). "Sentiment analysis techniques in recent works". 2015 Science and Information Conference (SAI). pp. 288–291. doi:10.1109/SAI.2015.7237157. ISBN 978-1-4799-8547-0. S2CID 14821209.
- ↑ Hemmatian, Fatemeh; Sohrabi, Mohammad Karim (18 December 2017). "A survey on classification techniques for opinion mining and sentiment analysis". Artificial Intelligence Review. 52 (3): 1495–1545. doi:10.1007/s10462-017-9599-6.
- ↑ ۱۴٫۰ ۱۴٫۱ ۱۴٫۲ Sun, Shiliang; Luo, Chen; Chen, Junyu (July 2017). "A review of natural language processing techniques for opinion mining systems". Information Fusion. 36: 10–25. doi:10.1016/j.inffus.2016.10.004.
- ↑ Majumder, Navonil; Poria, Soujanya; Gelbukh, Alexander; Cambria, Erik (March 2017). "Deep Learning-Based Document Modeling for Personality Detection from Text". IEEE Intelligent Systems. 32 (2): 74–79. doi:10.1109/MIS.2017.23.
- ↑ Mahendhiran, P. D.; Kannimuthu, S. (May 2018). "Deep Learning Techniques for Polarity Classification in Multimodal Sentiment Analysis". International Journal of Information Technology & Decision Making. 17 (3): 883–910. doi:10.1142/S0219622018500128.
- ↑ Yu, Hongliang; Gui, Liangke; Madaio, Michael; Ogan, Amy; Cassell, Justine; Morency, Louis-Philippe (23 October 2017). Temporally Selective Attention Model for Social and Affective State Recognition in Multimedia Content. MM '17. ACM. pp. 1743–1751. doi:10.1145/3123266.3123413. ISBN 978-1-4503-4906-2. S2CID 3148578.
- ↑ Douglas-Cowie, Ellen; Campbell, Nick; Cowie, Roddy; Roach, Peter (1 April 2003). "Emotional speech: towards a new generation of databases". Speech Communication. 40 (1–2): 33–60. CiteSeerX 10.1.1.128.3991. doi:10.1016/S0167-6393(02)00070-5. ISSN 0167-6393.
- ↑ McKeown, G.; Valstar, M.; Cowie, R.; Pantic, M.; Schroder, M. (January 2012). "The SEMAINE Database: Annotated Multimodal Records of Emotionally Colored Conversations between a Person and a Limited Agent". IEEE Transactions on Affective Computing. 3 (1): 5–17. doi:10.1109/T-AFFC.2011.20.
- ↑ Busso, Carlos; Bulut, Murtaza; Lee, Chi-Chun; Kazemzadeh, Abe; Mower, Emily; Kim, Samuel; Chang, Jeannette N.; Lee, Sungbok; Narayanan, Shrikanth S. (5 November 2008). "IEMOCAP: interactive emotional dyadic motion capture database". Language Resources and Evaluation (به انگلیسی). 42 (4): 335–359. doi:10.1007/s10579-008-9076-6. ISSN 1574-020X.
- ↑ Koelstra, Sander; Muhl, Christian; Soleymani, Mohammad; Lee, Jong-Seok; Yazdani, Ashkan; Ebrahimi, Touradj; Pun, Thierry; Nijholt, Anton; Patras, Ioannis (January 2012). "DEAP: A Database for Emotion Analysis Using Physiological Signals". IEEE Transactions on Affective Computing. 3 (1): 18–31. CiteSeerX 10.1.1.593.8470. doi:10.1109/T-AFFC.2011.15. ISSN 1949-3045.
- ↑ Katsigiannis, Stamos; Ramzan, Naeem (January 2018). "DREAMER: A Database for Emotion Recognition Through EEG and ECG Signals From Wireless Low-cost Off-the-Shelf Devices" (PDF). IEEE Journal of Biomedical and Health Informatics. 22 (1): 98–107. doi:10.1109/JBHI.2017.2688239. ISSN 2168-2194. PMID 28368836. Archived from the original (PDF) on 1 November 2022. Retrieved 1 November 2022.
- ↑ Poria, Soujanya; Hazarika, Devamanyu; Majumder, Navonil; Naik, Gautam; Cambria, Erik; Mihalcea, Rada (2019). "MELD: A Multimodal Multi-Party Dataset for Emotion Recognition in Conversations". Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA, USA: Association for Computational Linguistics: 527–536. arXiv:1810.02508. doi:10.18653/v1/p19-1050.
- ↑ ۲۴٫۰ ۲۴٫۱ Poria, S. , Majumder, N. , Mihalcea, R. , & Hovy, E. (2019). Emotion recognition in conversation: Research challenges, datasets, and recent advances. IEEE Access, 7, 100943-100953.
- ↑ Stappen, Lukas; Schuller, Björn; Lefter, Iulia; Cambria, Erik; Kompatsiaris, Ioannis (2020). "Summary of MuSe 2020: Multimodal Sentiment Analysis, Emotion-target Engagement and Trustworthiness Detection in Real-life Media". Proceedings of the 28th ACM International Conference on Multimedia. Seattle, PA, USA: Association for Computing Machinery: 4769–4770. arXiv:2004.14858. doi:10.1145/3394171.3421901.
- ↑ Ho, Vong (2020). "Emotion Recognition for Vietnamese Social Media Text". 16th International Conference of the Pacific Association for Computational Linguistics (PACLING 2019). Communications in Computer and Information Science. 1215: 319–333. arXiv:1911.09339. doi:10.1007/978-981-15-6168-9_27. ISBN 978-981-15-6167-2.
- ↑ Arnau-González, Pablo; Katsigiannis, Stamos; Arevalillo-Herráez, Miguel; Ramzan, Naeem (February 2021). "BED: A new dataset for EEG-based biometrics". IEEE Internet of Things Journal. (Early Access) (15): 1. doi:10.1109/JIOT.2021.3061727. ISSN 2327-4662.
- ↑ "Affectiva".
- ↑ Bushwick, Sophie. "This Video Watches You Back". Scientific American (به انگلیسی). Retrieved 2020-01-27.
- ↑ ۳۰٫۰ ۳۰٫۱ DeMuth Jr., Chris (8 January 2016). "Apple Reads Your Mind". M&A Daily. Seeking Alpha. Retrieved 9 January 2016.
- ↑ "nViso". nViso.ch. Archived from the original on 28 August 2018. Retrieved 20 November 2022.
- ↑ "Visage Technologies".
- ↑ "Feeling sad, angry? Your future car will know".
- ↑ Varagur, Krithika (2016-03-22). "Cars May Soon Warn Drivers Before They Nod Off". Huffington Post.
- ↑ Shivhare, S. N. , & Khethawat, S. (2012). Emotion detection from text. arXiv preprint آرخیو:1205.4944
- ↑ Ezhilarasi, R. , & Minu, R. I. (2012). Automatic emotion recognition and classification. Procedia Engineering, 38, 21-26.
- ↑ Krcadinac, U. , Pasquier, P. , Jovanovic, J. , & Devedzic, V. (2013). Synesketch: An open source library for sentence-based emotion recognition. IEEE Transactions on Affective Computing, 4(3), 312-325.
- ↑ Schmitt, M. , Ringeval, F. , & Schuller, B. W. (2016, September). At the Border of Acoustics and Linguistics: Bag-of-Audio-Words for the Recognition of Emotions in Speech. In Interspeech (pp. 495-499).
- ↑ Dhall, A. , Goecke, R. , Lucey, S. , & Gedeon, T. (2012). Collecting large, richly annotated facial-expression databases from movies. IEEE multimedia, (3), 34-41.