التعرف على العواطف البشرية استنادا على الوجه والكلام
مؤخرا التعرف على العاطفة تكتسب المزية والمزيد من الأهمية في مجالات الذكاء الاصطناعي. الكثير من الابحاث السابقة تقترح التعرف على العاطفة استنادا على العديد من الإشارات مثل تعابير وجه الانسان وكلامه وأجهزة تخطيط الدماغ الكهربائي وغيرها. غالبيتها صممت باستخدام وضع واحد او إشارة واحده كتعابير الوجه فقط او الصوت فقط. في الوقت الحاضر يدمج الكثير من الأبحاث اكثر من وضع واحد لاستخراج العاطفة. في بحثنا نحن نهدف إلى اقتراح وتصميم وتنفيذ نظام التعرف على العاطفة على أساس ملامح الوجه البشري وميزات الصوت. في عملنا استخدمنا خوارزميات التعلم الآلي وخوارزميات التعلم العميق للتعرف على العواطف. استخدمنا الشبكة العصبية الملتوية (CNN) للتعرف على العاطفة من تعابير الوجه من خلال إطارات مفاتيح الفيديو المصنفة، ومع ذلك ايضا لاكتشاف العواطف من ميزات الصوت جربنا خوارزميتين آلة المتجهات الداعمة (SVM) وشبكات الذاكرة قصيرة طويلة المدى (LSTM). استخدمنا مجموعتي بيانات (- RML (SAVEE لتجربة أداء النظام المقترح للكشف عن المشاعر. بالمقارنة مع أحدث ما توصلت إليه التكنولوجيا ، فإن النظام المقترح لديه تعقيد منخفض جدًا نسبيًا ودقة ممتازة للغاية في اكتشاف المشاعر . بشكل خاص فان استخدام تقنية إزالة الصمت من الصوت والاختيار الصحيح لميزات الصوت بعشرة إطارات زمنية وشبكة (LSTM) ثنائية الاتجاه حققت دقة في اكتشاف المشاعر بنسبة ???? لجميع المشاعر الستة التقليدية المعروفة. على وجه الخصوص تم اعتماد عدد قليل من ميزات الصوت نظرا لانخفاض درجة التعقيد وأدائها الكبير. يمكن نشر نظام العواطف المقترح لأغراض الوقت الفعلي.