Publication:
A new interface for affective state estimation and annotation from speech

dc.contributor.coauthorFidan, Umut
dc.contributor.coauthorTomar, Deniz
dc.contributor.coauthorOzdil, P. Gizem
dc.contributor.departmentDepartment of Computer Engineering
dc.contributor.kuauthorErzin, Engin
dc.contributor.kuprofileFaculty Member
dc.contributor.otherDepartment of Computer Engineering
dc.contributor.schoolcollegeinstituteCollege of Engineering
dc.contributor.yokid34503
dc.date.accessioned2024-11-09T23:42:51Z
dc.date.issued2019
dc.description.abstractEmotion recognition from speech has been an important research area in the recent past. In this study, the purpose is to predict the emotion annotations better for robot/agent and hence to develop a more human-like interaction between human and robot/agent. In this context, the emotion annotations of human-human interactions, acoustic feature extraction and spectrogram images are carried on human-human dyadic conversations. In the first study, the statistical summary results are matched with the corresponding annotation and emotion recognition is achieved by using Support Vector Machines. In the second study, a sliding window of a certain size and overlapping intervals are matched with the corresponding annotation and the machine is trained by using Convolutional Neural Networks. Consequently, a user interface is designed to contain the works aforementioned. Also, the models obtained are tested with the databases JESTKOD and CreativeIT on this interface, and yield promising results for human-like robot/agents./ Öz:Konuşmadan duygu tanıma, yakın geçmişte önemli bir araştırma alanı olmuştur. Bu çalışmada hedef, robot/aracının duygu durum değerlerini daha iyi tahmin etmesi ve dolasıyla in- san ve robot/aracı arasında daha insansı bir etkileşim geliştirmektir. Bu bağlamda, insan-insan etkileşiminde etiketlenmiş duygu durum değerleri, istatistiksel akustik ve spektral imge öznite- ˘ likleri insan-insan ikili ileti¸simine uygulanmı¸stır. ˙Ilk çalı¸smada, istatistiksel akustik öznitelikler ile etiketlemeler eşleştirilmiş ve Destek Vektör Makineleri kullanılarak duygu durum kestirimi yapılmıştır. ikinci kısımda, belli pencere aralıklarına sahip, örtüşen ve kayan spektral imgeler duygu durum değerleriyle eşleştirilmiş ve üzerinde Evrişimsel Sinir Ağları kullanılarak duygu durum kestirimi yapılmıştır. Son olarak, bu iki kestirim yöntemini barındıran yeni bir kullanıcı arayüzü tasarlanmıştır. Ayrıca, elde edilen modeller bu arayüz üzerinde JESTKOD ve CreativeIT veritabanları ile test edilmiş ve insan benzeri robot/aracılar için umut verici sonuçlar vermiştir.
dc.description.indexedbyWoS
dc.description.indexedbyScopus
dc.description.openaccessYES
dc.description.publisherscopeInternational
dc.identifier.doi10.1109/SIU.2019.8806402
dc.identifier.isbn9781-7281-1904-5
dc.identifier.linkhttps://www.scopus.com/inward/record.uri?eid=2-s2.0-85071991747&doi=10.1109%2fSIU.2019.8806402&partnerID=40&md5=8d8a08a9d27515d712f60727ae733d6e
dc.identifier.scopus2-s2.0-85071991747
dc.identifier.urihttp://dx.doi.org/10.1109/SIU.2019.8806402
dc.identifier.urihttps://hdl.handle.net/20.500.14288/13379
dc.identifier.wos518994300098
dc.keywordsEmotion recognition
dc.keywordsHuman-Computer interaction
dc.languageTurkish
dc.publisherInstitute of Electrical and Electronics Engineers (IEEE)
dc.source27th Signal Processing and Communications Applications Conference, SIU 2019
dc.subjectEngineering
dc.subjectElectrical electronic engineering
dc.subjectTelecommunications
dc.titleA new interface for affective state estimation and annotation from speech
dc.title.alternativeKonuşmadan duygu durum kestirimi ve etiketlenmesi için yeni bir arayüz
dc.typeConference proceeding
dspace.entity.typePublication
local.contributor.authorid0000-0002-2715-2368
local.contributor.kuauthorErzin, Engin
relation.isOrgUnitOfPublication89352e43-bf09-4ef4-82f6-6f9d0174ebae
relation.isOrgUnitOfPublication.latestForDiscovery89352e43-bf09-4ef4-82f6-6f9d0174ebae

Files