Känner av röstens tonläge. Ingenjörerna bakom projektet menar att det inte spelar någon roll vad som sägs - utan snarare hur man säger det.
ROCHESTER. På University of Rochester i New York har ingenjörer utvecklat en mobilapplikation med en slags emotionell intelligens.
Genom att känna av olika tonlägen tolkar mobilen den talande personens sinnesstämning på olika sätt. I tester fick prototypen rätt fyra av fem tillfällen, skriver Gizmag.
– Vi använde inspelade skådespelare som läste vilket datum det var - det spelar egentligen ingen roll vad de säger, det är hur det sägs som vi är intresserade av, säger professorn Wendi Heinzelman.
Sex olika stadier
Mobilappen känner av en av sex olika emotionella stadier beroende på röstens tonläge. Med hjälp av tolv stycken mätverktyg avgör applikationen vilken kategori som rösten tillhör.
– Det är enkelt att föreställa sig en mer komplex app som kan använda tekniken till allt ifrån att justera mobilskärmens färger till att spela musik efter användarens humör, säger Heinzelman.
Går man ännu längre skulle en mer komplex och utvecklad app troligtvis kunna kombineras med andra komplexa tekniker. Robotar, som redan nu lär sig tala, är ett exempel på högutvecklade tekniker som skulle kunna utrustas med applikationens emotionella intelligens.
Projektet drivs av ingenjörer vid University of Rochester i New York.
Läs mer om satsningen här.
Du måste vara inloggad för att kunna kommentera eller svara på andra kommentarer.