U razvoju: pametni telefoni koji mogu procijeniti raspoloženje

Istraživači sa Sveučilišta u Rochesteru razvijaju novi računalni program koji mjeri ljudske osjećaje govorom, s već stvorenom prototipskom aplikacijom za pametne telefone.

Program ne analizira što osoba govori, već kako.

"Zapravo smo koristili snimke glumaca koji čitaju datum u mjesecu - stvarno nije važno što kažu, već kako nas to zanimaju", rekla je dr. Wendi Heinzelman, profesor elektrotehnike i računalnog inženjerstva.

Program analizira 12 značajki govora, poput visine i glasnoće, kako bi se identificirala jedna od šest emocija iz zvučne snimke. Istraživači kažu da se postiže preciznost od 81 posto, što je značajno poboljšanje u odnosu na ranije studije koje su postigle samo oko 55 posto točnosti.

Istraživanje je već korišteno za izradu prototipa aplikacije koja prikazuje sretno ili tužno lice nakon što zabilježi i analizira glas korisnika. Izgradio ga je jedan od Heinzelmanovih diplomiranih studenata, Na Yang, tijekom ljetne prakse u Microsoftovom istraživanju.

“Istraživanje je još u ranim danima”, priznao je Heinzelman, “ali lako je zamisliti složeniju aplikaciju koja bi mogla koristiti ovu tehnologiju za sve, od prilagođavanja boja prikazanih na vašem mobitelu (telefonu) do puštanja glazbe koja odgovara vašem načinu na koji osjećam se nakon što snimim svoj glas. "

Heinzelman i njezin tim surađuju s psiholozima iz Rochestera Dr. Melissa Sturge-Apple i Patrick Davies, koji trenutno proučavaju interakciju između tinejdžera i njihovih roditelja. "Pouzdan način kategorizacije emocija mogao bi biti vrlo koristan u našem istraživanju", rekla je Sturge-Apple. "To bi značilo da istraživač ne mora slušati razgovore i ručno unositi osjećaje različitih ljudi u različitim fazama."

Naučnici računalu da razumije emocije započinju prepoznavanjem kako to ljudi čine, prema istraživačima.

"Mogli biste čuti kako netko govori i pomisli" oh, zvuči ljutito. "Ali što je ono što vas natjera da tako mislite?" rekao je Sturge-Apple.

Objasnila je da osjećaji utječu na način na koji ljudi mijenjaju mijenjajući glasnoću, visinu i čak harmoniku svog govora. "Ne obraćamo pažnju na ove značajke pojedinačno, tek smo došli naučiti kako zvuči ljutito - posebno za ljude koje poznajemo", dodala je.

Ali da bi računalo moglo kategorizirati osjećaje, mora raditi s mjerljivim količinama. Tako su istraživači ustanovili 12 specifičnih značajki u govoru koje su izmjerene u svakom snimanju u kratkim intervalima. Zatim su istraživači kategorizirali svaku od snimaka i upotrijebili ih za poučavanje računalnog programa kako zvuče "tužno", "sretno", "prestrašeno", "zgroženo" ili "neutralno".

Zatim je sustav analizirao nove snimke i pokušao utvrditi prikazuje li glas na snimci neku od poznatih emocija. Ako računalni program nije uspio odlučiti između dvije ili više emocija, jednostavno je ostavio tu snimku neklasificiranom.

"Želimo biti sigurni da kada računalo misli da snimljeni govor odražava određenu emociju, vrlo je vjerojatno da doista prikazuje tu emociju", rekao je Heinzelman.

Prethodno istraživanje pokazalo je da su sustavi klasifikacije emocija u velikoj mjeri ovisni o zvučniku, što znači da rade puno bolje ako sustav trenira isti glas koji će analizirati. "Ovo nije idealno za situaciju u kojoj želite samo pokrenuti eksperiment na grupi ljudi koji razgovaraju i komuniciraju, poput roditelja i tinejdžera s kojima surađujemo", rekla je Sturge-Apple.

Novi rezultati potvrđuju ovo otkriće. Ako se klasifikacija emocija temeljena na govoru koristi za glas različit od glasa koji je uvježbavao sustav, točnost je pala sa 81 na 30 posto. Istraživači sada traže načine kako smanjiti taj učinak trenirajući sustav glasom u istoj dobnoj skupini i istog spola.

"Još uvijek postoje izazovi koje treba riješiti ako želimo koristiti ovaj sustav u okruženju nalik stvarnoj situaciji, ali znamo da je algoritam koji smo razvili učinkovitiji od prethodnih pokušaja", rekao je Heinzelman.

Izvor: Sveučilište Rochester

!-- GDPR -->