Datorer som läser av människors känslor kan låta som science fiction. Men som Kollega tidigare har rapporterat används sådana AI-program redan i en lång rad branscher – och har testats i de ljudisolerade kontorsbås som finns i många öppna kontorslandskap.
Så hur går det till? Först och främst behöver man låta en dator filma ens ansikte, eller mäta saker som puls, röstläge och svettningar. Andrew McStay, chef över forskningscentret Emotional AI Lab vid walesiska Bangor University, berättar vad som händer sedan.
– De flesta program lägger samman utåtriktade beteenden i ett kluster. Ansiktsuttryck, till exempel. Ett raster läggs över en människas ansikte, och på så vis mäts områden runt hakan, ögonen, munnen, näsan och andra muskler i ansiktet.
– Då kan man mäta ansiktsuttryck, och idén är att om man kan mäta ansiktsuttryck så kan man anta vad personen känner.
Datorns kamera fångar alltså mikroskopiska förändringar i ens minspel. De kopplas sedan till 5-10 olika känslokategorier: glädje, sorg, ilska, förvåning, med flera.
”Fungerar inte särskilt bra”
Andrew McStay är skeptisk till teknikens två utgångspunkter – att människors inre känsloliv kan delas in i ett fåtal kategorier, och att känslor kan avläsas genom att snabbt titta i ansiktet. Han har fått samma fråga många gånger: fungerar det verkligen?
– Gällande de flesta sådana här system och teknologier, som utvecklas av startupföretag och marknadsförs i dag, så är det breda svaret: nej, de fungerar inte särskilt bra.
Han fortsätter:
– Den övergripande idén med de här teknikerna är att om man förstår utåtriktat beteende så förstår man någonting om vad som pågår inuti en person. Ofta är det ett problematiskt antagande.
AI-programmen har byggts genom att dela in en stor mängd filmade ansikten i de känslokategorier som nämns ovan. De kategoriserade videorna har sedan använts som träningsdata till algoritmer, i en process som kallas maskininlärning (se faktaruta). Därför kan känsloavläsningen nu ske automatiskt, utan att människor är inblandade.
Emotionell AI får kritik av forskare
McStay är inte ensam i sin kritik. I förarbetena till EU:s nya AI-lag (se faktaruta) konstateras att det finns en ”allvarlig oro över den vetenskapliga grunden” för emotionell AI. Människorättsorganisationerna Access Now och European Digital Rights, dataskyddsmyndigheter i bland annat Storbritannien och profilerade psykologer har uttryckt samma sak.
Men forskarna är inte eniga. Många företag som sysslar med emotionell AI ser sig som arvtagare till Paul Ekman – en amerikansk psykolog som forskat om just mikroskopiska förändringar i ansiktsuttryck och hur de hänger ihop med våra känslor.
En av de som hänvisar till Ekman är Graham Page. Han är chef över den största avdelningen på Affectiva, ett företag som enligt egen utsago uppfann produktkategorin emotionell AI. I dag ingår de i den svenska Smart Eye-koncernen.
– Vi upprepar i princip de saker som Ekman och andra har upptäckt, säger han när Kollega ringer upp.
Skamsen eller glad - hur kan AI veta skillnaden?
De som uttryckt kritik mot tekniken menar bland annat att människors känslouttryck varierar mellan kulturer, grupper och enskilda individer, och att de breda generaliseringar som krävs därför inte kan göras. Graham Page säger att han delvis håller med.
– Det stämmer, så till vida att man till exempel kan le för att man skäms. Eller rynka på näsan för att det kliar, snarare än att man känner sig äcklad. Men de generella dragen stämmer fortfarande.