Hoppa till huvudinnehåll
Digitalisering

Har AI-utvecklare ett samhällsansvar?

Den oerhörda datamängd som finns tillgänglig som underlag för beslut håller på att bli för stor för människan att hantera, därför behövs intelligenta maskiner. Det menar Torbjörn Hägglöf, konsult inom life science på IBM. Men med utvecklingen av självlärande datorer följer ansvar.
Gabriella Westberg Publicerad
IBM:s dator Watson.
Säg hej till Watson! Det här är IBM:s dator med artificiell intelligens, som både hör och förstår tal och snart även ser och analyserar bilder. Foto: IBM

Hälso-tech är en av de snabbast växande IT-sektorerna i världen. Varje år mångdubblas mängden data som är relevant för läkare och forskare inom life science. För att kunna hantera och filtrera datamängderna och utifrån dem ta rätt beslut behöver människan hjälp av smarta system.

- Det är det Watson handlar om, förklarar Torbjörn Hägglöf för besökarna på den årliga IT-konferensen Sime, som hölls i Stockholm i veckan.

Watson är IBM:s berömda artificiella intelligens (AI) till dator som för några år sedan tävlade mot mänskliga mästare i frågesporten Jeopardy – och vann. I korta drag är det en maskin som svarar på verbalt ställda frågor med en samlad minneskapacitet som vid tävlingstillfället rymde fyra terabytes, eller 200 miljoner sidor av både strukturerad och ostrukturerad information. I dag är den ännu smartare.

Watson hör och förstår tal, men inom kort ska Watson också kunna se och analysera bilder, både stilla och rörliga - med fokus på life science. Syftet är, enligt IBM, att hjälpa forskare och i princip hela vårdapparaten att ställa rätt diagnos och ta rätt beslut.

I panelen på Sime-konferensen deltog även Claes-Henrik Julander som med sitt Pan Capital utvecklat virtuella börsmäklare – som enligt egen uppgift i ett slag svepte bort en stor del av den yrkeskategorin - och Chris Boos, grundare av Arago vars intelligenta tjänst Autopilot ska kunna automatisera 80 procent av all IT-service, från infrastruktur till affärssystem. ”Människor slösar bort sin tid med att jobba som robotar”, heter det på Aragos hemsida.

Man talar i dag om ”beneficial artificial intelligence”, det vill säga godartad artificiell intelligens - i motsats till, får man anta, något mer illasinnat. Det finns en oro för utvecklingen, inte bara bland medelinkomsttagare som riskerar att bli av med jobbet när allt fler arbetsuppgifter automatiseras.

Även bland dem som själva utvecklar självlärande datorer börjar man tala allt mer om det ansvar som följer med uppgiften.

- Vi måste vara försiktiga och öppna med vad vi gör, vi måste sätta det i perspektiv. Hur använder vi de här systemen och hur kan vi göra det på ett ansvarsfullt sätt? Gör vi det kan vi skapa system som förbättrar och förenklar allt vi gör. Människa och maskin kan tillsammans åstadkomma mycket mer än vad endera hade kunnat på egen hand, säger Torbjörn Hägglöf.

När det handlar om självlärande datorer med tillgång till stora mängder data är det viktigt att man redan i början av utvecklingsstadiet riktar in intelligensen åt ett håll som är bra för oss.

- Det vore en väldigt bra idé om människor först och främst kunde komma överens om värdet av mänsklighet och sedan börja programmera maskinerna, konstaterade Chris Boos, som dock också konstaterade att majoriteten av alla människor i världen är ganska vettiga och därför bättre ”lärare” åt maskinerna än enskilda.

- Växer du upp inom maffian lär du dig att den typen av samhällsskick är normalt. Majoriteten tänker inte så, konstaterar han.

Att kringgå regler är dock människans främsta egenskap, menar Chris Boos, medan maskinerna tvärt om bara kan följa regler. Om vi kan uppvärdera det mänskliga och nedvärdera de egenskaper maskinerna gör bättre, har vi kommit en bra bit på väg mot att utveckla en god artificiell intelligens.

- Vad är det då vi ska nedvärdera? Beslutsfattande eller empati? I framtiden kanske en sjuksköterska ska få högre lön än en läkare, eftersom empatin inte kan ersättas av en maskin, spekulerar Chris Boos.

Kombinationen av artificiell intelligens och big data är superhett inom life science och hälsotech, men utvecklingen pågår på alla områden.

E-handlare som Amazon har börjat laborera med drönare för att leverera paket. Både Volvo och Mercedes har tagit upp kampen mot Google och presenterat självkörande bilar. Delningsekonomins app-baserade tjänster raderar behovet av tusentals mellanhänder inom alla möjliga branscher och på svenska nyhetssajter kan man redan i dag läsa texter författade av journalistrobotar. Läkare, säljare, administratörer, städare, bankirer; ingen yrkeskategori går säker från den här omställningen. Men utvecklingen går olika fort i olika branscher. Och även det bör utvecklarna tänka på, menar Chris Boos.

- Ansvaret ligger hos var och en som bygger de här systemen, att tänka efter. Om anställda inom IT-branschen blir friställda kommer de nog snart ha något annat att göra. Men tjänster som Airbnb innebär en mer smärtsam omställning för dem som blir utbytta. Jag sörjer inte för de förändringsobenägna, men människor behöver tid att ställa om. Och vissa branscher borde faktiskt använda smarta IT-lösningar mindre, för att inte bli helt bortsvepta, sa Chris Boos, och exemplifierade med bank, finans och telekom.

Men möjligheterna med en accelererande, självlärande förmåga att hantera allt större mängder data övertrumfar ändå oron, åtminstone i panelen på Sime-konferensen.

- Vi kommer att se tillbaka på den här tiden och fråga oss hur vi kunde ta några beslut alls utan data. Det kommer att hända helt snart, säger Torbjörn Hägglöf.

- Redan i dag undrar man hur man någonsin kunde stämma träff med sina vänner utan mobilen. Vi kommer att bli den sista generationen som inte var herrar över vår tid. Det är vad vi får tillbaka, tid. Vi måste bara använda den klokt, säger Chris Boos.

- Det är en fantastisk game changer. Och det som gör mig upprymd är den unga generationen. De ser inga hinder!, säger Claes-Henrik Julander.

Andra intelligenta datorer

Google är ett annat företag med en stor målsättning: att samla all världens kunskap. Googles AI TensorFlow bygger på öppen kod och tar alltså omvärlden till hjälp för både utveckling och innehåll. Ansvarig utvecklingschef är Ray Kurtzweil, som uttryckt förhoppning om att utveckla en inte bara intelligent men också medveten dator – en artificiell, självlärande hjärna.

Poängen med en självlärande dator är att den inte alltid behöver programmeras för utveckling, den behöver snarare matas med information. Ofta är det du och jag som matar den. Till exempel matar många av oss Facebooks AI-projekt, som för närvarande går under det ödmjuka namnet FAIR och bland annat ska kunna känna igen ansikten och ”underlätta kommunikation”, oklart hur.

Säkert är att det inom bara ett par år kommer att finnas tänkande AI-system i en ficka nära dig, det enligt tidningen The Wired. Det händer så snart mobiltelefonernas chip och grafikkort anpassats för det, och den utvecklingen går fort. Då kan i teorin den med svag syn ta hjälp av mobilkameran för att identifiera grannens katt. Och vem vet vad annat.

Bläddra i senaste numret av våra e-tidningar

Bläddra i senaste numret av Kollega

Till Kollegas e-tidning

Bläddra i senaste Chef & Karriär

Till Chef & Karriärs e-tidning
Till vänster en kvinna som får sitt ansikte skannat. Till höger AI-experten Andrew McStay.
Teknikföretag marknadsför emotionell AI som kan tolka känslor, men enligt forskare är det långt ifrån verkligheten. ”Det fungerar inte särskilt bra”, menar experten Andrew McStay (bilden). Foto: Colourbox/Ben Bland.

Artikeln sammanfattad:


Startup-företag marknadsför AI som kan läsa av känslor, men forskare och aktivister är skeptiska till teknikens effektivitet.

Emotionell AI används redan i många branscher, men kritiker menar att tekniken bygger på felaktiga antaganden och generaliseringar.

Förespråkare hävdar att tekniken fungerar, men erkänner att det finns kulturella och individuella variationer i känslouttryck.

Den här sammanfattningen är gjord med hjälp av AI-verktyg och har granskats av Kollegas webbredaktör. Kollegas AI-policy hittar du här.

Datorer som läser av människors känslor kan låta som science fiction. Men som Kollega tidigare har rapporterat används sådana AI-program redan i en lång rad branscher – och har testats i de ljudisolerade kontorsbås som finns i många öppna kontorslandskap.

Så hur går det till? Först och främst behöver man låta en dator filma ens ansikte, eller mäta saker som puls, röstläge och svettningar. Andrew McStay, chef över forskningscentret Emotional AI Lab vid walesiska Bangor University, berättar vad som händer sedan.

– De flesta program lägger samman utåtriktade beteenden i ett kluster. Ansiktsuttryck, till exempel. Ett raster läggs över en människas ansikte, och på så vis mäts områden runt hakan, ögonen, munnen, näsan och andra muskler i ansiktet. 

– Då kan man mäta ansiktsuttryck, och idén är att om man kan mäta ansiktsuttryck så kan man anta vad personen känner.

Datorns kamera fångar alltså mikroskopiska förändringar i ens minspel. De kopplas sedan till 5-10 olika känslokategorier: glädje, sorg, ilska, förvåning, med flera. 

Fungerar inte särskilt bra

Andrew McStay är skeptisk till teknikens två utgångspunkter – att människors inre känsloliv kan delas in i ett fåtal kategorier, och att känslor kan avläsas genom att snabbt titta i ansiktet. Han har fått samma fråga många gånger: fungerar det verkligen?

– Gällande de flesta sådana här system och teknologier, som utvecklas av startupföretag och marknadsförs i dag, så är det breda svaret: nej, de fungerar inte särskilt bra.

Han fortsätter:

– Den övergripande idén med de här teknikerna är att om man förstår utåtriktat beteende så förstår man någonting om vad som pågår inuti en person. Ofta är det ett problematiskt antagande.

AI-programmen har byggts genom att dela in en stor mängd filmade ansikten i de känslokategorier som nämns ovan. De kategoriserade videorna har sedan använts som träningsdata till algoritmer, i en process som kallas maskininlärning (se faktaruta). Därför kan känsloavläsningen nu ske automatiskt, utan att människor är inblandade.

Emotionell AI får kritik av forskare

McStay är inte ensam i sin kritik. I förarbetena till EU:s nya AI-lag (se faktaruta) konstateras att det finns en ”allvarlig oro över den vetenskapliga grunden” för emotionell AI. Människorättsorganisationerna Access Now och European Digital Rights, dataskyddsmyndigheter i bland annat Storbritannien och profilerade psykologer har uttryckt samma sak.

Men forskarna är inte eniga. Många företag som sysslar med emotionell AI ser sig som arvtagare till Paul Ekman – en amerikansk psykolog som forskat om just mikroskopiska förändringar i ansiktsuttryck och hur de hänger ihop med våra känslor. 

En av de som hänvisar till Ekman är Graham Page. Han är chef över den största avdelningen på Affectiva, ett företag som enligt egen utsago uppfann produktkategorin emotionell AI. I dag ingår de i den svenska Smart Eye-koncernen.

– Vi upprepar i princip de saker som Ekman och andra har upptäckt, säger han när Kollega ringer upp.

Skamsen eller glad - hur kan AI veta skillnaden?

De som uttryckt kritik mot tekniken menar bland annat att människors känslouttryck varierar mellan kulturer, grupper och enskilda individer, och att de breda generaliseringar som krävs därför inte kan göras. Graham Page säger att han delvis håller med.

– Det stämmer, så till vida att man till exempel kan le för att man skäms. Eller rynka på näsan för att det kliar, snarare än att man känner sig äcklad. Men de generella dragen stämmer fortfarande.

Det händer att vi förenklar saker i marknadsföringssyfte.

Han säger att den träningsdata som Affectiva byggt sin AI på – över 17 miljoner ansiktsvideor – har hämtats från så många länder som möjligt för att minska risken för fördomsfulla algoritmer. Han säger också att en människa nästan alltid är inblandad när resultaten från Affectivas emotionella AI samlas in och analyseras.

Men trots det kan ert system läsa av mitt leende, dra slutsatsen att jag är glad och skriva ut det på en skärm. Jag testade det själv hos Smart Eye. Finns det inte risker med det?

– Jag tror att du har fått se en liten del av alla mätpunkter, säger Graham Page och fortsätter:

– Det händer att vi förenklar saker i marknadsföringssyfte. Men när vi lär upp de som ska använda produkterna är vi tydliga med hur det fungerar, så att de kan förstå på djupet. Oftast betyder ett leende glädje, men inte alltid. Vi erkänner det.

Men de som är skeptiska till att man alls kan generalisera och läsa av känslor på det här sättet, de har fel?

– Ja.

Intervjun går mot sitt slut. Graham Page säger att den blev ungefär som han förväntade sig. Han tycker att diskussionen om vetenskapligheten i emotionell AI ibland ”fastnar i teorin”.

– Menar de på allvar att man inte kan utläsa någon information om hur en människa mår genom att titta i personens ansikte? Självklart kan man det.

Det här är del tre i Kollegas serie om emotionell AI. Del ett hittar du här och del två kan du läsa här

Affectivas träningsdata

Affectivas algoritm för känsloavläsning har tränats på över 17 miljoner ansiktsvideor från mer än 90 länder, enligt egna uppgifter.

Företaget uppger att videorna har samlats in genom marknadsundersökningar och konsumentpaneler, och att alla personer som har studerats har godkänt det.

Maskininlärning

Ett av de statistiska grundverktygen inom AI. Går ut på att skapa algoritmer som läser av en stor mängd tidigare data och därigenom kan skapa generaliseringar om nya data.

På så vis kan ett datorprogram ”lära sig” hur en uppgift förmodligen ska utföras, baserat på tidigare erfarenhet.

För att det ska fungera behövs stora mängder data om uppgiften som ska utföras, rätt kategorisering av informationen och omfattande processorkraft.

EU:s nya AI-lag

EU:s övergripande lagpaket om AI är världens första i sitt slag. Det reglerar AI-verktyg utifrån risknivå – ju högre risk, desto större ansvar för den som skapar och använder verktyget. Det som anses allra mest riskfyll blir helt förbjudet. Hit hör bland annat emotionell AI som riktas mot anställda, men även mot skolelever. 

Lagen trädde i kraft i augusti 2024, men reglerna börjar gälla med olika fördröjning. Först ut är förbuden, som börjar gälla från februari 2025.