Älskar du frågesport?
Då har du tur. Idag publicerar vi vårt påskquiz - och varje fredag kommer ett nytt. Lycka till!
Då har du tur. Idag publicerar vi vårt påskquiz - och varje fredag kommer ett nytt. Lycka till!
Kollega kunde nyligen berätta att läkemedelsbolaget Astra Zeneca infört digital övervakning av personalen med syfte att kontrollera hur ofta medarbetarna är på kontoret. Unionenklubben har motsatt sig övervakningen men förhandlingarna fick inte arbetsgivaren att ändra uppfattning.
Att facket, som på Astra Zeneca, får vara med och förhandla införandet av nya IT-system tycks vara ett undantag. En ny undersökning som Unionen gjort bland förtroendevalda visar att på nio av tio arbetsplatser har facket överhuvudtaget inte fått vara med och påverka när nya digitala verktyg införts.
– I och med att systemen utvecklas med de här nya övervakningsfunktionerna blir det en tydlig arbetsmiljöfråga. Vi har kommit till en punkt där vi måste göra något innan situationen blir ohållbar, säger Unionens förbundsordförande Peter Hellberg.
Han påpekar att nya digitala system varit ett område som bolagens IT-avdelningar bestämt över, men när tekniken utvecklas bör arbetsgivarna tänka om. Utvecklingen med system som gör allt större intrång i den personliga sfären är något som oroar Unionen.
– Även om man är på jobbet, och inte har samma rätt till privatliv som på fritiden, finns det saker som arbetsgivaren inte har med att göra. Om inget görs är risken att det kommer att påverka arbetsmiljön negativt för många medlemmar. Missnöje och avsaknad av tillit kan leda till lägre produktivitet, säger Peter Hellberg.
Vad är orsaken till att arbetsgivare inte involverar facket i de här frågorna?
– En spekulation från min sida är att det är en kombination av okunskap och att många arbetsgivare anser det vara en icke-fråga, det vill säga att man inte anser att man använder systemen på det sätt som medarbetarna befarar.
Finns det anledning att se över lagstiftningen kring det digitala området?
– Min bild är att vi redan idag har den möjligheten i mbl (medbestämmandelagen red. anm.) Ett nytt IT-system är en påverkande fråga och då ska det mbl-förhandlas. I skrivande stund tittar vi på om det kan behövas lagstiftning på det digitala området och det kommer vi få skäl att återkomma om.
– Unionen har en handledning kring hur förtroendevalda kan förhandla de här frågorna men vi har varit lite dåliga på att sprida den. Integritet och övervakning i arbetslivet blir allt viktigare för våra medlemmar och vi måste börja ta den frågan på större allvar.
Dagen börjar med ett högaffektivt skrik mot vinterkläder. På något sätt kommer barnen i tid till sina institutioner. Hemma hos jonglören plingar jobbmejlen parallellt med förskolans notiser om löss och magsjuka. Jonglören tar ett djupt mindfulness-andetag och försöker jobba ikapp förra veckans vabb.
Den här gruppen får mest gjort hemma, tycker de själva. En slipper restid, kan spara in på hunddagis och hämta telningarna nästan i tid. Distansmöjlighet och flex är ett krav på den moderna arbetsgivaren. Telefonmöten hålls med avbrott för hostattacker och begäran om ”Mer skärmtid!”.
Jonglören dyker visserligen in på kontoret ibland, men mest för att dela varmt kaffe och överlevnadstips med andra småbarnsföräldrar.
Träffas är väl rätt onödigt sedan internet uppfanns, tycker Spöket. Därefter var pandemin det bästa som hänt i arbetslivet. Äntligen blev det okej att jobba hemma utan jobbig interaktion med en komplex jobbfamilj man fick på köpet med lönen.
Bu! Likt en osalig ande kommer Spöket ibland in på kontoret vid fullmåne, eller gör en blek tumme upp i chatten för att visa att hen lever på andra sidan.
Men meningslöst småprat, sega möten och prat om privatliv borde förbjudas på arbetstid, tycker Spöket. Hen vill bara få jobba på - i fred. Dessutom är Spöket en osynlig stjärna. Jobbet blir bra gjort, även om inget vet riktigt hur eller av vem.
När Förändringsmotståndaren började sin karriär fanns det knappt datorer. Alla hade ett eget rum och var på kontoret jämt – sjuka eller ej. Man skrev ut sina papper i ordentliga högar. Det togs riktig fika, två gånger per dag, och var sak i tur och ordning.
F-motståndaren sitter ofta (ensam) på ett lugn, en kunskap och en erfarenhet som inte alltid tas till vara på kontoret.
Nuförtiden är visst alla hemma jämt - utom Förändringsmotståndaren. På kontoret måste man i och för sig gå runt som på högstadiet med sina tillhörigheter i ett litet skåp. Ingen har tid för kaffe och kaka, i stället stressar de runt och undrar varför de är så trötta.
Jobba på plats eller hemma? Allt funkar! "Det känns som jag jobbar hårdast här". Tänker rookien. Och det är ofta den yngsta, nyanställda och konsultens lott. Rookien måste bevisa sig och göra grovjobbet som andra skyr. Morgon, sen kväll, helg och natt. Allt är okej så länge rookien känner att hen utvecklas och går framåt och det kommer lite uppmuntran och beröm. AW – underbart!
Rookien vill komma in i gänget, synas och klättra. Hen kan verka självsäker men inunder bultar ett känsligt hjärta. Var snäll mot rookien och hen kommer leverera tillbaka. Kritisera inte för hårt - rookiens värsta mardröm är att bli avslöjad som okunnig.
Vi måste få folk tillbaka till kontoret efter pandemin, säger Karriäristen (som ofta är chef). Möten (som hen ofta ska leda) funkar trots allt bäst på plats.
Men samtidigt gillar Karriäristen själv friheten i att vara flexibel de dagar det passar en padeltid, nätverkande lunch eller dotterns konsert.
Karriäristen skulle aldrig få för sig att sjukskriva sig eller vabba. Numer kan ju alla kontorister jobba lite närsomhelst, varsomhelst och det är inget problem, i alla fall inte för Karriäristen själv som gärna tar mötena från Mallorca på julafton.
Men det vore nog bra om medarbetarna själva var lite mer på plats.
De fem karriärtyperna är hämtade från ISS enkät och rapport Arbetspusslet som listar fem moderna ”medarbetarpersonas”. De ska enligt rapporten tas med ”en nypa salt”.
Startup-företag marknadsför AI som kan läsa av känslor, men forskare och aktivister är skeptiska till teknikens effektivitet.
Emotionell AI används redan i många branscher, men kritiker menar att tekniken bygger på felaktiga antaganden och generaliseringar.
Förespråkare hävdar att tekniken fungerar, men erkänner att det finns kulturella och individuella variationer i känslouttryck.
Den här sammanfattningen är gjord med hjälp av AI-verktyg och har granskats av Kollegas webbredaktör. Kollegas AI-policy hittar du här.
Datorer som läser av människors känslor kan låta som science fiction. Men som Kollega tidigare har rapporterat används sådana AI-program redan i en lång rad branscher – och har testats i de ljudisolerade kontorsbås som finns i många öppna kontorslandskap.
Så hur går det till? Först och främst behöver man låta en dator filma ens ansikte, eller mäta saker som puls, röstläge och svettningar. Andrew McStay, chef över forskningscentret Emotional AI Lab vid walesiska Bangor University, berättar vad som händer sedan.
– De flesta program lägger samman utåtriktade beteenden i ett kluster. Ansiktsuttryck, till exempel. Ett raster läggs över en människas ansikte, och på så vis mäts områden runt hakan, ögonen, munnen, näsan och andra muskler i ansiktet.
– Då kan man mäta ansiktsuttryck, och idén är att om man kan mäta ansiktsuttryck så kan man anta vad personen känner.
Datorns kamera fångar alltså mikroskopiska förändringar i ens minspel. De kopplas sedan till 5-10 olika känslokategorier: glädje, sorg, ilska, förvåning, med flera.
Andrew McStay är skeptisk till teknikens två utgångspunkter – att människors inre känsloliv kan delas in i ett fåtal kategorier, och att känslor kan avläsas genom att snabbt titta i ansiktet. Han har fått samma fråga många gånger: fungerar det verkligen?
– Gällande de flesta sådana här system och teknologier, som utvecklas av startupföretag och marknadsförs i dag, så är det breda svaret: nej, de fungerar inte särskilt bra.
Han fortsätter:
– Den övergripande idén med de här teknikerna är att om man förstår utåtriktat beteende så förstår man någonting om vad som pågår inuti en person. Ofta är det ett problematiskt antagande.
AI-programmen har byggts genom att dela in en stor mängd filmade ansikten i de känslokategorier som nämns ovan. De kategoriserade videorna har sedan använts som träningsdata till algoritmer, i en process som kallas maskininlärning (se faktaruta). Därför kan känsloavläsningen nu ske automatiskt, utan att människor är inblandade.
McStay är inte ensam i sin kritik. I förarbetena till EU:s nya AI-lag (se faktaruta) konstateras att det finns en ”allvarlig oro över den vetenskapliga grunden” för emotionell AI. Människorättsorganisationerna Access Now och European Digital Rights, dataskyddsmyndigheter i bland annat Storbritannien och profilerade psykologer har uttryckt samma sak.
Men forskarna är inte eniga. Många företag som sysslar med emotionell AI ser sig som arvtagare till Paul Ekman – en amerikansk psykolog som forskat om just mikroskopiska förändringar i ansiktsuttryck och hur de hänger ihop med våra känslor.
En av de som hänvisar till Ekman är Graham Page. Han är chef över den största avdelningen på Affectiva, ett företag som enligt egen utsago uppfann produktkategorin emotionell AI. I dag ingår de i den svenska Smart Eye-koncernen.
– Vi upprepar i princip de saker som Ekman och andra har upptäckt, säger han när Kollega ringer upp.
De som uttryckt kritik mot tekniken menar bland annat att människors känslouttryck varierar mellan kulturer, grupper och enskilda individer, och att de breda generaliseringar som krävs därför inte kan göras. Graham Page säger att han delvis håller med.
– Det stämmer, så till vida att man till exempel kan le för att man skäms. Eller rynka på näsan för att det kliar, snarare än att man känner sig äcklad. Men de generella dragen stämmer fortfarande.
Det händer att vi förenklar saker i marknadsföringssyfte.
Han säger att den träningsdata som Affectiva byggt sin AI på – över 17 miljoner ansiktsvideor – har hämtats från så många länder som möjligt för att minska risken för fördomsfulla algoritmer. Han säger också att en människa nästan alltid är inblandad när resultaten från Affectivas emotionella AI samlas in och analyseras.
Men trots det kan ert system läsa av mitt leende, dra slutsatsen att jag är glad och skriva ut det på en skärm. Jag testade det själv hos Smart Eye. Finns det inte risker med det?
– Jag tror att du har fått se en liten del av alla mätpunkter, säger Graham Page och fortsätter:
– Det händer att vi förenklar saker i marknadsföringssyfte. Men när vi lär upp de som ska använda produkterna är vi tydliga med hur det fungerar, så att de kan förstå på djupet. Oftast betyder ett leende glädje, men inte alltid. Vi erkänner det.
Men de som är skeptiska till att man alls kan generalisera och läsa av känslor på det här sättet, de har fel?
– Ja.
Intervjun går mot sitt slut. Graham Page säger att den blev ungefär som han förväntade sig. Han tycker att diskussionen om vetenskapligheten i emotionell AI ibland ”fastnar i teorin”.
– Menar de på allvar att man inte kan utläsa någon information om hur en människa mår genom att titta i personens ansikte? Självklart kan man det.
Det här är del tre i Kollegas serie om emotionell AI. Del ett hittar du här och del två kan du läsa här.
Affectivas träningsdata
Affectivas algoritm för känsloavläsning har tränats på över 17 miljoner ansiktsvideor från mer än 90 länder, enligt egna uppgifter.
Företaget uppger att videorna har samlats in genom marknadsundersökningar och konsumentpaneler, och att alla personer som har studerats har godkänt det.
Maskininlärning
Ett av de statistiska grundverktygen inom AI. Går ut på att skapa algoritmer som läser av en stor mängd tidigare data och därigenom kan skapa generaliseringar om nya data.
På så vis kan ett datorprogram ”lära sig” hur en uppgift förmodligen ska utföras, baserat på tidigare erfarenhet.
För att det ska fungera behövs stora mängder data om uppgiften som ska utföras, rätt kategorisering av informationen och omfattande processorkraft.
EU:s nya AI-lag
EU:s övergripande lagpaket om AI är världens första i sitt slag. Det reglerar AI-verktyg utifrån risknivå – ju högre risk, desto större ansvar för den som skapar och använder verktyget. Det som anses allra mest riskfyll blir helt förbjudet. Hit hör bland annat emotionell AI som riktas mot anställda, men även mot skolelever.
Lagen trädde i kraft i augusti 2024, men reglerna börjar gälla med olika fördröjning. Först ut är förbuden, som börjar gälla från februari 2025.