En handfull länkar 2025:16
Inställningar till AI. Jag grävde ner mig i texter om det.
Det här brevet borrar ner sig i vad jag tycker kanske är mest intressant: inställning till saker. Det är teknik, det är förändring, det är synsätt. För mig är det grunden i strategiskt tänkande: att förstå inställningen både hos mottagaren (målgruppen) men också hos sändaren (varumärket). Det är att försöka hitta svaret på frågan ”varför” men från en social och ibland psykologisk vinkel.
Den kurs som jag och min bästa vän och favorithjärna Sarah Larsson Bernhardt undervisar i på Berghs handlar många gånger om inställning. Att bygga ett varumärke i sociala medier behöver starta i både mottagarens och varumärkets inställning till både sociala medier, sociala mediers möjligheter men också den interna bias och det kunskapsgap som finns där.
Det som jag skriver om nedan känner jag igen, både från att under 16 år arbetat med strategier för sociala medier men också fortfarande ser. Både när jag möter kunder men också när vi möter elever i kursen. Och när vi lyckas att bredda och uppdatera inställningen i klassrummet så har vi lyckats.
Kursen Bygga varumärke i sociala medier går nästa gång av stapeln 26-28 november. Det finns en del platser kvar så har du lust att både utmana och få en rejäl påse kunskap från mig och Sarah så anmäl dig.
Jag är lite nyfiken på vad ni läsare tänker om min inställning till AI. Egentligen. Är jag jätteoptimist, evangelist, doomsayer, skeptiker eller nån form av mittenställning - å ena sidan å andra sidan, eller bara en iakttagare?
Jag funderar över det när jag läser Peters nyhetsbrev där han på många sätt argumenterar på många sätt som jag själv ser mig: det handlar om att förstå, lära sig, utgå från att ett verktyg kommer att skapa mer gott än ont. Läs det här först är mitt heta tips.
Läst det? Bra. För den diskussion som skedde i nyhetsbrevets LinkedIn-post (invecklat det här) är intressant. Jesper, en annan av alla de smartskallar jag har äran att känna, lyfter en argumentation som fr a riktar in sig på hur AI snabbt blivit kapat av kapitalet, och hur det vi ser nu är samma utveckling som skett exempelvis i sociala medier - och det är inte positivt. Petronella, Måns och flera chippar in.
Det här är en diskussion jag hoppas får pågå längre. Som jag tror behöver pågå just nu. Det jag landar i är att jag håller med både Peter och Jesper i olika delar.
Det positiva ligger i att prata framtiden och inte bara tekniken, att diskutera konsekvenserna och inte bara siffrorna. Vad är tangentens utdragna riktning på att AI-revolutionen riktar in sig på white collar? Vad innebär automatisering av kreativa yrken? Vad innebär AI för våra själar, för våra relationer?
Själv beskriver jag mig nog för tillfället som försiktigt optimistiskt nyfiken men med skepsis till storvulna visioner. Hur beskriver du dig?
Bubblan. Det är många som börjat att prata om ”bubblan” - AI-bubblan. Kommer vi se samma utveckling som dotcom-kraschen? Eller är AI så annorlunda att det inte sker? Daniel Karlsson har gjort en enkel genomgång av historien och sedan dragit tangenten till var vi skulle vara efter en brusten AI-bubbla. Det sista är intressant och bör kanske vara något för många att titta på redan idag: skippa hypen, titta på effektivitet, se AI som ett verktyg och vaccinera er mot FOMO.
”They are probabilistic, statistical systems that tell you what a good answer would probably look like. They are not deterministic systems that tell you what the answer is. They do not ‘know’ or ‘understand’ - they approximate.”
Att det ska vara så svårt för många att förstå den här skillnaden tänker jag när jag läser en äldre text av Benedict Evans som går igenom hur man faktiskt ska förstå ”en bättre modell” när det kommer till AI-modellerna. Även om vi får ”bättre” modeller som ger fler ”rätta” svar så är problemet lite att vi inte riktigt vet om det är rätt svar utan att vi på andra sätt säkerställer svaret. I grunden är det här problemet vi står inför: vi vill göra saker som kräver determinism men vi använder ett verktyg som bara kan probabilitet. Och att komma runt problemet är, som Ben Evans visar i sin text en smula invecklat om det ens är möjligt.
Innebär det automatiskt att AI är misslyckat? Knappast. Snarare att det gör andra saker som inget tidigare lyckats med. Men det innebär samtidigt att det inte behövs bättre modeller tekniskt utan också andra tankemodeller för oss människor för att förstå det. Lite som det exempel med Iphone som Ben avslutar med.
Det finns egentligen två sidor av AI-myntet när det kommer hur vi som människor ser på användandet. Dels är det bilden av att den som inte använder AI kommer att hamna på efterkälken, det är det nya som alla måste kunna och inte nog med att bilan hänger över kontorsmänniskor i att kunna bli utbytt mot ett AI, att inte förstå AI är nåt som kan göra att man inte få löneförhöjning, ses som framåt och effektiv (även om vi ju också har studier som visar att AI-slop skapar work-slop).
Dels är det en gissningsvis övergående värdering men som vis av erfarenhet kan vara en smula klistrig: att den som använder AI kan ses som mindre kapabel, duktig respektive kanske lat. Enligt studier från Duke University är det ett reellt problem. Korrelationen ligger i erfarenheten av att använda AI hos den som bedömer en annan person.
Vi ser det delvis i ”AI-slop”-diskussionen, där det inte nödvändigtvis handlar om att en AI-genererad text eller bild är sämre utan det negativa ligger i att en person inte lagt sig vinn om att skapa något själv. Eller den generella åsikten att den som använder AI för att exempelvis skriva ett personligt brev visar låg respekt. Diskussionen om överanvändning av tankestreck, och människors val att sluta använda sådana pga att deras text kan anses som AI-genererad är kanske det mest påtagliga exemplet på dubbelmoralen inför AI.
Istället för att se det som något smart att använda sig av ett verktyg som skapar en bra text eller en bra bild eller nåt annat så anses det som ett försök att ta genvägar, att inte vara ärlig och vi är tillbaka i saftmätar-situationen.
Problemet blir därmed tvåfalt: både i att adoptionen av AI blir lidande vilket gör att effekten minskar, och att gapet mellan synen på och den reella kunskapen om AIs fördelar inte minskas.
En lösning (?) eller åtminstone ett försök att förstå både det sociala stigmat men också att inte försöka utföra uppgifter som kräver deterministiska svar med en teknik som bygger på probabilitet försöker Ethan Mollick mejsla fram i en lång text som pinpointar ett grundläggande faktum:
Människor använder tekniken men de strategiska fördelarna finns inte pga frånvaro av mandat och ledarskap - och kanske socialt stigma.
AI adopteras i organisationer mer av FOMO och med vänsterhanden snarare än med ett strategiskt grundläggande förhållningssätt.
Organisationen är inte byggd för att hantera AI-transformationen, ledarskap saknas som kan ta organisationen till rätt förväntan, rätt förhållningssätt och därmed få effekt av det.
Mollicks lösning är ganska elegant ändå: ledarskapet, som sätter riktningen och skapar trygghet att experimentera; labbet, där idéer prövas, testas och omsätts i praktisk kunskap; och massan (den klassiska tanken om the beehive), de många användarna vars vardagliga erfarenheter ger rörelsen kraft och förankring.
En del organisationer har valt en sån väg, andra har vissa delar på plats men inte alla, andra försöker göra det men det finns kulturella problem i organisationen som gör att det misslyckas så självklart - elegans är en sak men verklighet en annan.
Det tråkiga ligger i att vi riskerar att försena det goda genom att transformationen går fel eller inte startar.
”…the worst thing you can do is give people chatbots and faster PowerPoint generation through Microsoft Copilot and call it transformation.”
Zoe Scaman tittar på strategier för AI-implementation och noterar att vi redan håller på att missa mycket. I grunden handlar det om att istället för att omfamna det faktum att AI är något annat och därmed kan göra andra saker så använder vi det för att skapa inkrementella vinster utan att fundera över hur det kan förändra organisationens arbetssätt i grunden. De lågt hängande frukterna blir hela vinsten, inte möjligheten att skapa ett nytt träd.
”Every major AI implementation should include both incremental optimisation objectives and radical scenario exploration.”
Det är ganska radikalt och för många skrämmande att inse att experimenterandet kan få konsekvenser som vida överstiger några procents effekt-ökning. För på samma sätt som vi behöver ändra synsätt på generativ AI för att förstå vad det faktiskt kan transformera så behöver vi titta på organisationen på samma sätt. Det ord som vi hatade för några år sedan börjar bli vid handen: disruption.
En mer personlig sak - jag har blivit deltidsstockholmare. Jag skriver om det på LinkedIn. För de som känner mig är det en högoddsare. Anledningen är något så analogt som kärlek. Så kan det gå.
En av fördelarna med att inte alltid behöva passa tåg till Västerås (eller till Borlänge som jag gjorde under tio år) utan kan sätta mig på tunnelbanan till Gubbängen är att jag kan gå på fler mingel, mer föreläsningar och konferenser. Det har jag saknat en hel del.
En av de som jag ska gå på redan den här veckan är Novus Knowledge Day som kommer att gräva i hur det offentliga samtalet utvecklats och varför vi inte gör något åt det. Rejäl uppställning av smarta personer kommer att diskutera ”Vad formar egentligen vår samtid? Vilka drivkrafter, värderingar och beteenden påverkar utvecklingen? Vilket håll går utvecklingen och bör vi ändra riktning?”
Kom dit du också. Redan nu på torsdag 6e november kl 12. Du får 20 % rabatt med koden: NOVUSKD2025.
Glöm inte att komma fram och hälsa!
Allt för den här gången! Tills nästa gång! /D

