En handfull länkar 25:7
Mycket om AI: terapi, själavård, research och censur. Men så lite om Youtube också.
Kommer du på Berghs AI Unconference 3e april? Det gör jag. Jag kommer dock den här gången inte att hålla någon session men jag skulle säga att om du har intresse för AI och inte minst vill hitta en konferens där ämnena är allt från filosofi till hands-on så ska du satsa på det. (Det här är inte något betalt samarbete men ja, jag är lärare på Berghs).
Det har varit lite segt att få till ett nytt nyhetsbrev. Jag är tacksam för att ha så mycket att göra i mitt vanliga jobb, med fantastiskt spännande kunder till mitt lilla enmansföretag. Idag spenderar jag dock dagen ”härarbetande” sida vid sida med min son i Uppsala, något sliten efter en konsert med Kent (man är sannerligen inte 25 längre) så perfekt tillfälle att ta en paus i statistik-produktionen och istället läsa och skriva ett nyhetsbrev.
En av de saker som jag tror vi fortfarande ligger efter i är att diskutera både etiska parametrar runt AI men också konsekvensanalyser. Flera av dagens artiklar har onekligen gett mig en del food for thoughts. Hoppas ni finner dem lika intressanta.
Och vill också välkomna en mängd nya prenumeranter. Det ger mig både känsla av stolthet men också lite rädsla för ansvaret att leverera på förväntningar. Ni är många som läser det och det gör mig glad när ni berättar det när vi ses.
Får man inte nog av mig så är jag mest aktiv på LinkedIn i min profession. Titta gärna in där och säg hej 🙂
Men nu till det här numrets en handfull länkar:
”the most critical factor influencing the success of psychological treatment is, precisely, “the therapeutic bond” between two individuals who share fundamental human experiences, such as “the fear of death, the search for meaning, or the responsibility that freedom entails.”
Kan AI ersätta en människa som samtalspartner när det kommer till mental hälsa och psykologiska problem? Det är en fråga som en del personer försöker hitta svar på. El País har skrivit en längre genomgång av problematiken och hur universat ser ut. (Ett sidospår är de exempel som finns där vi sett hur AI-samtalspartners blivit nästintill beroendeframkallande för människor).
Om vi räknar dagens AI-hype ungefär två-tre år tillbaka i tiden så har olika försök med bot-psykologer mycket längre tid bakom sig. På gott och ont. Idag accelererar det här segmentet exponentiellt samtidigt som det finns oerhörda etiska problem inbyggda i det hela.
Självklart är det så att vissa delar av psykologiskt stöd kan stödjas av välbyggda AI-agenter; inte minst inom KBT där mycket av arbetet bygger på modeller och processer. Men precis som inledande citat påpekar: hur omskapas en relation mellan en patient/konfident och en vårdgivare/samtalspartner om den sistnämnda inte är en människa? Hur förändras styrkeläget, hur förändras utkomsten och hur förändras terapins grundläggande relation.
Runt psykologin och behandling känner jag att jag har för lite kunskap. Ska ta ett snack med min psykolog-studerande dotter.
Men som utbildad själavårdare kan jag fundera över hur själavård skulle se ut om konfidenten möter ett AI? Självklart finns det både för- och nackdelar: en fördel är nån form av avsaknad av teologisk bias, eller snarare: välj rätt teologisk AI för att fungera tillsammans med konfidentens egen grundläggande tro. Samtidigt innebär det här också att möjligheten till nya perspektiv inte blir lika framgående. Även i själavården finns ett starkt stråk av att både konfident och själavårdare går in med erfarenheterna av de stora frågorna om liv och död; nåt som AI åtminstone än så länge mest kan kopiera och prata om teoretiskt men inte självupplevt. Vilket å andra sidan alla själavårdare inte heller kan om man inte upplevt det man möter.
Om man drar det till sin spets när det kommer till själavård så blir frågan om hur en AI-själavårdare kan förhålla sig till själavårdens grundläggande byggsten. Gud. För upplevelsen av Gud är subjektiv och kan i mångt och mycket sägas vara djupt mänsklig. Samtidigt är den så metafysisk att även som människa bygger det på en form av ”hallucination” i meningen att upplevelsen är lika teoretisk som den blir för ett AI. Ett AI har inte självmedvetandet av att vara troende eller inte, den har lärt sig något och arbetar sedan med sannolikheter vad som är rätt nästa steg i sina svar; samtidigt som en person i existentiell kris kan vara minst lika vilse och luta sig åt det som man lärt och drivs av vad som sannolikt är det rätta svaret.
Onekligen borde temat ”Kyrkan och AI” vara en intressant diskussion redan idag. Vad tänker du? Kommentera gärna nedan.
Vem är mest öppen för att implementera AI i sin vardag? De flesta av oss skulle nog säga early adopters med hög teknisk förståelse. En undersökning visar dock att det kanske inte är fullt så enkelt. Genom att använda “lower literacy-higher receptivity” som testbädd visar det sig att det snarare är så att den som har låg kunskap om AI tenderar att använda den mer oreflekterat i samband där den med högre kunskap skulle vara mer skeptisk. Det är en intressant aspekt även om jag kan tycka de drar stora växlar på en hypotes.
Vad ska marknadsförare använda AI till? Tack och lov har vi snabbt gått förbi tiden där marknadsförare trodde att själva grejen att säga att något är gjort med AI är hela idén. Idag ser man många inom marknadsföring som testar olika sätt att arbeta med generativ AI i alla former. Digidays Jessica Davies och Sam Bradley gör dels en ”agenter for marketer dummies”-genomgång men framför allt tittar de på AI-agenters möjlighet (demo för Digiday+)i marknadsföring. Hela agent-utvecklingen går fort och jag har skrivit en hel del om det i tidigare brev. Här blir det klart att det framförallt är möjligheten att använda kraften i AI för att skapa planer; det faktum att man kan skapa ett agentnätverk som snabbt kan skapa mediaplaner är onekligen en reell konkurrent till klassisk mediaplanering. Men också att kunna låta olika agenter göra research, skriva drafts utifrån research och bygga moodboards, storyboards ända till att faktiskt producera innehåll är nåt som kan omskapa mycket av vårt arbete som marknadsförare. Om vi för ett par år sen tittade på det vanliga generativa AI som framtiden så är funktioner som reasoning-motorer, deep research och agent-ramverk idag det vi behöver förhålla oss till.
Ett av problemen vi har med AI handlar fortfarande om metaforiken - vilken analogi använder vi om AI? Grunden för att hitta rätt effekt handlar mycket om hur vi förstår det vi arbetar med. Om något är ett verktyg så har vi både en speciell förförståelse, ett inlärt sätt att närma oss det och en specifik förväntan på utkomsten av att använda det. Om vi tänker något som något annat så förändras både förförståelse, närmande och förväntan.
AI har utmanat oss rejält i detta. Hur ska vi faktiskt förstå det? För att vi ska kunna använda det effektivt behöver vi hitta ett sätt att förklara det för oss själva.
När jag pratat med organisationer om AI så har jag ofta sagt ”tänk er en kollega, ibland kanske lite junior men mycket villig att lära och göra om” snarare än att det handlar om nån form av plattform eller verktyg. Det är glädjande att se att undersökningar stödjer det: Ethan Mollick har i sitt senaste nyhetsbrev beskrivit grunderna för en stor undersökning som gjorts och som visar att AI använt som en del av ett team tenderar att lyfta vad som kommer ur gruppen.
I korthet: en grupp som arbetar från olika delar av ett företag utan AI kommer dels vara kvar i sina respektive roller och inte producera så mycket högkvalitativt som både individer som har AI som sin team mate eller grupper som också har AI som en del av teamet. Plus att de som har stöd av ett AI är lyckligare.
Vad man kan dra för slutsatser av ett sånt här paper? Förutom att man skulle kunna säga att undersökningens analogi kanske har en liten svaghet (är det inte i form av ett verktyg som grupper och individer fått använda AI) så stödjer det ändå synen runt att hellre se AI lite mer antropomorft än att se det instrumentellt. Plus att det visar att genom att AI på många sätt är ”oberäkneligt” på ett positivt sätt så skapar det en grund för högre kreativ output ur samarbeten mellan människor.
Slutsatsen blir ”To successfully use AI, organizations will need to change their analogies. Our findings suggest AI sometimes functions more like a teammate than a tool. While not human, it replicates core benefits of teamwork—improved performance, expertise sharing, and positive emotional experiences.”
”Men vad ska vi använda nu?” sa Sarah när jag berättade nyheten att Skype läggs ner. För oss fortfarande en go to när vi ska göra något tillsammans, trots att vi har tillgång till andra mer moderna plattformar (om än inte omtyckta). Men det är en plattform vi är vana vid, den är fortfarande höggradigt funktionell och som vi använt från 2011 när vi började jobba ihop. Så det var en nyhet som egentligen inte var överraskande men ändå blev en form av liten chock.
Om Malik har även han varit med länge och skriver om Skype som viktig plattform genom en transformations-resa av internet, med möjligheten att i realtid kunna samarbeta med varandra och se varandra. Minst lika omvälvande som vilken AI-agent som helst back in the day. De delar som han ser är hur Skype var en viktig del både att implementera nätverkseffekter, redan tidigt det första av vad web3 nu vill bygga: distribuerat internet med många noder. Men också hur Skype i sig blev en kulturell ikon: otaliga är exemplen på stora filmer och serier där Skype varit centralt som kommunikationskanal.
Samtidigt är det ju nu så att det som Skype som stand alone-produkt lanserade är idag inbyggt eller omskapat flera gånger om: Facetime är självklar för många som kommunikationskanal, Meta har det implementerat i alla sina plattformar, självklart har vi Zoom, Teams och Meet som (delvis) stand alone men del av större sammanhang och med lager av funktionalitet som Skype aldrig fick.
Så inför vår nästa kurs på Berghs i början av maj får jag och Sarah helt enkelt ringa vårt sista Skype-call för att förbereda kursen. Nåt vi gjort sedan 2012.
Ben Evans lyfter ett antal grundproblem med de olika deep research-versioner som vi nu ser: att de kräver ganska mycket av användaren för att säkerställa att det i grunden är rätt. Det är en intrikat artikel och viktig, eftersom den egentligen lyfter grundproblemet vi länge haft och länge (antagligen) kommer att ha: istället för att vara deterministisk i sin approach så är ett LLM probalistisk; sannolik utkomst vs verifierad fakta. Hans genomgång av en relativt enkel sökning på ChatGPT Deep Research lyfter både problemen men jag tycker också att man får ett antal bra infallsvinklar för att som användare säkerställa en bättre output.
Hur stort är Youtube? Bara Google vet och de är dåliga på att berätta det. Det är ingången till en ganska rolig form av undersökning som gjorts för att försöka förstå Youtube så här när de fyllt 20 år. Sättet det gjorts är genom att använda ganska avancerad scraping där randomiserade youtube-adresser används för att hitta ett större urval av videos för att förstå plattformen (analogin med fylle-ringning är både fyndig och pinpointad). Som väntat visar den dels att det är bisarra mängder video som läggs upp varje dag, och att median-visningen för en Youtubevideo är 41 visningar.
Det intressanta i det här är själva diskussionen runt det hela: att Youtube istället för en plattform kanske kan ses som en infrastruktur; och hur det då idag skevar genom reglering och tillgång. Men också det faktum att genom att vara så stor så har algoritmen en väldigt stor påverkan på allt från allmän kunskapssyn till samhällspåverkan. Något som alltid diskuteras när det gäller rena sociala medieplattformar men ytterst sällan när det kommer till Youtube.
BBC-artikeln är både rolig för den som är intresserad av undersökningsmetodik, vill ha ett hum om storleken men också fundera över själva impacten.
Att AI i viss mån är ett verktyg ändå (oavsett diskussionen om analogi ovan) visar inte minst det faktum att det kan användas till bra saker och till dåliga saker beroende på intention. De senaste findings runt att kinesiska myndigheter använder AI för att hitta dissidenter och censurera innehåll är knappast oväntade, men de ger också en chilling effect i och med att vi globalt sett ser en stark utveckling av autokratisk styrning, och starka drivkrafter mot att undertrycka åsikter som går emot de styrande. Så även om vi självklart behöver fundera över fascinationen runt Deepseek och andra från Kina kommande AI-produkter även fundera vad som kan komma att ske i och med en förändrad inställning hos andra administrationer, inte minst den amerikanska, gentemot andra AI-tjänster och företag.
Det var alltför nu. Hoppas vi ses den 3e april eller i andra tillfällen!
/D