En handfull länkar 24:4
Ett långt intro om igenkänning och Jocke Jardenberg och sedan en mängd länkar som hålls samman av temat makt och AI.
Återseendets glädje. Jag brukar (dumt nog) avsluta kvällarna med en tur i min For You-tab på TikTok. Den styrs av vad jag intresserar mig av. Som sedan snabbt visas mer av. Algoritmen på TikTok är speciell och vi ser hur fler och fler applicerar den här modellen på sina algoritmer (hej Threads!). Många filmar sig när de återvänder hem, dels är det en stor del soldater som kommer hem från utlandstjänstgöring men också barn som varit på andra sidan världen. Inte minst pandemin gör att familjer varit skilda från varandra i åratal.
Förutom att jag självklart kan identifiera mig med föräldrars glädje att äntligen få krama sin avkomma så triggar filmerna mitt intresse i automatiserade beteenden. Hur en sån överraskning som det är att plötsligt se någon som man inte sett på mycket länge innebär ett faktiskt chocktillstånd vilket därmed följs av svårighet att ta in det som händer, flykt- och skyddsbeteende liksom emotioner som är svåra att hantera. Vet inte om ni sett såna filmer men generellt så slår chocken till och personen stannar upp; ofta med händerna för ansiktet, sen snabbt går personen ifrån den som kommit, går undan eller faller ihop och liksom skyddar det viktigaste (framsidan av kroppen). Helt enkelt så tar våra automatiska beteenden över när hjärnan har fullt upp med att hantera ett plötsligt överflöd av information - och kroppen ser till att vi undviker det som vi inte ännu förstår dvs att det är en fara tills motsatsen är bevisad.
Det här kan vara en viktig pusselbit i kommunikation, inte minst när vi ser mer av emotionella inslag i reklam, när vi har en trend av ”unhinged” kommunikation i sociala media liksom att mer och mer av ”chockvertising” dyker upp above the fold. Helt enkelt så kan det här få ett oväntat svar, eftersom vi även som mediakonsumenter fortfarande har samma beteenden som i den verkliga världen. Helt enkelt att något som vi som kreatörer hoppas ska skapa en direkt respons kanske snarare skapar flykt och försvar i publikens beteenden. Det är viktigt att jobba med emotioner men också viktigt att förstå vad de gör med oss, och hur responserna faktiskt fungerar.
Ett återseende som dock inte innebar detta utan mer av stor glädje och ett ”äntligen” är att min vän Jocke Jardenberg återstartat #ensakidag. Under mer än ett år så hade vi möjligheten att varje morgon titta på en knappt fem minuter video (eller podcast) där han spanar på nåt inom tech som är värt att fundera över. Det blev en community runt det som fortsatte diskussionen och ett bättre exempel på micro-learning går nog inte att få. Nu är han igång igen; och tar självklart hjälp av AI, automatisering och av ny enkel teknik för att få upp en postning på snart sagt alla tänkbara plattformar samtidigt. Jag tycker ni ska följa honom. På Linkedin, Threads, Youtube, Facebook - den plattform som passar just dig att konsumera några minuters tech-spaning. En ny morgonrutin värd att starta.
Nu till veckans länkar som har en virrvarrig röd tråd runt ”makt” och AI.
Scott Galloway skriver i förra veckans nyhetsbrev om aktivist-investerare. Han tar sitt avstamp i universitetsvärlden och hur aktivistinvesterare går mer mot att ”Why settle for having your name on the side of a building when you can control what happens inside?” vilket är ganska oroväckande - inte minst utifrån en tanke om kulturkriget. Liksom när han påpekar att framtidens rymdutforskning till stor del styrs av miljardärers visioner snarare än statliga investeringar. Eller att medier styrs av investerares och ägares intressen snarare än av sanningen. När vi ser AI-utvecklingen så bygger den, precis som på övrig techutveckling, på privata investeringar snarare än statliga pengar. Självklart - jag är marknadsliberal - så kan jag känna att hans definition av demokrati är lite problematisk (att det handlar om att ta ifrån indivder makt snarare än att ge någon mer makt) liksom att han har ett svartvitt sätt att definiera människor. Men jag kommer inte citera de sista styckena, när han pratar om en viss miljardär… men det är en vision som är byggd för ge mardrömmar.
En av de som sitter på väldigt mycket makt är Mark Zuckerberg. I en intervju med The Verge så pratar han AGI: nästa steg i AI-utvecklingen. Zuckerberg noterar också att AI är en självklar del av metaverse och därmed självklart för Meta att arbeta med. Diskussionen om open source när det kommer till AGI är ganska oklar och i ljuset av Galloways diskussion ovan helt klart en diskussion som behöver tas: vem ska äga ett system som är generellt smart?
I en lång essä går författaren Jessica Ta igenom problematiken med att balanserandet av mänskliga värden och ett AGI. Det är en lång och filosofisk text, och det fortsätter en intressant diskurs i kommentarsfältet. De tre viktiga delarna i hennes diskussion är
1. Komplexiteten i att definiera mänskliga värden. Helt enkelt så är det redan i grunden svårt att definiera vad som är en människas värde och därmed översätta det till ett AI för dess ramverk.
2. Utmaningen med AI:s problemlösningsmetoder: Om det inte finns ett ramverk så kan ett AGI helt enkelt hitta problmelösningar som blir skadliga och farliga för människan. Det är ju en av de springande punkterna hos ”dystoperna” inom AI-diskussionen.
3. Behov av forskning av hjärnan: Ta menar att en djupare förståelse av mänsklig hjärnans arkitektur och förbättringar i mänsklig kognition är där svaren kan finnas för att skapa anpassning för ett AGI.
IMF har skapat ett AI Preparedness Index för att på så sätt kunna se vilka länder som kommer att positivt kunna utnyttja AI och vilka som riskerar att hamna i bakvattnet. Utgångspunkten är att i länder med infrastruktur och utbildning där AI kan utnyttjas effektivt kommer att få ännu mer fördelar och länder där detta är lägre utvecklat riskerar att inte kunna skörda frukterna av AI-utvecklingen. Helt enkelt riskerar AI att öka klyftorna i världen mellan fattig och rik, både på individ såväl som på nationell nivå. En viktig bloggpost som också den fortsätter på diskussionen om maktdelning inom AI.
Per Axbom har gjort ett antal texter att pedagogiskt teckna upp hur de framförallt etiska aspekterna behöver hanteras inom AI. Bland annat vilka spelare som har makt och (kan använda AI för) påverkan men har också skrivit en lång och innehållsrik "programtext” som är läsvärd. Bra person som balanserar mellan dystopier och evangelister.
En sak som diskuteras är om AI är medvetet (om sig själv och sin omvärld) och inte minst - hur ska vi veta om det är så. Jurgen Gravenstein har skrivit en översiktlig text runt definitioner och vad forskarvärlden anser i frågan idag - men också det faktum att de metoder vi har för att definiera medvetenhet inte är enhetliga och därmed inte nödvändigtvis konklusiva. Vilket innebär att makten ligger i definitionen lika mycket som i ägandet.
Forskare på MIT har börjat att ifrågasätta siffrorna runt hur många jobb som kommer påverkas (och kanske försvinna) pga AI som florerar. Detta genom att faktiskt jämföra kostnaderna mellan lön och maskin vilket åtminstone idag inte alltid visar sig för AIs fördelar. Nu är studien ganska avgränsad men gissningsvis så är deras slutsats: att förändringen går saktare än vi tror inte helt fel (förutom inom tech-världen där företagen just nu slänger ut folk till höger och vänster med förklaringen ”AI”).
AI som har sin egen makt? Tomas Seo skriver i sitt senaste nyhetsbrev om hur AI idag kan klara sig utan människor, genom att skapa egen syntetisk träningsdata. Plus att han visar hur man kan göra det. När vi människor, och kanske det som vi skapar tas ur ekvationen så är frågan vilken makt som AI då får. Det är samma intressanta fråga som när personerna bakom klassiska Re:boot-konferensen 2008 lät maskiner bygga sina egna reservdelar och fler maskiner (tidiga 3D-skrivare). Självskapande genom självreflektion utmanar oss. Jardenberg plockar självklart upp det i torsdagens #ensakidag och menar att det inte nödvändigtvis handlar om att vi människor hamnar utanför ekvationen men att vi så att säga räknar på fel sätt. “Do legendary shit”.
Just ja. Lite uppdateringar om nyhetsbrevet:
- Vi är fortfarande på Substack. Väntar på att MyFlow ska släppa upp nyhetsbrevsfunktionalitet. Samtidigt fascineras jag av Substacks ovilja att faktiskt inse att det finns gränser för hur mycket kritik man kan ta - eller så är det så illa att de tjänar mest på det som handlar om främlingsfientlighet, nazism och liknande.
- Dag i veckan för publicering. En svår nöt att knäcka när mina tester, och min fråga inte ger något konklusivt svar. Öppningsgraden är stabil oavsett dag, inflödet av nya prenumeranter påverkas inte av vilken dag jag publicerar. Så just nu kommer jag fortsätta att låta nyhetsbrevet ”flyta” och försöka få mer data för att kunna ta ett beslut. Kommentera gärna om det här.
Så en sista sak. Jag skriver ju i grunden det här nyhetsbrevet för mig själv. Utifrån det jag tycker om att läsa; ni är ju min förevändning till att spendera ett antal timmar att läsa långa texter om tech, AI, sociala medier mm. Men jag är samtidigt intresserad av inom vilka ämnen som ni helst läser om, eftersom det handlar om balans - om ingen läser så får jag svårare att använda det här som en förevändning :) Så svara gärna nedan!
Tills nästa gång!
/D
Varför kategorisera vad du skriver om? Jag tycker din styrka ligger i allmän omvärldsanalys. Du har en känsla av vad som kan vara viktigt att ta hänsyn till/reflektera över när vi möter framtiden. Att ställa en antingen/eller fråga blir fel. Jag gillar dina handfulls länkar för att jag vill ibland bli överraskad.