En handfull länkar 25:20
Sista innan jul och nyår. Jag väljer att ranta lite om det som hänt i fråga om åldersgränser, TTPA och annat. En del länkar såklart. Min outlook för 2026 kommer efter nyår. God jul och gott nytt år!
Ni vet när man får ett sånt där tjockt paket och man inser att man kan mysa upp sig i soffhörnet, kanske te eller glögg, ett tänt ljus och bara läsa resten av julen.
Det här brevet råkade visst bli så… Det tjugonde i år är bastant.
Den första texten kommer kanske bli en följetong: får se om Björn hakar på kulturdebatt-kroken 🙂
Jag vet inte om det kommer något brev i mellandagarna - jag är iofs skeptisk eftersom jag ju numera inte bara är egenföretagare och bestämmer själv utan också tillsammans med en lärare som är ledig hela julen. Så för säkerhets skull önskar jag er alla en riktigt God Jul och ett Gott Nytt År!
Björn Owen Glad har skrivit om att Australien som första land nu satt åldersgräns på sociala medier. Han noterar att ”alla har rätt” dvs både de som är för utifrån argumentet om ungas säkerhet etc men likväl att de som är emot utifrån yttrandefrihetsargument också har rätt. Gott så. Själv tycker jag dock att det finns delar i det hela som är värda att gräva i.
Men först. Ja, jag tillhör den liberala skaran. Jag är känd för att hålla både digitalt och socialt som ska vara fritt; oavsett om det handlar om stater som ger sig på att kontrollera vare sig det handlar om åldersgränser eller övervakning av mer eller mindre drakoniska nivåer. Ja, jag förstår argumenten om säkerhet och det är ett problem som teknikbolagen tagit lite för lätt på, och att de har tillgång till data som de inte alltid hanterar på rätt sätt. Amen på det. Och jag hör argumenten om att teknikbolagen har för stor makt men jag tycker inte det nödvändigtvis är ett valitt argument (jag sa ju att jag är liberal).
Det jag reagerar över är en övergripande förändrad syn på unga som inte nödvändigtvis är plötslig utan följer den gradvisa utvecklingen mot en mycket mer konservativ hållning inom samhället. Unga ska skyddas, de ska inte utsättas för saker, de ska på olika sätt ses som sköra. Det är fint i sig. Jag tror det är viktigt att det finns en vuxenvärld som säkrar ungas liv. Men frågan är när det går över till kontroll och en avgränsning som skapar en negativ utveckling för unga.
Det är inget nytt: sociala medier är vad jazzen, dansbanor, hårdrock och videovåld varit genom åren. Vi kan skratta åt det idag men när det var aktuellt så var det på allvar. Och det är idag högre stakes: både i att censurera sociala medier innan en viss ålder, skärmtidsdiskussionen sker via sociala medier både av enskilda och myndigheter (oh the irony) och samtidigt så är sociala medier potenta i att påverka oss. Det är en intressant balansgång som jag tycker att Björn och andra inte alltid tar på fullt allvar.
För genom att begränsa genom åldersgräns så låter man sociala medier få en plats där vi annars sätter: köra bil, ha sex, handla sprit, gifta sig osv. Det är inte en kanal utan något som därmed blir eftertraktat.
Genom att sätta sociala medier som det ondaste av onda, och förvägra tonåringar (för 16 är en hög ålderssiffra - i Sverige får man till och med rösta i kyrkovalet då) möjligheten både att vara sociala på det sätt som många är sociala, och som många av dem varit sociala, man förvägrar en stor del av den populärkultur som aldrig förstås av de vuxna, och man förvägrar dem möjligheten att delta i en offentlig debatt.
Det är ganska allvarliga inskränkningar. De första kommer att på olika sätt ändå sippra igenom men den sista är en ren och skär avgränsning. Det är viktigare att en 15-åring skyddas från Internet än att hen kan göra sin röst hörd i offentligheten. För generellt är det så: det finns inte längre några andra sätt.
Om vi adderar det faktum att sociala medier för unga är den primära (i princip enda) nyhetsleverantören så väljer vi därmed att förneka unga möjligheten att bli informerade. De kommer inte plötsligt surfa in på tidningssidor en masse. De kommer helt enkelt att inte veta vad som händer. Det bygger förutsättningar för de som med mindre etiska och lagliga metoder kommer skapa synlighet i gruppen: desinformation och fake news blir oemotsagda.
I min värld är det här ett problem. Jag är inte helt säker på att jag tycker det är ett mindre problem än de problem som skärmtidsapologeter, dopamin-doomers och åldersgränstillskyndare menar är det stora stygga.
Här kommer jag åter till konservatismen i det hela. Det är lätt att i det här också se att genom att driva en sån här fråga så går det också enkelt att minska ungas möjlighet att möta mångfald, förstå att det den inte är ensam om det den känner, förstå mer av världen. Därmed skapar vi en grogrund för heteronormativitet, avgränsningar i att förstå andra kulturer på annat sätt än det skolan lär ut. Genom att även läroplanen är under attack från konservativa, att vi ser hur medierna jagas både ekonomiskt och regleringsmässigt och vi har en maskin som blivit en del av sanningssägandet så känner jag mig mycket oroad för den generation som kommer. Inte för att de ska vara skadade av det de mött på Internet, snarare att de blivit bestulna på möjligheten att möta många olika saker på Internt.
Jag tror tyvärr inte att åldersgränsdiskussionen, att Child Control 2.0 eller andra repressiva regleringar för sociala medier bara är för ”barnens bästa” utan både populistiska ”kasta-barnet-med-badvattnet” och del av den samhällsutveckling vi ser där inget som går emot normen ska synas.
Man kan säga att åldersgränserna, precis som TTPA, DSA, DSM men också TikToks (eventuella) delning är en del av det som kallas Splinternet. Tomas Seo har skrivit ett nyhetsbrev om det och det är onekligen en utveckling som i sig främjar isolationism och konservatistiskt normbygge. World Wide Web är inte längre en enda utan många olika; geografiskt uppdelade pga olika regleringar, uppdelade utifrån algoritmer och mikrotargeting. Grymt bra för en konservativ normativisering och normalisering av en mer avgränsad frihet både vad gäller yttrandefrihet och möjligheter att arbeta globalt.
En del av Splinternet är att EU reglerar den globala marknaden genom att försöka skapa regler för Europa, som sällan är exekverbara för globala nätverk. Antingen utifrån vilja, ekonomi eller tekniskt möjligt.
Diskussionen om TTPA är mindre än den borde vara eftersom det är en ganska stor och genomgripande marknadsföringsreglering. Det viktigaste som många missat är att det är två saker som måste hållas separat:
TTPA handlar inte om något förbud. Det handlar om transparensmärkning och möjlighet att spåra valpåverkande meddelanden. Av all reklam: oavsett digital, analog, TVC, radio. Tutti.
Meta och Google har pga av det här förbjudit köpt politisk reklam pga att de anser sig inte kunna genomföra den tekniska utveckling som krävs för EU. LinkedIn och TIkTok har sedan länge ett liknande förbud.
Det gäller bara köpt media i båda fallen. TTPA kräver märkning av politisk reklam och spårbarhet runt avsändare för sånt som är betalat för. Och Google och Meta har helt enkelt valt att istället förbjuda det. TTPA gäller också köpta samarbeten med influencers eller andra former av tredjepartsköp (specifik arbetsuppgift o dyl).
Organiskt innehåll påverkas inte (om det inte är ett samarbete ex.vis influencerpostning). (Sen finns det en spårbarhetsdel i det hela som gäller byråbranschen men den tar vi en annan gång - den är rätt stökig).
Janne Elvelid från Meta har skrivit en förklarande text i ämnet utifrån Metas ståndpunkt och jag har läst vad som tillåts i deras material runt TTPA. Problemet är att det som TTPA gäller är valpåverkande reklam: uppmaningar om förändring etc. Men sedan länge har Meta haft sina olika restriktioner runt flera branscher, inklusive ”social issues” vilket går mycket bredare än det som TTPA handlar om.
Det innebär att flera olika organisationer ser sina annonser stoppade: RFSL, Lantmännen, industriföretag. För att de handlar om ämnen som Meta väljer att anse som politiska.
Det här innebär två problem, som oavsett om Metas intention inte är politisk, så blir dess konsekvens politisk: NGOs, hållbarhet och jämlikhetssträvanden med flera saker blir stoppade från att köpa sig räckvidd. Det är ett faktum. Det är imho en yttrandefrihetsfråga som dels Meta valt att ducka för men som också faktiskt är en sekundär-konsekvens av TTPA.
Det finns också ett ytterligare problem och därmed återkommer vi till att det inte diskuteras: personer som håller i marknadsföring, byråer mfl har oväntat lågt intresse och låg kunskap om den här problematiken.
När jag går igenom mina sparade länkar så fastnade jag på Zitrons ”The case against generative AI” från september 2025. Ju mer jag läste desto mer kändes det som att det var en historisk text; vilket är lite bisarrt. Men det är ett bevis på hur ohyggligt snabbt utvecklingen av generativ AI går just nu.
Sammanfattar man hans långa text så går den ut på följande:
Generativ AI är en bubbla, drivet av kapital men utan faktisk efterfrågan dvs ingen vill ha AI egentligen.
Nvidia är navet i en osund ekonomi där skuldfinansierade neoclouds köper GPU:er för pengar de inte har (som om det vore något nytt)
Hyperscalers bränner miljarder utan att se reell avkastning på investeringarna.
Openai och Anthropic står för nästan all intäkt – resten av marknaden är kosmetika. Typ.
Tekniken är opålitlig i grunden och därför omöjlig att skala som ersättare för mänskligt arbete.
“AI-agenter” är marknadsföring, inte teknologi. Och de fungerar dåligt.
Företagen förstår inte arbete och överskattar vad som går att automatisera.
Ingen tjänar pengar – utom Nvidia.
Hela ekosystemet är beroende av antaganden och överdrivna löften.
Kollapsen (bubbelbristningen) kommer inte på grund av teknik, utan på grund av ekonomi och brist på kunder.
Det går att uppskatta Ed Zitrons texter för det den är: en motröst till hypen. Men läser man den idag är det tydligt att flera av hans påståenden inte längre håller. Daterade på några få månader. Och en del är ganska tveksamma från början.
Det som fortfarande stämmer är egentligen tre saker.
Ja. AI är dyrt, och kostnaderna ökar fortfarande snabbare än intäkterna. Neocloud-aktörer som CoreWeave bygger på en strukturell risk då deras affärsmodell handlar om skuldsättning och ett fåtal dominerande kunder.
LLM:er är fortfarande verktyg snarare än ersättare. Vi ser verkliga produktivitetsvinster, men inte den arbetsmarknadsförskjutning som utmålats av många. Helt enkelt är det för tidigt.
Det som däremot inte stämmer längre:
Påståendet att efterfrågan saknas. Det är ju med blotta ögat möjligt att se hur AI adopteras in i arbetsflöden och att betalningsviljan faktiskt finns. Tittar man på statistik över användning så är den helt annorlunda. API-användningen har blivit en betydande marknad. På bara något år har det gått från experimentell teknik till vardagsverktyg och en del av människors verktygslåda.
Intäktsfrågan ser annorlunda ut idag. Microsoft tjänar visserligen inte något i relation till de massiva investeringarna, men AI-relaterad Azure-trafik är en av de snabbast växande intäktsposterna i bolaget. På samma sätt har OpenAI och Anthropic breddat sina intäktsströmmar och ökat försäljningen mot företag. Det betyder inte att de är ekonomiskt stabila men att de inte längre befinner sig i den nästan obefintliga intäktsfas som Zitrons text utgår ifrån.
Riktigt skev blir hans analys när han beskriver vilka aktörer som formar marknaden. Han fokuserar hårt på Nvidia och Microsoft, och lämnar två av de viktigaste spelarna utanför: Google och Apple.
Det är en smula enögt. Google är inte frånvarande i AI – i många lägen är de fundamentet. Alphabet står bakom en mängd stora metodgenombrott och sitter på en produktportfölj som når miljarder användare. Gemini är integrerat i Android, Chrome, Workspace och Search. I o m Gemini 3 så har de också fått erkännande som en mycket stabil LLM. Deras problem har aldrig varit teknik – det är kommersialisering. Sen ska vi inte glömma bort att Google satsar stort på egna TPU-er för att ge Nvidia en match på hårdvaruplanen.
Apple, å sin sida, har enligt Apples normala sätt upplevts som att de missat tåge men har blivit en nyckelaktör för OpenAI. Men med Apple Intelligence har OpenAI fått distribution på en nivå de aldrig kunnat bygga själva: djupt i operativsystemet, direkt in i vardagsflöden, till hundratals miljoner användare. Det gör Apple till både en strategisk partner och en gatekeeper för vad AI uppfattas som i konsumentledet. Apple driver också på mot en hybridmodell: små modeller lokalt, stora i molnet.
Det här förändrar spelplanen. Zitrons narrativ byggde på Nvidia som motor och Microsoft/OpenAI som draglok. Spelplanen såg redan då annorlunda ut men ett halvår efter ser den helt annorlunda ut.
Så visst: AI-infrastrukturen äter kapital. Probabilistisk teknik skapar problem när man förväntar sig determinism. Branschens retorik om “autonoma agenter” ligger fortfarande långt före vad tekniken faktiskt klarar. Men problemet med mycket av kritiken mot AI-branschen är att den blundar för utveckling och innovation som en process.
En av de första konferenserna jag var på som ”ung” och lovande sociala mediastrateg var Reboot i Köpenhamn. Där försökte man bland annat att få en robot att bygga en bättre version av sig själv. Oklart hur det gick (jag minns inte) men jag tänker på det när jag läser om ”hyperproduktivitet” hos Second Thoughts där Steve Newman tittar på hur utvecklare arbetar med agentisk AI och skapar en helt annan arbetsvärld där människan är en form av projektledare, slutdesigner som orkestrerar det hela medan en hög med agenter gör själva jobbet.
Newman själv ser att det fortfarande handlar om små, nya och relativt överblickbara projekt och att det här arbetssättet inte ännu är översättbart på stora, mogna och svårgreppbara projekt men också att det på många sätt inte minskar stress - och därmed inte nödvändigvis kan bevisa reell produktivitet - särskilt att det inte idag riktigt går att skala.
Men det är onekligen spännande och direkt funderar jag över hur det kan översättas från programutveckling till exempelvis strategiutveckling, till arbete med kommunikation. Vilket en del redan gör i liten skala men som jag tror vi kommer se mycket mer av framöver.
Låt oss fortsätta på spåret av agentic AI. I en lång och mycket bra artikel lyfter IEEE Spectrum hur webben förändras till att bli något som AI-agenter använder och därmed så blir det att även webbsidor blir en form av agenter (något som Tomas Seo pratade om för flera år sedan, bland annat här) vilket innebär att vårt fokus bland annat måste vara ”agent attention economy” dvs hur skapar vi bäst uppmärksamhet hos agenterna, inte hos våra målgrupper.
I en rejäl rapport har Epoch AI på uppdrag av Google DeepMind tittat på hur AI kan utvecklas 2030 och bortanför. Det är gigantiska siffror, det är lite jätten glufs glufs äter all energi över det hela. Samtidigt ser vi astronomiska summor redan idag gå in i AI-utveckling som är svåra att greppa (och det flaggas därmed för en bubbla). Egentligen inget nytt men rapporten diskuterar problematiken med att 2030 kan AI använda en procent av jordens elproduktion men samtidigt kan AI hjälpa till att minska utsläpp och påverkan genom optimering i andra sammanhang av vår produktion. 2027 räknar man att det inte finns mer människoskapad data att använda för träning, och då blir frågan om syntetisk data kan ha den kvalitet som gör att den går att använda vidare. Vetenskapen kommer antagligen ha allra störst nytta av AI-utvecklingen, liksom utveckling av produkter inom R&D om man ser till produktivitetsökning och effekt. Slutsatsen: vi vet inte riktigt hur vårt samhälle ser ut 2030 men AI lär vara en viktig del av det.
Jag tycker jag har lyckats ganska bra att utveckla hur några av mina AI faktiskt skriver mer likt hur jag skriver än tidigare. Samtidigt kan jag ibland fundera över om det är så att jag börjar skriva mer som AI säger att jag skriver än som jag faktiskt skriver. För i grunden: ju mer man läser desto mer förändras sättet man skriver.
I en undersökning från i somras så har en grupp från Max Planck Institute tittat på hur vissa ord fått en ökad användning och där det kan kopplas till att det är ”favorit”-ord hos ChatGPT (alltså i den modell som var aktuell då vilket är … länge sen i AI-utveckling).
Sen har vi em-dashes. Tankstreck. Något som är mer vanligt i fr a amerikansk engelska och inte är något nytt påfund men som diskuterats utifrån att vara ett säkert sätt (det är det inte) att se att något är genererat och inte skrivet.
Brian Phillips har gått igenom dess historia och sjunger dess pris som en del av utvecklingen av språket, långt innan ChatGPT genererade sin första stavelse och att det är illa att användandet blivit ett no-go.
En trevlig text om grammatik och skrivande (om man bortser från lite surmagade noter om AI-utvecklingen).
Jag vill avsluta lite kanske där jag började men nu i ”AI-land”. I slutet av en text som delvis går igenom hur ChatGPT5 lanserades (vilket ju nu är old news) så går Ethan Mollick in på diskussionen om The Era of Mass Intelligence.
”How do we harness a billion people using AI while managing the chaos that comes with it? How do we rebuild trust when anyone can fabricate anything? How do we preserve what’s valuable about human expertise while democratizing access to knowledge?”
Många diskuterar det här. Det är också i detta som den mest fruktbara gränsdragningen finns mellan doom-sayers och evangelists. För med det goda kommer vi få det onda. Precis som i sociala medier och där vi nu står mellan drakoniska lösningar pga man stirrar sig blind på det negativa eller en fortsatt frihet men som i sig kan diskuteras utifrån ägande av data och tillgång av plattformar.
”Vi borde lära oss av det vi misslyckats med” är ett vanligt argument runt hårda regleringar redan idag när det gäller AI. Borde vi det? Innebär det här inte samtidigt att vi kan hamna i en situation där vi reglerar bort det goda men det onda fortsätter röra sig i undervegetationen. Det går inte att stoppa in AI i lådan igen (det här är en bild jag har med mig efter att lyssnat några timmar på CGP Greys övertygelse om att AI kommer behöva finnas i en ouppkopplad låda). Det kan döda oss, det kan rädda oss - mest sannolikt att det kan göra båda sakerna samtidigt i god kvantfysisk teori.
Det jag tänker är att jag blir mindre oroad desto mer jag använder AI. För även om jag vinner tid i ena änden så tar det mer tid i andra. Även om jag i vissa projekt just är en sorts projektledare för ett gäng agenter så innebär det inte att jag gör saker snabbare utan att jag gör saker djupare. Workslop ja: ofta oerhört frustrerad över hur dumma saker som kommer ut ur mina AI och att de inte förstår mig.
Samtidigt som jag inte längre kan tänka mig en arbetsdag utan vare sig Perplexity, ChatGPT eller Gemini. Eller AI-funktionerna i Lightroom. Eller den blixtsnabba algoritmen i Threads. Omöjligt - mitt liv skulle bli så mycket sämre.
Så frågan är: ska vi verkligen alltid lära oss av det som varit?
---
Än en gång. Tack för att du läser. Tack för att du prenumererar. Ha en riktigt skön jul- och nyårsledighet. Vi ses 2026.







