En handfull länkar 25:8
Vi börjar i en plötslig meme runt action-dockor, tittar på vad kunskapen är värd i en AI-tid, funderar över probabilitetens vara eller inte och så lite siffror runt AI. Mycket läsning den här veckan.
Förra veckan togs flödena över av söta action-figurer med stor likhet med figurerna i filmen UP. Alla började göra samma sak; generera bilder av sig själv i ett blister-pack med personliga assessoirer. Självklart gjorde jag också en men valde lite mer cyberpunk-matrix som input.
Ganska många började snabbt fråga: ”vilken app är det som man gör det i” och ”men jag förstår inte, har laddat ned appen men finns ju ingenstans att liksom klicka i saker”. Plötsligt var ChatGPT en app för många för att generera söta bilder. En del AI-människor gnisslade tänder, jag blev road av att ett företag värderat till galna 300 miljarder dollar för en tid blev överflödad av (och som jag upplevde det gick lite på knäna) förfrågningar om att generera inte helt meningsfulla bilder.
Samtidigt är det ju en bra sak. Även om ChatGPT haft en oerhörd utveckling så har det hittills handlat om early adopters och personer som testat, tyckt det var en dålig Google och gått vidare. I det här läget så ökar nu antalet ChatGPT-nedladdningar markant, man hittar ett roligt och avancerat sätt att göra något som skapar värde för en själv. Ett första insteg, en första försiktig plastig promenad i AI-land.
Jag tror det här är en av de saker vi behöver lära oss: att som early adopters, tech-geeks inte se ned på leken. Vi kan en massa saker, berättar gärna om avancerade byggen runt omvärldsanalys (Anders Torstensson har gjort ett riktigt coolt bygge), pratar vibe-coding med Cursor, Lovable och gräver oss ned i filosofiska, etiska och psykosociala diskussioner (ja jag är skyldig). Tyvärr kan vi också tendera att rynka lite på näsan mot de som likt ostadiga rådjurskid närmar sig AI lite nyfiket och skyggt.
En av de saker som jag lärt mig genom åren som sociala media-strateg är att aldrig använda mig själv som rättesnöre eller exempel: det jag gör är ofta redan så avancerat att det tenderar att bli ett Mount Everest att klättra för den som ska börja. Samma sätt med AI-utvecklingen. Låt oss faktiskt leka, testa, och släpp fram fantasi och viljan att förstå utifrån sina egna förutsättningar. Inte minst att det är en rätt pedagogisk prompt, som många skulle kunna ändra lite och därmed smaka lite på hur det hela går till. Möjligheten vi har nu är att fortsätta att hitta på mer och mer avancerade (och kanske nyttiga) saker för personerna som laddat ned ”appen” att göra.
Nu dags för en handfull länkar.
På tal om att leka. En av de saker jag har som mål är att på riktigt ge mig in i att testa lite saker; ”vajba” med hjälp av diverse AI-funktioner. Så jag samlar lite roliga exempel på vad man kan göra med olika delar. Att sen hela ”vibe”-buzzen är lite tröttsam får vi leva med. Greg Isenberg har gjort en lista på ett antal nischade applikationer och funktioner som kan användas för ”vibe marketing” och helt klart en bra lista att börja i. Det hela bygger ju (som vi vet) på agent-funktioner, men som på smarta sätt satts ihop, ibland med ett vettigt GUI. Det riktigt intressanta med att börja leka och utforska (det är ju faktiskt lite samma sak) är att varje person kommer att hitta sitt sätt att använda AI. Finns det rätt eller fel sätt? Nja, så länge du inte använder det för att styra en bomb eller på andra sätt förstöra för andra människor känns det som vi än så länge har en hel del leeway. Vad är din nästa utmaning inom AI?
Stanford har gjort sitt sedvanliga AI-index. En fet rapport med mycket gosiga grafer att ta sig igenom. Det är nästan femhundra sidor och till och med jag gav mig inte på det. Men självklart lät jag ett AI (Perplexity) läsa det åt mig. Vill man kolla in en annan sammanfattning så finns det en bra här.
AI blir allt bättre på avancerade tester (benchmarks) som mäter dess kapacitet. Under ett år ökade resultaten på tre stora tester (MMMU, GPQA, SWE-bench) med 18.8%, 48.9% och 67.3%. I grunden är det tester som visar hur AI kan utföra saker som vi människor kan utföra. Utöver det så vet vi alla att AI blivit bättre på att skapa högkvalitativa videor och och vissa undersökningar har visat att AI kan, i vissa fall, överträffa människor i programmering under tidspress.
AI används nu i praktiska situationer, bland annat inom sjukvård och logistik. FDA godkände 223 AI-drivna medicinska funktioner 2023. Självkörande bilar är inte längre experimentella: exempelvis har Waymo kört mer än 150,000 autonoma taxiresor per vecka i USA precis som Baidu erbjuder robotaxiflotter i flera kinesiska städer.
Företag satsar stort på AI: USA investerade $109 miljarder i AI-utveckling under 2024. Det är tolv gånger mer än Kina. Bara generativ AI fick $34 miljarder i investeringar på global nivå vilket är ökning med nästan 19% från 2023. Många fler företag använder AI, och forskningen har börjat att visa att det kan öka produktiviteten men också minska kompetensgapet.
Som man ser ovan så USA leder fortfarande när det gäller att skapa de mest framstående AI-modellerna, men Kina närmar sig snabbt. Kina dominerar också inom antalet publikationer och patent.
Antalet incidenter kopplade till AI ökar. Standardiserade verktyg för att mäta säkerhet och tillförlitlighet börjar utvecklas, men det saknas fortfarande enhetliga regler bland företag. Den politiska viljan till reglering har varit stark (men i o m Trump/Musk så är frågan var det tar vägen /min addering).
Kostnaden för att använda avancerade AI-system som GPT-3.5 har minskat dramatiskt – över 280 gånger sedan slutet av 2022 – samtidigt som hårdvarukostnader har sjunkit med 30% per år och energieffektiviteten förbättrats med 40% årligen.
Utbildning inom datavetenskap (CS) expanderar: två tredjedelar av världens länder erbjuder nu eller planerar att erbjuda CS-utbildning i grundskolan. Afrika och Latinamerika gör stora framsteg, men många afrikanska länder saknar grundläggande infrastruktur som elektricitet för att fullt ut dra nytta av detta. I USA har antalet studenter som tar examen inom datavetenskap ökat med 22% under det senaste decenniet. Samtidigt anser 81% av amerikanska lärare inom K–12 att AI bör vara en del av grundläggande CS-utbildning, men mindre än hälften känner sig redo att undervisa om det.
Flera av oss bevistade såklart AI Unconference på Berghs. Som vanligt högt och lågt, stora etiska frågor blandat med roliga infall, kluriga lösningar. Som jag skrev i min sammanfattning av dagen så börjar AI mogna lite, balansen mellan det stjärnögda evangelikala och det mörkaste doom-and-gloom börjar synas bättre.
En som självklart var där och pratade var Tomas Seo som i princip höll en session som sedan blev hans senaste nyhetsbrev (effektivt). Han pratade om hur kunskap blir just-in-time och inte längre värdefull över tid, att verktygen kommer att bygga om allt vi tidigare förstått och trott inom kunskapsbranschen. Saker som ”lärhastighet”, ”lärdjup”, ”lärkomplexitet” och ”läröverföring” förändrar kunskapsbranschen på samma sätt som robotiken förändrade industrin. I hans sammanfattning från dagen så sker en otroligt intressant diskussion på en hög nivå runt hur och om det här är så vittgående som Seo menar, och vilka konsekvenser det faktiskt kommer att få.
När jag tittar igenom mina anteckningar från hans session så noterar jag att jag byggt en form av process:
just-in-time knowledge + back in time experience → insights making
Något som sedan jag funderade mer över när jag hörde Mats Lewan diskutera om det verkligen är möjligt att skapa ett AGI utifrån det faktum att biologisk intelligens bygger på en enda sak: behovet av att överleva. Det i sig bör helt enkelt skapa en förutsättning som en maskin sällan kan ha: en grundläggande känsla av att det finns en fara för att förintas. För att överleva behövs: perception av tid och rum, föreställningsförmåga (fantasi), kroppsmedvetande och inkrementellt lärande. Tillsammans blir det att skapa en förvissning om vad som är sant, snarare än en förvissning av mönster. Det innebär i sig att lärande i sig bara är ett verktyg till ett slutmål, och då är frågan om en maskin kan nå det slutmålet. Helt enkelt: om vi skapar ett AGI som i bakhuvudet har sitt memento mori; då bör vi därmed ha en riktig intelligens. Samtidigt har vi maskiner som är självmedvetna: inte om sin egen briljans utan om sin egen potentiella förstörelse.
”"Like us" is hubris. If you look at what we now know about the connectivity of the brain’s neural structure - not just the human brain, but any brain - it is unbelievably more complex than anything we've ever been able to do with multilayer AI models. The connectivity is the killer. Some of the brain’s neurons have 10,000 interfaces with dendrites of other neural cells. With AI, we don't have anything like that.”
Jag ramlade över en intervju mellan två, för oss äldre nördar, giganter: Vint Cerf intervjuas av Nicklas Berild Lundblad. För er som inte känner till dessa två så är Vint Cerf en av “Internetets fäder” som utvecklat TCP/IP-protokollen. Nicklas Berild Lundblad är en svensk policyexpert arbetat med Google och andra företag och fokuserar på teknikens roll i samhället.
Ganska mycket av tidigare diskussion återfinns här men på en otroligt hög nivå. Det är en extremt intressant text som jag tycker du faktiskt ska ta dig tid att läsa; de pratar om allt från latens-problemet i att köra flera AI-modeller, om quantum-computing kan vara möjligheten för ett AGI (nej) och diskussioner om varför vi aldrig kommer att kunna skapa ett ASI eller ett system som fungerar som en mänsklig hjärna fungerar (har med densitet i hjärnans kopplingar vs andelen kopplingar som är möjlig att göra i ett silikon-chip). I grunden kan säkert många hävda att de två är lite för skeptiska men jag tycker det är en skön balans. Läs den.
Om Malik skriver en text om Kina som onekligen sätter dess AI utveckling lite i ett sammanhang (och visar hur oerhört dumt den isolationistiska politik som Trump för faktiskt är). Att Deepseek dök upp, och att vi antagligen kommer se fler banbrytande kinesiska funktioner menar Om handla om Kinas inställning och mål att komma ikapp och kanske förbi västerländsk teknik. Det finns en sorts plan runt allt från Temu, TikTok och Deepseek, precis som med BYD och andra inom elbilar och electric mobility.
Som jag skrev lite i inledningen så är ett av problemen vi stått inför att många trott att AI (eller fr a ChatGPT) är ett bättre Google. Perplexity har delvis själva menat att de är just det. Vilket är lite knepigt. Eller som Ben Evans skriver: ”They are probabilistic, statistical systems that tell you what a good answer would probably look like. They are not deterministic systems that tell you what the answer is.” Självklart ser vi bättre och bättre modeller, och även om det går långsamt, en minskande hallucination (även om Grok anses svara fel i 94% av fallen…). I sin text försöker Ben Evans fundera över om nyare modeller alltid är bättre, och landar i att det i mångt och mycket handlar om förväntningar. Vi förväntar oss en deterministisk maskin (som alla tidigare tekniska maskiner har varit inklusive maskininlärningen) men vi har en probalistisk maskin som kan göra så många andra saker - och vad händer om vi istället för att irritera oss på imperfektion (som alltid kommer att finnas) till att lära oss leva med det och säkra upp det genom olika former av mekanismer?
Vi har tagit upp det förut: vi avkräver teknik absolut perfektion medan vi alltför ofta inte ens gör grundläggande källkritik för att se om saker faktiskt är sanna (eller åtminstone sannolikt sanna). Självklart är det ett problem med alltför höga felmarginaler när det handlar om att stoppa in AI i livsavgörande funktioner, eller att välja att tro för mycket på automationen. Men i mångt och mycket handlar det ju om att faktiskt ta ansvar för output: det är inte ChatGPT som är sändare om du inte korrläser en text utan du. I texten tar Ben upp just det här: inte minst diskussionen om vem vi anklagar om något går sönder. Oavsett om det handlar om en mobiltelefon (gud så klantig jag är vs gud så dåligt byggd den är) eller mjukvara.
En del som vill gå mot att se det probalistiska som rätt menar just att imperfektionen hos en människa är ett bevis på att en bättre AI kommer därmed vara bättre. Vilket är lite konstigt argument eftersom man då inte adderar ytterligare raster runt vad är egentligen intelligens och hur skapas insikter, vilket är mer värdefullt än kunskap-i-sig.
Låt oss avsluta lite mer hands-on. Growth mind har gjort en snygg genomgång av hur olika tjänster väljer att monetarisera sina AI-funktioner. Om du sitter på ett SaaS eller funderar på att vibe-coda dig fram till nästa framgångsrika verktyg så klart intressant läsning. Själv noterar jag mest att jag behöver snart ett AI för att hålla koll på alla prenumerationer och kostnader som läggs ovanpå för att kunna arbeta på ett effektivt sätt.
Det blev ett långt brev. Onekligen inspirerad både av memen runt dockorna men också av att gnuggat armbågar med andra på AI-konferens.
Hoppas ni hittar något intressant att läsa. Hoppas ni har lust att lägga en kommentar om något ni funderar över och saker som gett er insikter.
Tills nästa vecka /D