Först: tack alla som var på Unconference AI på Berghs. Tack Berghs för en fantastisk konferens. Så oerhört roligt och spännande och massa föda för tanken. Min lilla fringe-föreläsning om antromorfism och religion i AI kommer senare, jag kommer att spela in den i tid för nästa brev.
Det här brevet blir (tyvärr) lite inklämt mellan mycket jobb. Tacksam för det men ber på förhand om ursäkt att det inte är fullt lika fokuserat som vanligt. Jag har helt enkelt inte haft tid att läsa så många långa texter senaste veckorna.
Jag blir mer och mer involverad både i diskussioner men också i mina egna tankar runt förhållningssätt till AI. För mig är det nödvändigt att försöka hålla nån form av mittenfåra mellan doom and gloomers och evangelisterna. Vilket gör att jag tänker mycket runt vad AI faktiskt är. För det intressanta är att AI utmanar en massa definitioner eller snarare utmanar det faktum att våra definitioner inte är tillräckliga när vi behöver använda dem på teknik. För våra definitioner av intelligens, tänkande, känslor och andra grundläggande värden som skapar både värde och essens men som också på många sätt definierar vår existens bygger på just vår egen existens, på oss som människor. När vi därmed möter något som är likt det som vi definierar oss som så kan vi bara använda beskrivningar som vi definierat utifrån att vara oss. Men AI är inte ”oss”.
Tänker på det här när jag läser Micco Grönholms artikel om att skillnaden mellan människa och AI - och därmed vad som kan betecknas som kreativitet - bygger på att den mänskliga kreativitet är byggd för överlevnad. Den stora avgränsningen menar han är att ett AI inte kan tänka i berättelser och att AI inte förstår tid. Två grundläggande faktorer för att vara kreativ. Det är en tänkvärd text att läsa flera gånger.
Det är onekligen en intressant tid att leva i.
Jag sitter precis och skriver två playbooks för internationella företag. Det är intressant vilka utmaningar som (fortfarande) finns i att bryta sönder synen på webben som målet för precis allt. Sedan flera år är sociala medier som distributionskanal över, länkar är på de flesta ställen rena giftinjektionen för organisk räckvidd men ändå fortsätter företag att massivt pusha länkar till sin webb istället för att se sociala medier som en plattform att skapa stand alone-innehåll för att bygga varumärke, stärka relationer och eskalera affären.
En av anledningarna att vi som sociala media-experter fortfarande får bekämpa det myckna länkandet kan vara det faktum att de traditionella medierna fortfarande är fast i det hela. Kommunikatörer och sociala media-ansvariga ser hur dessa pushar ut sina länkar, och ofta är kommunikationsavdelningar byggda på ett mer traditionellt mediatänkande där man skapar innehåll på webben som sedan behöver trafik. Så det faktum att alla poster från ett mediahus innehåller en länk till en artikel blir en form av bevis att man gör rätt. Trots att det är ytterst oklart hur mycket de faktiskt tjänar på det.
Nya online-medier, födda i sociala medier, väljer en helt annan väg och skapar innehåll för sociala medier och därmed stärker de varumärket och blir en go to i andra sammanhang. Rachel Karten vädrar frustrationen i sin långa genomgång av hur massmedierna fortfarande försöker driva trafik istället för att vara sociala. Bland annat lyfter hon det faktum att när NPR lämnade Twitter så förlorade de 2% av sin trafik. Två ynka procent.
På tal om dagstidningar så har Pineberry gjort en undersökning över hur många av de svenska dagstidningarna som faktiskt blockerar ChatGPT. Det var många. Det innebär att vi inte kan använda ChatGPT Search på något vettigt sätt eller att svaren blir av markant lägre kvalitet eftersom GPT bara kan få tag på information från sidor av lägre kvalitet.
Det här är inte ett svenskt fenomen utan ganska många av världens stora mediahus har valt att blockera crawlers från de flesta stora AI. Newsguard visar på att hela 67% av mediahusen blockerar botarna. IETF utvecklar också nya protokoll för att göra det ännu enklare och säkrare att blockera dessa.
Vilka blir kvar? Medier som räknas med lägre kvalitet och som kanske inte går under samma media-etik runt neutralitet och källkritik.
Samtidigt som det här sker så börjar fler och fler att använda ChatGPT som sökmotor, många har börjat använda Perplexity som go-to sök.
Det här är lite som att förflyttas tillbaka många år, när samma diskussion skedde runt Google och även tidigare sökmotorer men också runt sociala medier: mediahusen försökte då också isolera sitt innehåll från sök.
Det är en form av den brända jordens taktik som än en gång används, och hänvisningen är till copyright snarare än att man inte är snabb nog att förändra sina affärsmodeller. Problemet är att det är ett högt spel som spelas eftersom många bedömare menar att mängden av desinformation ökar lavinartat, källkritiken hos människor hänger inte med, AI innebär att vi kan skapa trovärdiga bilder, texter i mängd och samtidigt så rör sig många människor från det ordinära söket till sociala medier och AI-sök.
Jag kan till viss del (även om jag är en creative commons-person) förstå hela diskussionen runt att skapare känner att AI stjäl deras kreativa verk eller att innehåll är det enda värde som nyhetsmedier kan tjäna pengar på så varför ge bort det till AI-botar. Men vi har varit här förut och hur vi än försöker stå emot utvecklingen så går det inte så bra. Samma diskussioner skedde under Pirate Bay. Sen kom streamingen som på många sätt förändrade hela branschen.
Idag går vi mot en värld där data dvs innehåll behöver ses som en råvara (tack Tomas Seo för den liknelsen). Det förändrar ganska mycket av vårt förhållningssätt och vårt arbete med kommunikation, analys och värde skapas i flera lager men på helt andra ställen än tidigare.
Det blir dock ett problem när dessa två världar möts: den traditionella där produkten är värdet och den nya där råvaran är värdet. I mitten står några saker som individen, demokrati och sanning.
---
Nu tror jag inte att Mark Zuckerberg kanske tänkt så mycket på den mer filosofiska sidan runt innehåll som råvara men hans syn på de högljudda protesterna mot att AI använder andra människors skapade verk för att tränas ligger ändå på ungefär samma syn som många av oss andra börjar ana att världen är på väg:
“I think individual creators or publishers tend to overestimate the value of their specific content in the grand scheme of this,”
Citatet är ur en längre Verge-artikel som går igenom hur Meta och andra ställer sig runt copyrightdiskussionerna.
Jag ramlade över det här företaget Evidanza och det är en intressant sak, inte minst för planners (som pratats ganska lite om när det gäller AI): Evidenza jobbar med syntetiska målgrupper dvs att man skapar målgrupper som motsvarar verkliga målgrupper men som man sedan kan använda för att skapa underlag för analys, planer osv. Jag började gräva lite mer och hittade en längre artikel av Next Quarter som lyfter en mängd med exempel som alla på många sätt är självklara: den mängd data som ett AI kan analysera överstiger vad en mänsklig planner kan hantera. Om man sedan använder den data som finns runt målgrupperna till att skapa en syntetisk form, där sedan AI kan besvara frågor utifrån målgruppen och data så blir det helt klart en ny spelplan.
Efter att jag skrev det här så var jag på Unconference AI på Berghs och lyssnade på Tina Ödmann och Christina Bjerkander som berättade om hur de med fullt normala AI-verktyg som vi alla har tillgång till arbetat fram persona till en av sina kunder. Oerhört intressant och väldigt synd att det inte finns dokumenterat.
OpenAI har släppt en open source benchmark SimpleQA med målet att mäta LLMs faktualitet, helt enkelt vad de kan i olika frågor. Den som idag använder sig av olika LLMs som svarsmaskin bör nog ta sig lite tid att läsa igenom det här: det går inte speciellt bra för nån; inte ens för ChatGPTs värsta version klarar sig över 50%. Anthropics Claude ger inte heller speciellt bra utfall. Det intressanta i det här ligger både i transparensen. Men också i att vi ännu har en lång väg att gå till att vi fullt ut kan lita på generativ AI.
---
En av de diskussioner som går höga är just runt sanning, hur ska vi kunna lita på en bild, en video i en värld där allt kan skapas och autenticitet blir en form av tycke och smak snarare än något precist och absolut.
Samtidigt innebär den nya världen en möjlighet att berätta nya historier, skapa kunskap som tidigare krävde fantasi eller oerhört mycket teknik. Ett exempel den tyska kampanjen Stop Repeating Stories där berättelser från Förintelsens överlevare får en extra aspekt då personen som berättar förändras till den ålder då man blev skickad till lägren. Det är starkt, det är levande och det påverkar en mycket.
Men samtidigt så skapar det något som egentligen aldrig funnits. Ska man hårdra det så bygger den här kampanjen på samma grund som de som kritiseras för att använda AI för att ljuga. I ljuset av den galopperande förintelseförnekelse som utvecklas så är frågan om den förändras synen hos någon som inte visste eller förstod eller är skeptisk.
Vad tycker du?
Allt för den här veckan.
Tack för att du läser!
/D
I the grand scheme of this tycker jag att Mark Zuckerberg har fel - det finns nog inga på jorden som är så beroende av att kreatörer och publicister har skapat så ofattabart mycket innehåll som Mark och hans kollegor. Och som är så beroende av att innehåll fortsätter att skapas.
Det är lite som när politiker struntar i väljargrupper eller rycker på axlarna åt lågt valdeltagande eftersom "deras röster ändå inte spelar någon roll". Man kan göra så, men det blir inte särskilt bra i längden.