Designer at Ambition Group. Deputy Professor (PhD) at Halmstad University (Sweden). Author of “Designing AI-Powered Services”. I ride my bike to work.

Vad kommer att hända med “AI” nu då?

Varje stor teknologisk epok börjar med överdrivna löften, centralisering och en bubbla – och slutar med standarder, fragmentering och institutionalisering. Internet, elnätet, järnvägen och mobilnätet såg alla likadana ut i sin tidiga fas: ett fåtal dominerande aktörer, extrema värderingar och en berättelse om att just deras lösning var liktydig med framtiden.

LLM-eran (“AI” i folkmun) befinner sig nu i precis den brytpunkten. Samtidigt som Big Tech börjar tala om “avtagande skalningseffekter” och justerar ned sina AGI-ambitioner, blir det allt tydligare att dagens “AI” inte är vare sig verktyg eller infrastruktur i egentlig mening – utan privata, snabbt skiftande tjänster med extrem maktkoncentration.

Vi ser en avtagande avkastning på ”större modell, mer data, mer GPU”. De allmänt tillgängliga AI-modellerna blir inte bättre för varje dag, snarare tvärtom pga ”scaling wall” samt tak för tillgänglig data. Nu är i princip hela nätet skrapat, och framöver får vi dessutom en ökande andel LLM-genererat innehåll, vilket kommer sänka kvaliteten på den data som nya modeller kommer att bygga på.

Det faktiska värdet är ofta lokalt och taktiskt  –  och inte den breda, ”Internet-nivå” som utlovades av techbolagen initialt. (”Feel the AGI”, som Sam Altman sa. Idag hävdar även han att begreppet ”AGI” inte är användbart.)

Problemet är inte bara vad LLM:er kan, utan hur de levereras — som slutna tjänster, inte som öppen infrastruktur.

A long rainbow ribbon feeds into a grey meat grinder bearing a simplified neural network diagram on its side. Out the other end spills a collection of black and white 1s and 0s.

Vi närmar oss gränserna för fysik, data och ekonomi samtidigt. Det blir en stor utmaning för övervärderade bolag. Därför pratar man alltmer om en bubbla. Märk väl: precis som med IT-kraschen 2001/2002 så är detta en ekonomisk bubbla. Transformerteknologin kommer att finnas tillgänglig, fast antagligen inte på det viset som OpenAI, Google och de andra techjättarna har gjort gällande.

Det finns så klart också en stor trötthet på hypen  – och det påverkar också investeringsvilja, intresse och retorik.

Vissa tror att LLM:er bara är en övergångsteknik som snart ersätts av mer strukturerade system; andra tror att LLM-familjen fortsatt kommer vara ett centralt gränssnitt, men att värdet sitter i hur den kopplas till annan AI, data och verktyg. Den som lever får se.

Att kalla ChatGPT, Claude, Grok, Gemini etc. för ”verktyg” eller ”infrastruktur” är dock gravt missvisande både i ekonomisk och semantisk mening. Låt oss börja med begreppet verktyg:

Verktyg eller tjänst?

LLM:erna säljs som ”verktyg”, men är i själva verket ”tjänster”. Här ligger en enormt viktig distinktion. Många tror att de ”skapar” något med hjälp av AI. Det gör de så klart inte: de beställer bild/text/film av en tjänst. Användarna sitter helt i händerna på privata leverantören.

Det är alltså en maktfråga.

Ett verktyg är något du som användare äger eller kontrollerar: en hammare, en kamera, ett textredigeringsprogram. Du kan använda det offline. Du kan uppgradera när du vill. Du kan ta ansvar för resultatet, eftersom beteendet är stabilt och förutsägbart.

En tjänst fungerar i princip tvärtom. Den förändras kontinuerligt, utan ditt medgivande. Den kan försämras, begränsas, behäftas med ny prismodell eller dras tillbaka helt. Den kan börja servera annonser. Den kan börja prioritera andra kundgrupper än dig. Den kan få nya regler för vad som är “tillåten användning”. Och när något går fel kan leverantören alltid hänvisa till att du har “använt tjänsten fel”.

När LLM-tjänsterna marknadsförs som verktyg skapas en illusion av användarmakt som inte existerar.

Du skapar inte med en LLM på samma sätt som du skapar med en kamera eller ett ritprogram. Du lägger snarare en beställning hos en svart låda, vars inre logik, träningsdata, säkerhetsfilter, optimeringsmål och affärsintressen är helt utanför din kontroll. Resultatet är inte ditt hantverk – det är ett levererat svar från en privat aktör med kommersiell agenda.

Det betyder inte att tekniken är värdelös. Men det betyder att relationen mellan användare och leverantör är fundamentalt asymmetrisk.

I praktiken sitter användaren i händerna på leverantören på minst fem sätt:

  1. Teknisk kontroll – modellen ändras löpande, ibland drastiskt, utan transparens.

  2. Affärskontroll – prissättning, kvoter, annonser och abonnemangsvillkor kan ändras över en natt.

  3. Juridisk kontroll – användningsregler och ansvarsförskjutning skrivs ensidigt av leverantören.

  4. Epistemisk kontroll – du kan inte verifiera hur eller varför ett svar genereras.

  5. Produktkontroll – tjänsten kan stängas ner, degraderas eller regionbegränsas när som helst.

Detta är alltså hur en tjänst beter sig. Verktyg har andra brukskvaliteter.

Det vi har i dag är ett fåtal privata tjänster med extrem koncentration av makt, minimal insyn och snabbt skiftande affärsmodeller. Att kalla dem verktyg gör dem oförtjänt stabila, neutrala och oskyldiga i människors föreställningsvärld.

Språket vi använder formar hur vi förstår ansvar, makt och beroende.

Så länge vi kallar LLM-baserade tjänster för verktyg kommer vi att fortsätta låtsas att användaren har kontroll.
Det har hen inte.

Och i OpenAIs fall blir det extra tydligt hur skör hela metaforen är. Deras tjänst ChatGPT har i skrivande stund existerat i ungefär tre år. Det är ingenting i infrastrukturella termer. Det går inte att jämföra med internet, elnätet eller mobilnätet, som byggts upp under decennier, reglerats, standardiserats och distribuerats mellan många aktörer.

Att redan nu tala om “AI som ett allmänt verktyg” eller “grundläggande infrastruktur” är att gravt förväxla hype med mognad.

Infrastruktur?

Internet bygger på öppna protokoll (TCP/IP, HTTP, SMTP …). Ingen äger ”internet” som infrastruktur. Likaså vilar mobilvärlden på standardiserade nät (GSM, LTE, 5G) och hårdvara där flera aktörer kan konkurrera på varje lager. Tack vare reglering och standardisering (som en kommentar på det tröttsamma feltänket att ”reglering hindrar innovation”) kan vi konsumenter byta: webbläsare, operatör, hårdvara och till och med OS och ändå vara på samma nät. Detta sporrar innovation. Det innebär interoperabilitet, mångfald av leverantörer och stabilitet (protokoll överlever vanligtvis bolag). Google, Apple och Microsoft är gamla i gamet, men har inte funnits alls lika länge som infrastrukturen för deras produkter.

Dagens LLM:er är tränade på hemliga dataset, med hemliga metoder, hostade på leverantörens egna moln (OpenAI, Google, Anthropic m.fl.) och endast nåbara via API:er och appar där hela stacken ägs, drivs och kan ändras ensidigt av leverantören. Dvs, de är extremt proprietära, vilket leder till lock-in och “kunskapsinfrastruktur som privat produkt”. Därav den stora faran då t ex Google går in så aggressivt mot lärandesektorn med Gemini och NotebookLM och försöker bli den centrala kontrollerande noden i vetenskaplig kunskapsproduktion och lärande.

Så hur blir det då?

Ponera att techbolagen och deras “AI”-tjänster förminskas/försvinner. Då säger historien att teknologin (transformer-baserade LLM:er i det här fallet) blir en öppen arkitektur, snarare än privata tjänster. Då skulle de kunna hamna i samma kategori som databas-motorer eller TCP/IP: ett grundlager som nästan ingen ”ser”, men som allt bygger på. Då skulle det kunna handla om:

Transformern blir då mer som ”standardiserad maskinell språklogik” än en företagsprodukt. De stora skillnaderna mot idag skulle vara: färre monolitiska chatt-tjänster, däremot fler osynliga LLM-komponenter inbäddade i operativsystem, databaser, utvecklingsmiljöer, webbläsare och domänspecifika system.

Om/när dagens LLM-jättar kollapsar som aktörer, så försvinner inte teknologin ;  den ”degraderas” från centraliserad tjänst till allmän kunskap. Det här mönstret ser man om och om igen i teknikhistorien:

Slutet på en era

Vilda västern-eran når sitt slut och vi får mer fokus på standarder och “governance”. Tekniker som överlevt sina första generation (internet, elnät, järnväg, flyg) har alltid behövt standardiseringsorgan, normer och ibland mellanstatliga avtal för att fungera långsiktigt. Om LLM:er blir infrastruktur i samma mening kommer vi förr eller senare landa i öppna standarder för modellformat, träning, certifiering/reglering av vissa användningsområden (likt luftfart, läkemedel), samt separation mellan den som definierar standard, den som implementerar och den som driver tjänsterna.

Och när den här omställningen väl sker – från vilda västern till standardiserad infrastruktur – då vill man inte stå där med hela sin AI-strategi inlåst i en enskild, privat, blackboxad tjänst. Då är det för sent att upptäcka att det man trodde var ett ”verktyg” i själva verket var ett tillfälligt abonnemang på någon annans affärsmodell.

Den som i dag outsourcar sin kompetens, sina arbetsflöden och sitt kunskapskapital till en monopoliserad AI-tjänst gör inte en teknisk investering. Hen gör ett beroendeval.