Artificiell intelligens, eller AI, är en term som slängs runt mycket nuförtiden. Vare sig på en smartphone med Androidem, en streamingtjänst som rekommenderar din nästa film eller en musikplattform som automatiskt skapar en spellista – det verkar som att AI helt enkelt finns överallt. Men hur utvecklades definitionen av AI och vad betyder några av de tekniska AI-termerna egentligen?
Vad är AI egentligen?
Historiskt sett hänvisade AI till intelligens på mänsklig nivå som uppnåtts på konstgjord väg genom maskiner. Begreppet har dock ändrat sin ursprungliga betydelse något genom åren och används numera ofta som ett brett marknadsföringsbegrepp, bland annat. Idag kallas nästan allt som visar tecken på intelligens, från e-handelsrekommendationer till röstigenkänningssystem, AI. Ett antal andra termer och förkortningar förknippas dock med artificiell intelligens. Låt oss belysa de vanligaste.
Maskininlärning (ML – maskininlärning)
Maskininlärning är en underkategori av AI där system lär sig av data och erfarenheter för att fatta beslut eller utföra olika åtgärder – till exempel, om du matar en algoritm med tusentals bilder av katter, kommer den att lära sig att identifiera en katt. Du kan sedan tillhandahålla bilder på katter, hundar och andra djur. Systemet ska då kunna välja ut bilder på katter utifrån vad det har "lärt sig". Denna inlärningsprocess innefattar två huvudfaser: träning och slutledning, vilket för oss till nästa termer.
utbildning
Utbildningsfasen är ett långt skede av maskininlärning där systemet matas med enorma mängder data att lära sig av – de tidigare nämnda kattbilderna, till exempel. Däremot kan data som används vara specifika föremål, såsom blommor, eller inkludera större prover, såsom hela Internet. Att träna moderna AI-system som ChatGPT kan kosta miljoner och kräva enorma datorresurser.
Härledning
Efter utbildning tillämpar systemet sina förvärvade kunskaper på nya data. Denna fas är där slutanvändarinmatning och direkt integration med AI sker. Till exempel, nu när systemet vet vad en katt är, kan vi ge den en bild av den och den kommer att identifiera den. Fråga chatbotarna Google Gemini eller Microsoft Copilot vad Englands huvudstad är så ger de dig ett svar. I denna fas bygger systemet på sin etablerade kunskap. Detta steg kräver betydligt mindre datorkraft.
Artificiell allmän intelligens (AGI)
AGI avser maskiner med intelligens på mänsklig nivå, kapabla att fatta beslut, planera och förstå världen i ett större sammanhang. Till skillnad från nuvarande AI-system skulle AGI ha djupare förståelse och medvetenhet, liknande det vi ser i science fiction. Även om AGI fortfarande är en avlägsen framtids musik, eftersom att knäcka denna kod skulle kräva många tekniska, filosofiska och moraliska frågor, är det ett betydande forskningsområde.
Generativ AI
Traditionellt har AI utmärkt sig i klassificering och igenkänning, men generativ AI går utöver dessa idéer och skapar nytt innehåll som text, bilder och musik. Detta revolutionerande framsteg öppnade för nya möjligheter inom AI, vilket gjorde det möjligt för system att generera kreativa utdata baserat på indata. Denna form av AI ger också de mest påtagliga fördelarna för vardagliga användare, särskilt om du någonsin har använt ChatGPT för att designa ett e-postmeddelande eller Midjourney för att skapa en bild av en katt.
Neurala nätverk
Neurala nätverk är de grundläggande byggstenarna och ryggraden i modern AI. De har funnits i decennier och är modellerade efter den mänskliga hjärnan. De består av sammankopplade neuroner som bearbetar data genom olika lager, vilket i slutändan producerar en utdata. Att träna ett neuralt nätverk innebär att justera kopplingarna mellan neuroner för att förbättra noggrannheten.
Transformationsnätverk
En speciell typ av neurala nätverk, ett transformationsnätverk, har möjliggjort utvecklingen av stora språkmodeller (LLM) som ChatGPT. Dessa nätverk utmärker sig när det gäller att förstå sammanhang och relationer i data, vilket gör dem idealiska för språkbearbetningsuppgifter.
Stora språkmodeller (LLM)
När neurala nätverk, transformatorer och träning för ett mycket stort neuralt nätverk kombineras föds stora språkmodeller. Så kallade LLM:er tränas på stora mängder textdata, vilket gör att de kan generera mänskliga svar. Exempel inkluderar ChatGPT, Claude, LLaMA och Grok. Dessa modeller fungerar genom att förutsäga nästa ord i sekvensen och producera koherenta och kontextuellt relevanta utdata. Denna prediktiva karaktär kan dock leda till problem som hallucinationer, där modellen genererar rimlig men felaktig information. Och exakt vad är dessa hallucinationer?
Hallucination
Så kallade hallucinationer uppstår när AI genererar felaktig information på grund av dess beroende av prediktiv modellering. Detta är en betydande utmaning för LLM:er eftersom de kan producera övertygande men falska resultat. Ett klassiskt exempel på en hallucination kan vara att rekommendera superlim eller en smältpistol när man frågar hur man förhindrar att osten glider av pizzan.
Modellparametrar och storlek
Effektiviteten hos AI-modeller mäts ofta av deras övergripande parametrar, som representerar anslutningar i ett neuralt nätverk. Större modeller med fler parametrar presterar generellt bättre men kräver mer resurser. Mindre modeller är teoretiskt sett mindre exakta, men kan köras på mer ekonomisk hårdvara. Till exempel har den enorma molnmodellen LLaMA 3.1 405 miljarder parametrar, medan modellerna som körs native på smartphones bara består av några miljarder parametrar.
Diffusionsmodeller
Diffusionsmodeller är modeller som används för att generera bilder, diffusionsmodeller vänder på processen att lägga till brus till bilder under träning. Detta gör att de kan skapa nya bilder från slumpmässigt brus, styrda av inlärda mönster.
Retrieval Augmented Generation (RAG)
RAG kombinerar generativ AI med externa datakällor för att producera korrekta och kontextuellt relevanta resultat. Genom att ladda ner ytterligare data kan dessa modeller förbättra sina resultat, vilket gör dem mer tillförlitliga och användbara.