Kunstig intelligens, eller AI, er et begreb, der bliver kastet rundt i disse dage. Enten på en smartphone med Androidem, en streamingtjeneste, der anbefaler din næste film eller en musikplatform, der automatisk opretter en afspilningsliste - det ser ud til, at AI simpelthen er overalt. Men hvordan udviklede definitionen af AI sig, og hvad betyder nogle af de tekniske AI-udtryk egentlig?
Hvad er AI helt præcist?
Historisk set refererede AI til intelligens på menneskeligt niveau opnået kunstigt gennem maskiner. Begrebet har dog en smule ændret sin oprindelige betydning gennem årene og bruges nu ofte som et bredt markedsføringsbegreb blandt andet. I dag bliver næsten alt, der viser tegn på intelligens, fra e-handelsanbefalinger til stemmegenkendelsessystemer, omtalt som AI. En række andre udtryk og forkortelser er dog forbundet med kunstig intelligens. Lad os kaste lidt lys over de mest almindelige.
Machine learning (ML – machine learning)
Maskinlæring er en underkategori af kunstig intelligens, hvor systemer lærer af data og erfaringer for at træffe beslutninger eller udføre forskellige handlinger – for eksempel, hvis du fodrer en algoritme med tusindvis af billeder af katte, vil den lære at identificere en kat. Du kan derefter levere billeder af katte, hunde og andre dyr. Systemet skulle så kunne vælge billeder af katte ud fra, hvad det har "lært". Denne læringsproces involverer to hovedfaser: træning og slutning, som bringer os til de næste termer.
uddannelse
Træningsfasen er en lang fase af maskinlæring, hvor systemet tilføres enorme mængder data at lære af – f.eks. de førnævnte kattebilleder. De anvendte data kan dog være specifikke genstande, såsom blomster, eller omfatte større prøver, såsom hele internettet. Træning af moderne AI-systemer som ChatGPT kan koste millioner og kræve massive computerressourcer.
Afledning
Efter træning anvender systemet sin erhvervede viden på nye data. Denne fase er, hvor slutbrugerinput og direkte integration med AI finder sted. For eksempel, nu hvor systemet ved, hvad en kat er, kan vi give den et billede af den, og den vil identificere den. Spørg Google Gemini eller Microsoft Copilot chatbots, hvad Englands hovedstad er, og de vil give dig et svar. I denne fase trækker systemet på sin etablerede viden. Denne fase kræver betydeligt mindre computerkraft.
Kunstig generel intelligens (AGI)
AGI refererer til maskiner med intelligens på menneskeligt niveau, der er i stand til at træffe beslutninger, planlægge og forstå verden i en større sammenhæng. I modsætning til nuværende AI-systemer ville AGI have en dybere forståelse og bevidsthed, svarende til hvad vi ser i science fiction. Selvom AGI stadig er den fjerne fremtids musik, da det ville kræve en masse tekniske, filosofiske og moralske spørgsmål at knække denne kode, er det et betydeligt forskningsområde.
Generativ AI
Traditionelt har AI udmærket sig ved klassificering og anerkendelse, men generativ AI går ud over disse ideer og skaber nyt indhold såsom tekst, billeder og musik. Dette revolutionerende fremskridt åbnede for nye muligheder inden for kunstig intelligens, og gjorde det muligt for systemer at generere kreative output baseret på inputdata. Denne form for kunstig intelligens bringer også de mest håndgribelige fordele til hverdagsbrugere, især hvis du nogensinde har brugt ChatGPT til at designe en e-mail eller Midjourney for at generere et billede af en kat.
Neurale netværk
Neurale netværk er de grundlæggende byggesten og rygraden i moderne kunstig intelligens. De har eksisteret i årtier og er modelleret efter den menneskelige hjerne. De består af indbyrdes forbundne neuroner, der behandler data gennem forskellige lag, som i sidste ende producerer et output. Træning af et neuralt netværk involverer justering af forbindelserne mellem neuroner for at forbedre nøjagtigheden.
Transformationsnetværk
En særlig type neuralt netværk, et transformationsnetværk, har muliggjort udviklingen af store sprogmodeller (LLM'er) såsom ChatGPT. Disse netværk udmærker sig ved at forstå kontekst og relationer i data, hvilket gør dem ideelle til sprogbehandlingsopgaver.
Store sprogmodeller (LLM)
Når neurale netværk, transformatorer og træning til et meget stort neuralt netværk kombineres, fødes store sprogmodeller. Såkaldte LLM'er trænes på enorme mængder tekstdata, hvilket giver dem mulighed for at generere menneskelignende svar. Eksempler inkluderer ChatGPT, Claude, LLaMA og Grok. Disse modeller fungerer ved at forudsige det næste ord i rækkefølgen og producere sammenhængende og kontekstuelt relevante output. Denne prædiktive karakter kan dog føre til problemer såsom hallucinationer, hvor modellen genererer plausibel, men forkert information. Og hvad er disse hallucinationer egentlig?
Hallucination
Såkaldte hallucinationer opstår, når AI genererer forkert information på grund af sin afhængighed af prædiktiv modellering. Dette er en betydelig udfordring for LLM'er, da de kan producere overbevisende, men falske output. Et klassisk eksempel på en hallucination kan være at anbefale superlim eller en hotmelt-pistol, når man bliver spurgt om, hvordan man forhindrer osten i at glide af pizzaen.
Modelparametre og størrelse
Effektiviteten af AI-modeller måles ofte ved deres overordnede parametre, som repræsenterer forbindelser i et neuralt netværk. Større modeller med flere parametre klarer sig generelt bedre, men kræver flere ressourcer. Mindre modeller er teoretisk set mindre præcise, men kan køre på mere økonomisk hardware. For eksempel har den enorme cloud-model LLaMA 3.1 405 milliarder parametre, mens de modeller, der kører native på smartphones, kun består af et par milliarder parametre.
Diffusionsmodeller
Diffusionsmodeller er modeller, der bruges til at generere billeder, diffusionsmodeller vender processen med at tilføje støj til billeder under træning. Dette giver dem mulighed for at skabe nye billeder fra tilfældig støj, styret af indlærte mønstre.
Retrieval Augmented Generation (RAG)
RAG kombinerer generativ AI med eksterne datakilder for at producere nøjagtige og kontekstuelt relevante resultater. Ved at downloade yderligere data kan disse modeller forbedre deres output, hvilket gør dem mere pålidelige og nyttige.