Hopp til hovedinnhold

Kunstig intelligens Kortfattet historikk og oversikt

Logo letter
Evelon AS
Jon-Alfred Smith
Kunstig intelligens

Historien om kunstig intelligens er preget av opp- og nedturer, overdrevne forventninger og nedslående skuffelser, og er inndelt i tre faser. Som fagfelt ble KI opprettet sommeren 1956 ved Dartmouth College i New Hampshire. Første fase kalles klassisk eller symbolsk KI. Fremskritt ble gjort innen datasøk, logikk og naturlig språkforståelse, som demonstrerte problemløsnings- og interaksjonsevner. Men datakraften var for svak og beregningene for komplekse. En rapport i 1973 felte en knusende dom over resultatene. Det førte til en stans i forskningsmidler og innledet første KI-vinter, som varte fra 1974 til 1980.

Annen fase er kunnskapsbasert KI, med ekspertsystemer og inferensmotorer som formidler kunnskap og gir beslutningsstøtte. Men systemene var dyre å vedlikeholde og ikke særlig effektive. Det resulterte i en ny KI-vinter fra 1988 til ut på 2000-tallet. Tredje fase er datadrevet KI, som utspiller seg de siste 15–20 årene og har virkeliggjort mange av de tidlige visjonene. Maskiner er optimalisert for KI. Skyen gjør gigantiske datasett tilgjengelig. Maskinlæringsmodeller er forbedret. Dype nevrale nettverk har opplevd et gjennombrudd. KI er forkortelsen på norsk, mens AI for Artificial Intelligens er like gangbart.

Forhistorie og forutsetninger

To bemerkelsesverdige kvinner la viktige grunnlag. På midten av 1800-tallet skrev Ada Lovelace, datter av Lord Byron, maskininstruksjoner til Charles Babbages The Analytical Engine, en mekanisk datamaskin som aldri ble ferdigstilt, og gjør henne til historiens førte programmerer. Lovelace så for seg at maskiner utover ren numerisk beregning en dag kunne brukes til å lage musikk eller kunst. Tidlig på 1950-tallet argumenterte admiral Grace Hopper for at man skulle gå over til høynivåspråk i stedet for å taste inn ett-tall og nuller, og utviklet verdens første kompilator. Hennes merittliste for øvrig har gjort henne til legende som én av de store datapionerene.

På samme tid utformet John von Neumann arkitekturen som brukes i de fleste moderne datamaskiner. Den skisserer en maskin med en prosessor, et minne som holder både data og instruksjoner, og inn-/ut-enheter. I 1950 publiserte Alan Turing artikkelen Computing Machinery and Intelligence og introduserte det som er blitt kjent som Turing-testen. Hvis en maskin kan føre en samtale med et menneske uten at det kan skille om det snakker med en maskin eller en annet menneske, kan maskinen anses for å være intelligent. Sånn unngår man å ta stilling til begreper som bevissthet, intelligens og tenkning. Artikkelen fikk en dyptgående innflytelse på datavitenskap, filosofi og kognitiv psykologi.

Fødestedet for kunstig intelligens

Dartmouth College i New Hampshire er en av de eldste høyskolene i USA, grunnlagt i 1769 og medlem av «eføyligaen». Skolens valgspråk er: «Vox clamantis in deserto» – en røst som roper i ødemarken. Det er neppe et upassende motto for en konferanse som skulle markere fødselen for kunstig intelligens. Lærestedet samlet i juli og august 1956 en liten gruppe matematikere og forskere som var oppsatt på å utforske muligheten for å skape maskiner som kunne etterligne menneskelig intelligens. I søknaden til Rockefeller Foundation ble prosjektet beskrevet som:

Det vil bli gjort forsøk på å finne hvordan man kan få maskiner til å bruke språk, danne abstraksjoner og konsepter, løse typer problemer som nå er forbeholdt mennesker … For det nåværende formålet antas problemet med kunstig intelligens å være å få en maskin til å oppføre seg på måter som ville blitt kalt intelligent hvis et menneske oppførte seg slik ... Vi tror det kan gjøres betydelig fremskritt i ett eller flere av disse problemene hvis en nøye utvalgt gruppe forskere jobber med det sammen en sommer.

50 år senere markerte fem av de opprinnelig ti deltakerne jubileet. På minneplaketten kan man lese: «I denne bygning gjennomførte John McCarthy (Dartmouth), Marvin L. Minsky (MIT), Nathaniel Rochester (IBM) og Claude Shannon (Bell Laboratories) i løpet av sommeren 1956 Dartmouth-forskningsprosjektet om kunstig intelligens.»

John McCarthy er annen fra venstre, Marvin Minsky i midten – begge to blant de fremste skikkelsene innen KI. McCarthy var initiativtaker og preget begrepet Artificial Intelligence. Sammen grunnla de i 1959 AI-laboratoriet ved Massachusetts Institute of Technology (MIT). Seniorforskerne fra IBM og Bell var ikke i live lenger. Rochester var sjefsarkitekten for IBM 701, som var den første masseproduserte vitenskapelige datamaskinen. Shannon var kjent som «informasjonsteoriens far». Det skortet dermed ikke på faglig tyngde i prosjektet som forsket på «antakelsen om at alle aspekter ved læring eller andre funksjoner ved intelligens i prinsippet kan beskrives så nøyaktig at en maskin kan simulere dem».

Klassisk kunstig intelligens (1956–1974)

Første fase kalles klassisk eller symbolsk KI. Det ble gjort fremskritt innen datasøk, beregningslogikk og naturlig språkforståelse. General Problem Solver (GPS), utviklet av Herbert A. Simon og Allen Newell, var et forsøk på lage en allsidig problemløser. Selv om den ikke klarte å løse komplekse og omfattende utfordringer, kan den historiske betydning ikke undervurderes. Den brukte sannsynlighetsbaserte søk for å finne frem til lovende løsninger. GPS representerte problemer ved hjelp av tilstandene de var i og operasjonene som kunne forandre dem. Løsningen på et problem var en sekvens av handlinger som transformerte problemets starttilstand til måltilstanden.

Man kunne småprate med chatboten ELIZA. SHRDLU gjorde det mulig å manipulere objekter i primitive dataspill. Men man lyktes ikke med å skape fungerende kunstige nevrale nettverk, kalt «perceptron», satt sammen av persepsjon og nevron. Maskinoversettelser til og fra russisk – noe som garanterte finansiering under den kalde krigen – var for dårlige, dyre og tidkrevende. Visjonene var riktige og er senere til dels realisert, men datidens teknologier var ikke gode nok. Klassisk KI hadde få, om overhodet noen, praktisk anvendbare løsninger å vise til. Interessen dabbet av, og forskningsmidlene tørket inn. Det innledet første KI-vinter, som varte fra 1974 til 1980.

Kunnskapsbasert kunstig intelligens (1980–1988)

Annen fase er kunnskapsbasert KI, ekspertsystemer med kunnskapsbaser og inferensmotorer. Man intervjuet spesialister, punchet inn opplysningene og programmerte regelsett. Hensikten var å skape systemer eller programmer som anvender kunnskap om et spesifikt område til å utføre oppgaver eller løse problemer som krever menneskelig ekspertise og intelligens. Tilnærmingen skiller seg fra andre typer KI, som ofte er avhengige av algoritmer og dataanalyse, ved at den bruker en strukturert samling av kunnskap om et bestemt emne.

Kunnskapsbasen fungerer som hjernen i systemene og kan inneholde fakta, regler, forståelser og relasjoner relevant for et bestemt emneområde. Inferensmotoren benytter databasen til å trekke slutninger og løse problemer. Den kan bruke ulike logiske metoder for å simulere forskjellige former for menneskelig resonnering. De to vanligste er deduksjon, som går fra en generell hypotese og beveger seg mot spesifikke konklusjoner, og induksjon, som foretar en motsatt bevegelse, fra enkeltelttilfellet til det allmenne. Mindre kjent er abduktiv resonnering, som benyttes når man har et ufullstendig sett av observasjoner og søker etter sannsynlige forklaringer, som ved medisinske diagnoser og etterforskning av kriminalsaker. Et brukergrensesnitt gjør det mulig å samhandle med systemet, stille spørsmål og motta råd eller løsninger.

Stanford University utviklet MYCIN, et system for sykdomsdiagnoser, som aldri ble satt i produksjon. Digital Equipment Corporation (DEC) bygde XCON for å forvalte inventar og brukte det også selv. Men det var arbeidsintensivt og dyrt å vedlikeholde disse ekspertsystemene, og de var lite fleksible og ikke særlig effektive. Resultatet var en ny KI-vinter, som varte fra 1988 til ut på 2000-tallet.

Tanken bak ekspertsystemer var besnærende. Hvem ønsker ikke lett tilgjengelig ekspertise som kan kvalitetssikre og automatisere jobben? Med dagens mer avanserte teknologier er disse systemene i utstrakt bruk. Enkelte av dem kan inkludere mekanismer for å lære av nye data og erfaringer, sånn at kunnskapsbasen kan forbedres og utvides over tid. Systemene finner anvendelse i en rekke felt, fra medisin til juridiske tjenester, fra behandling av søknader til finansiell rådgivning.

Datadrevet kunstig intelligens (2005 og utover)

Tredje fase er vår tid og datadrevet KI. Det benyttes store datasett for å trene algoritmer og modeller, så de kan lære mønstre, trender og relasjoner. Læring kan foregå med og uten veiledning. Modellene kan trene seg selv med forsterket læring. En spesialisert form er dyplæring, som benytter nevrale nett med mange lag (dype nettverk) for å forstå komplekse sammenhenger i større datamengder. Her inngår også generativ KI, som frembringer innhold i form av tekst, bilder og musikk.

En algoritme er en trinnvis prosedyre eller et sett med regler som anvendes til å utføre en oppgave. En modell er resultatet av denne prosessen, klar til å bli brukt på reelle problemer eller data. Først velger man en egnet algoritme (eller flere) og bruker denne (disse) til å trene en modell med relevante data.

Algoritmen omfatter maskinlæringsmetoder som definerer hvordan data skal behandles og analyseres for å oppnå et ønsket resultat. Modellen er så det som faktisk blir benyttet for å gjøre prediksjoner eller utføre oppgaver i virkelige applikasjoner. En prediksjon er en forutsigelse basert på sannsynlighet, en form for kvalifisert gjetning utfra dataene modellen er fôret med. Forholdet mellom algoritme, modell og prediksjon kan tydeliggjøres med en modell for å bestemme hunderaser på bilder:

Først trenger vi en god algoritme for å gjenkjenne bilder. Det som peker seg ut, er dyplæring med et nevralt nettverk. Nettverksalgoritmen trenes på bildedata. Det endelig trenede nettverket (med alle sine justerte vekter) er modellen. Den kan så benyttes til å gjøre prediksjoner. Vi presenterer modellen for et bilde av en sanktbernhardshund som modellen aldri har sett før. Da bør den predikere at det med en høy grad av sannsynlighet dreier seg om denne hunderasen. Hvis modellen ikke klarer det, må vi gå videre i opplæringen og tilpasningen.

Maskinlæring er dermed en prosess der datamaskiner anvender statistiske metoder for å lære av data. I stedet for å bli programmert med spesifikke instruksjoner lærer systemene mønstre og beslutninger av dataene de analyserer. Jo større datasettet er, desto sikrere blir utfallet. Samtidig må man vokte seg for overtilpasning. Det skjer når en maskinlæringsmodell ikke bare lærer å finne underliggende mønstrene i dataene den trenes på, men memorer dem. Da oppnår man en høy treffsikkerhet på treningsdata, men en dårligere nøyaktighet på validerings- eller testdata.

Den vanligste formen for maskinlæring er overvåket eller veiledet læring. Modeller trenes på datasett som inneholder både inndata (features) og kjente utdata (merker). Hovedmålet med veiledet læring er å bygge en modell som kan gjøre nøyaktige prediksjoner eller ta beslutninger basert på nye, usette data ved å lære av treningsdataene.

I vår hunde-modell utstyrer vi hvert bilde vi viser den, med en merkelapp for rasen: schäfer, puddel, leonberger osv. Bildene er features, en variabel størrelse. For hver rase må vi presentere mange bilder, så modellen blir nøyaktig. At dette er inndata, burde være innlysende. At etikettene er utdata, kan virke mindre klart, men blir tydeligere når vi tar modellen i bruk. For da presenterer vi et ukjent bilde og er interessert i svaret på spørsmålet: Hvilken hunderase er dette?

En annen metode er uovervåket læring, der algoritmer trenes på data som ikke er klassifisert eller merket på forhånd. Målet er å finne strukturer eller mønstre i dataene uten eksplisitte instruksjoner om hva det skal søkes etter. Denne type læring brukes for å opprette dataklynger som grupperer liknende datapunkter, og for å forenkle komplekse data uten å miste vesentlige trekk (dimensjonsreduksjon). Semi-overvåket læring kombinerer de to foregående metodene.

Styrken i forsterket læring kan best illustreres med to maskiner som spiller sjakk. I 1997 vant IBMs Deep Blue sjakkturneringen mot daværende verdensmester Garri Kasparov. Dette var en øvelse i rå kraft, en spesialkonstruert maskin med brikker og søketrær det tok år å utvikle og optimalisere – en svanesang over en dinosaur av et ekspertsystem.

I 2017 lanserte DeepMind, et datterselskap av Google, AlphaGo Zero. Den er berømt for å mestre Go og senere sjakk, uten menneskelig inndata eller forhåndsprogrammert kunnskap om spillene, annet enn kjennskap til de grunnleggende reglene. AlphaGo spilte millioner av spill mot seg selv og forbedret seg stadig ved prøving og feiling, straff og belønning (forsterkning). Til slutt fikk den supermenneskelige ferdigheter i disse spillene, basert på egne erfaringer. Dette viser potensialet i KI til å lære og utvikle avanserte strategier og løsninger, uten at mennesker må trene den kunstige intelligensen.

Forsterket læring gir oss et nytt begrep om intelligens, som kan anvendes på organisk og ikke-organisk liv: En agents evne til å oppfatte et miljø og å velge handlinger som øker sjansene for å nå et mål.

  • AlphaGo er konfrontert med et brettspill. Målet er å vinne. Den kunstige intelligensen må forstå motstanderens trekk. Handlingen er å spille.
  • En ungdom har mattetentamen. Målet er å stå til eksamen. Oppfattelsen er å lese og forstå oppgaveteksten. Handlingen er å løse oppgavene.
  • En mus er i en labyrint. Målet er å komme seg ut og spise en ostebit. Oppfattelsen er å se og trekke slutninger. Handlingen er å navigere gjennom en floke av veier og passasjer.
  • En maurtue er truet av en bille. Målet er å beskytte kolonien. Maurene lukter inntrengeren. Deres kollektive intelligens driver dem til angrep.

Vi har dermed en god praksisnær definisjon av intelligent atferd. Baksiden av medaljen er at forsterket læring også gir næring til folk med sans for dystopiske visjoner og dommedagsprofetier. Selvlærende kunstige intelligenser kan en dag bli like intelligente som vi eller tilmed overgå oss.

I modellen for å gjenkjenne hunderaser antydet vi at vi måtte ta i bruk et dypt nevralt nettverk for å gi modulen kunstig syn. Samlet representerer disse nettene en banebrytende tilnærming til maskinlæring, med evnen til å lære og modellere komplekse mønstre og relasjoner i data på en måte som tidligere var vanskelig å oppnå. Nettverkene er inspirert av hvordan menneskehjernen fungerer.

Et dypt nevralt nettverk består av lag med noder, organisert i et hierarki. Inngangslaget tar imot data og er etterfulgt av ett eller flere skjulte lag. Utgangslaget produserer prediksjonen eller klassifiseringen. Hvert lag transformerer inndataene ved hjelp av vektede forbindelser og aktiveringsfunksjoner. Læring foregår ved en prosess kalt bakoverpropagering og bruk av en optimeringsalgoritme. I denne prosessen justeres nettverkets vekter basert på forholdet mellom mulige feil i nettverkets prediksjon og de faktiske dataene, sånn at nettverket gradvis forbedrer prediksjonene – resultatene vi er ute etter.

Dype nevrale nettverk har en egen evne til automatisk å oppdage nyttige egenskaper eller trekk i data, spesielt i de dypere lagene. Det gjør dem velegnet for komplekse oppgaver som bildegjenkjenning, der hvert lag avdekker stadig mer detaljerte aspekter ved bildene.

Tradisjonell programmering går ut på å inngi hver minste instruksjon med teskjeer til en datamaskin. Med maskinlæring velger vi en fundamental annen fremgangsmåte. Vi trener modeller som lærer av data og på egenhånd kan gjøre analyser og ta beslutninger på bakgrunn av disse dataene. Men hva modellene lærer, hvilke egenskaper de legger vekt på, vet vi lite om. Det er en «svart boks». Vi kan for eksempel tro at vi har trent en modell til å avgjøre om det befinner seg kjøretøy i et terreng.

Modellen er blitt presentert for et hav av bilder med og uten. Alt sammen virker med validerings- og testdata, men ikke i det virkelig liv der en drone skal informere militær etterretning. Hva har skjedd? I dette tilfellet viste det seg at alle bilder med kjøretøy var tatt opp i sollys og alle uten fotografert i disig vær. Maskinlæringsmodellen hadde bare trukket ut værdata og ikke vurdert andre forhold.

Generativ kunstig intelligens kan skape eller «generere» nytt og meningsfullt innhold, som tekst, bilder og musikk. Sånn atskiller den seg fra andre former for KI, som fokuserer på å analysere og tolke data. Som forskningsfelt oppsto generativ KI rundt 2010. Praktiske anvendelser har vi bare sett i noen få år. Kjernen i denne teknologien er maskinlæringsmodeller, spesielt dyplæring, som lærer seg mønstre og egenskaper fra gigantiske mengder eksisterende data. Et sentralt element er fremveksten av kraftige beregningsressurser – maskinvare og infrastruktur i skyen som er optimalisert for denne type KI.

For folk flest er nok generativ KI ensbetydende med ChatGPT, eventuelt DALL-E, som frembringer bilder utfra tekstbeskrivelser – begge fra OpenAI. Microsofts Copilot-familie har fått mye oppmerksomhet i det siste, særlig Copilot for Microsoft 365. Til grunn for selskapets tilbud ligger OpenAIs GPT-4, som også benyttes i Bing Chat. Men det er mange andre aktører der ute, som Googles chatbot Bard og Adobe Firefly, Stable Diffusion, Midjourney – de tre siste med tekst-til-bilde-funksjon.

Avsluttende ord

Kunstig intelligens har opplevd somre og vintre, og nå er det høysommer, uten væromslag i sikte. KI har gjort sitt inntog i næringsliv, offentlig forvaltning og forbrukerteknologi. Det er en smal eller svak form for KI vi har i dag. Men det betyr ikke at modellene mangler kraft. Dét de kan, gjør de som regel bedre, raskere og mer nøyaktig enn vi. Modellene opererer innenfor avgrensede domener og kan ikke overføres til andre de ikke er utviklet for. En KI for sjakk er ikke anvendelig for å analysere søknader.

Neste steg er generell KI, som er på høyde med allmenn menneskelig intelligens. Det ligger et stykke fremover i tid. Der må vi foreløpig gripe til science fiction, som R2D2 i Star Wars, Data i Star Trek og HAL 9000 i Stanley Kubricks film En romodyssé. Disse intelligensen kan ikke læres opp av mennesker; de må kunne trene seg selv. Og da er skrittet til kunstig superintelligens også en mulighet, som Skynet i The Terminator (1984) og Arkitekten i to av Matrix-filmene.

Videre lesning og koblinger

Evelon satser stort på kunstig intelligens. Den moderne arbeidsplassen i skyen var første steg i din digitale transformasjon. Neste trinn er automatisering med KI. Her er noen forslag til videre lesning:

Microsoft Ignite 2023 – Generativ KI i kopilotenes tidsalder

Microsoft 365 Copilot – Din KI-baserte digitale assistent

Microsoft Security Copilot – Paradigmeskifte i sikkerhet

Hva er generativ kunstig intelligens (GPT)?

Bing Chat vs. ChatGPT

Publisert:

Vi hjelper gjerne til med å finne den beste løsningen for din bedrift

Ta kontakt med oss for en uforpliktende prat!