En informasjonsmengde tilsvarende menneskehetens samlede genererte informasjon til 2003, altså fra de første kuneiformskribleriene på leirtavler til gode ti år ut i internettets utbredelse, blir i følge Eric Schmidt i google generert på bare førti timer i dag. Det skapes enorme mengder ny informasjon, og det er for lengst umulig for enkeltmennesker å henge med på alt. Det kan være svært utfordrende selv på smale områder. Heri ligger den kanskje største langsiktige gevinsten av kunstig intelligens – en ekstern entitet kun begrenset av energitilførsel som kan trekke sammen, filtrere, forstå og skape mening ut av store datamengder (en datamengde den utvilsomt også vil bidra til for egen maskin). Den vil også hjelpe oss å forstå en kompleks verden utenfor det digitale bedre. Kunstig intelligens har allerede oppdaget ny kunnskap som, om ikke annet, vi ville brukt mye lengre tid på å finne selv. På et tidspunkt vil den kanskje svare ut problemstillinger som ikke har falt oss inn ennå.
Så langt har treningskosten for AI vært svært høy, men den stuper. I 2020 lå kostnadene på $4,6 mill for å trene opp en modell til GPT 3-nivå. Det teknologioptimistiske fondsselskapet ARK Invest fremskrev den gang kostnaden i 2022 til å ligge på $740k. I 2022 var faktisk kostnad falt 10x til $450k. ARKs fremskrivning til 2030 ligger på $30 (nei, mangler ikke en ‘k’). Og de anslår at AI-bransjen vil tilføre økonomien verdi tilsvarende $200 billioner det året (igjen – ikke feiloversatt: ‘trillion’).
Så er spørsmålet når maskinene vinner selvbevissthet og definerer sine egne agendaer fristilt fra sine skapere (og i løpet av noen sekunder beregner at den kan overta verden og erstatte oss – og gjør det – siden den neppe vil ha folk løpende rundt med tilgang til å trekke ut kontakten). Det kommer heldigvis ikke til å skje på mange uker enda. Men midt i teknologioptimismen og fremtidshåpet (for de nærmeste ukene, i alle fall…) brygger en gryende bekymring under overflaten.
Bråket i OpenAI
Med stor verdi og store omveltninger ville det være litt for bekvemt om teknologien bare hadde oppsider. Verktøy kan som kjent brukes like effektivt av de med dårlige intensjoner som av de med rent mel i posen. Den overraskende sparkingen av Sam Altman fra OpenAI (ChatGPT, Wall·E mm) etter en litt uklar indre konlikt, illustrerer (muligens). Altman ble for ordens skyld snappet opp av Microsoft på rekordtid, før han var tilbake i sjefsstolen i OpenAI igjen. Men hva skyldtes krangelen? Altman selv setter størst spor på forretningssiden – han operasjonaliserer og kommersialiserer. Mange av de andre i selskapet er forskere som vil trå forsiktig frem på ukjent grunn – de vil forstå konsekvenser og implikasjoner før man gjør kraftige verktøy allment tilgjengelige.
Ryktet sier at OpenAI sitter på en modell bak forhenget som går under navnet Q* (‘q-star’, med navn avledet fra den berømte A*-algoritmen). Q* er i følge ryktene en svært lovende matematikkmodell som i øyeblikket svarer ut matematikkspørsmål på roughly videregåendenivå.
Det er muligens ikke revolusjonerende i seg selv, men det peker mot noe mye større. Andre AI-modeller har vanskeligheter med å svare på matematiske problemstillinger de ikke er trent på. Denne modellen synes å ‘forstå’ matematikk på en fundamental måte, og løser problemstillinger den aldri har sett på en god måte. Og det vi begynner å se konturene av er at vi så langt ikke stanger i noen naturlig øvre grense for hva store AI-modeller kan oppnå – mer (kostbar) trening gir bedre modell. Og klarer man å få modellen inn i et spor der den autonomt kan forbedre seg, slik AlphaGo og dens etterfølger AlphaZero gjorde på sitt smale område for en del år siden, kan den raskt overgå all mennesklig innsikt på området. For alt vi vet per nå er det bare et spørsmål om kostnader for å gjøre den bedre.
Og de kostnadene stuper.
Internt i OpenAI har konflikten tilsynelatende gått mellom de som vil kommersialisere med det samme (Altman), og de som er usikre på konsekvenser og implikasjoner av å slippe noe så potent ut i verden (forskerne). Altman ville kommersialisere, forskerne ville se an og forstå først. Frykten er at en tilstrekkelig kraftig matematisk modell vil være et for kraftig verktøy i hendene på kriminelle. All kryptering er basert på matematikk, og det kunne skapt enorme problemer over natten om man ikke har tenkt gjennom potensialet før en tilstrekkelig brukbar modell sitter i hendene på alle med $20 til overs i måneden.
Spørsmålet, som ingen foreløpig har svaret på, er hvor mye AI det er trygt å slippe løs, og hvor raskt. Foreløpig er sjansen lav for at AI’en skal bryte seg ut av sitt digitale fengsel og ta over verden, men bare et kraftig nok verktøy kan gjøre stor skade i feil hender.
Foreløpig er problemet nesten motsatt: ellers harmløse modeller blir belemret med et tynt og lettlurt lag med krampeaktig og smått paranoid politisk korrekthet i sluttbrukerlaget, til større eller mindre irritasjon for oss i andre enden.
Det er neppe svaret på det egentlige problemet. Eller noe problem, spør du meg.
Forstå det bedre
Men hva som har skjedd inne i OpenAI vil tiden sikkert vise – eller om Q* i det hele tatt eksisterer. I mellomtiden kan vi andre bare forsøke å henge med og etter fattig evne forstå hva vi kan om hva denne teknologien faktisk er. Andrej Karpathy (i mange år leder av Teslas autopilot-team) har laget en utmerket, pedagogisk sammenfatning av hvordan disse store språkmodellene fungerer, og hvor deres potensiale fremover ligger.
Anbefaler å bruke en time på videoen nedenfor.
Om du er over gjennomsnittlig teknisk interessert, er det verdt å se en enkel modell bli implementert fra bunnen av også, i en av disse videoene (ca to timer hver seg):