Vil AI snu opp ned på arbeidslivet som vi kjenner det, gjøre halvparten av oss overflødige og resten til teknologiens slaver?
Eller er det bare enda en dommedagsprofeti som smører svovelpredikerende konsulenter og foredragsholderes bankkontoer?
Jeg har fulgt IT-bransjen siden tidlig 80-tall, fra den gang IBM PC hadde 5 1/4 og 3 1/2 tommers floppydisker og en 5 megabyte harddisk føltes som en revolusjon, dog en revolusjon med en prislapp på tusenvis av kroner per megabyte.
AI, vinter og vår
Allerede den gang var AI et tema, men senere på 80-tallet ble det et ikke-tema. Den andre «AI-vinteren» (den første var fra 1974-1980) senket sitt kalde mørke over drømmene om å skape kunstige intelligenser.
I følge Bing (se nederst i artikkelen) var 1987-1993 den andre «AI-vinteren», hvor interessen og finansieringen for AI falt i USA og Europa. Høye forventninger, lav ytelse, konkurranse fra Japan og økonomiske nedgangstider oppgis som årsaker.
Nå er kunstig intelligens igjen et hett tema som tiltrekker seg millioner av nysgjerrige brukere og milliarder av investeringskroner.
Og som det skjer hver gang: Dystopier og utopier snubler over hverandre for å ta ordet. Jobber skal forsvinne, og jobber skal igjen gjenoppstå, eventuelt kasseres som uegnet tidsfordriv for mennesker.
Gitt at det blir noen mennesker igjen etter at AI-en har overtatt verdensherredømmet og omskapt hele universet til en bindersfabrikk.
Det jeg er ganske sikker på er at tilte-effekten av alt som skjer rundt AI nå vil være ganske stor.
Rådsmøte
Derfor er det naturlig å kalle våre kloke leseres hoder inn til rådsmøte.
I dagens «Litt klokere» er temaet kunstig intelligens og arbeidslivet, og — ifølge ChatGPT — skal vi «utforske mulighetene og navigere endringene».
Dette blir gøy. Bli med!
God tirsdag.
Se også:
Bings tidslinje for AI
Googling er hardt arbeid (alt er relativt). Jeg satte derfor Bing i gang med å lage en tidslinje for AI mens jeg skrev denne artikkelen. Her er tidslinjen:
- 1950: Alan Turing publiserer sitt berømte essay “Computing Machinery and Intelligence”, der han foreslår Turing-testen som en måte å måle maskinintelligens på.
- 1956: John McCarthy, Marvin Minsky, Claude Shannon og Nathaniel Rochester organiserer den første AI-konferansen på Dartmouth College, der de introduserer begrepet “artificial intelligence”.
- 1957: Frank Rosenblatt utvikler perceptronet, en av de første nevrale nettverkene som kan lære fra data.
- 1961: Den første industrielle roboten, Unimate, blir installert på en General Motors-fabrikk i New Jersey.
- 1965: Joseph Weizenbaum lager ELIZA, et program som kan simulere en samtale med en psykoterapeut.
- 1969: Marvin Minsky og Seymour Papert publiserer boken “Perceptrons”, der de påpeker begrensningene og problemene med nevrale nettverk.
- 1972: Den britiske regjeringen kutter finansieringen til AI-forskning etter den kritiske Lighthill-rapporten, som hevder at AI har mislyktes i å oppfylle sine ambisiøse mål.
- 1974-1980: Den første AI-vinteren. Interessen og finansieringen for AI faller dramatisk i USA og Storbritannia, på grunn av manglende resultater, tekniske utfordringer og økonomiske kriser.
- 1980: Ekspertsystemer blir populære som en form for AI som bruker regelbasert resonnering for å løse spesifikke problemer innen ulike domener.
- 1982: Japan lanserer det femte generasjons datamaskinprosjektet, et stort offentlig-privat samarbeid for å utvikle neste generasjon av AI-systemer basert på logikkprogrammering og parallell databehandling.
- 1985: Rodney Brooks foreslår en ny tilnærming til AI kalt “subsumption architecture”, som fokuserer på å lage autonome roboter som kan interagere med omgivelsene sine ved hjelp av enkle atferdsregler.
- 1987: John Hopfield og David Rumelhart populariserer begrepet “connectionism”, som fokuserer på å lage nevrale nettverk som kan lære fra data ved hjelp av algoritmer som backpropagation.
- 1987-1993: Den andre AI-vinteren. Interessen og finansieringen for AI faller igjen i USA og Europa, på grunn av høye forventninger, lav ytelse, konkurranse fra Japan og økonomiske nedgangstider.
- 1997: IBM’s Deep Blue slår verdensmesteren i sjakk Garry Kasparov i en historisk kamp.
- 2005: Google lanserer Google Maps, et av de første populære webapplikasjonene som bruker AI-teknikker som maskinlæring og datavisualisering.
- 2009: Google lanserer Google Translate, et av de første populære webapplikasjonene som bruker AI-teknikker som statistisk maskinoversettelse og nevrale nettverk.
- 2011: IBM’s Watson slår to tidligere mestere i quizshowet Jeopardy! ved hjelp av AI-teknikker som naturlig språkbehandling og kunnskapsrepresentasjon.
- 2012: AlexNet, et dypt nevralt nettverk utviklet av Alex Krizhevsky, Ilya Sutskever og Geoffrey Hinton, vinner ImageNet-konkurransen ved å oppnå en topp-5 feilrate på 15.3%, mer enn 10 prosentpoeng lavere enn andreplassen. AlexNet bruker GPU-er for å trene et nettverk med 60 millioner parametere og åtte lag, noe som demonstrerer den overlegne ytelsen til dype nevrale nettverk for bildegjenkjenning
- 2014: Google kjøper DeepMind, et britisk AI-selskap som utvikler avanserte algoritmer for å lære fra data og spille spill.
- 2015: Microsoft lanserer Cortana, en virtuell assistent som bruker AI-teknikker som talegjenkjenning og talegenerering for å hjelpe brukere med ulike oppgaver.
- 2016: AlphaGo, et AI-system utviklet av DeepMind, slår verdensmesteren i Go Lee Sedol i en historisk kamp. Go er et komplekst brettspill som krever høy grad av intuisjon og strategi.
- 2017: Sophia, en humanoid robot utviklet av Hanson Robotics, blir det første roboten som får statsborgerskap i Saudi-Arabia. Sophia bruker AI-teknikker som ansiktsgjenkjenning, ansiktsuttrykk og naturlig språkbehandling for å kommunisere med mennesker.
- 2018: OpenAI lanserer ChatGPT, et AI-system som kan generere naturlig språk basert på en stor mengde tekstdata fra internett. ChatGPT kan skrive tekster om ulike emner og stiler, fra nyhetsartikler til dikt.
- 2019: Google lanserer Duplex, en AI-funksjon som lar Google Assistant ringe til virkelige mennesker og bestille tjenester som frisør eller restaurant. Duplex bruker AI-teknikker som talegjenkjenning, talegenerering og naturlig språkforståelse for å føre realistiske samtaler.
- 2020: GPT-3, den tredje versjonen av ChatGPT utviklet av OpenAI, blir det største og mest avanserte nevrale nettverket noensinne. GPT-3 har 175 milliarder parametere og kan generere naturlig språk om nesten hva som helst.
- 2021: DALL-E, et AI-system utviklet av OpenAI, blir presentert som et system som kan generere realistiske bilder basert på naturlig språkbeskrivelser. DALL-E bruker en variant av GPT-3 for å kombinere tekst og bildeinformasjon.
- 2022: GPT-4, den fjerde versjonen av ChatGPT utviklet av OpenAI, blir presentert som et system som kan generere naturlig språk om nesten hva som helst, samt utføre ulike oppgaver som oversettelse, sammendrag eller spørsmål og svar. GPT-4 har over en billion parametere og kan tilpasse seg ulike domener og stiler basert på en liten mengde tekstdata fra brukeren2.
- 2023: AlphaFold 3, et AI-system utviklet av DeepMind, blir presentert som et system som kan forutsi den tredimensjonale strukturen til proteiner basert på deres aminosyresekvens med høy nøyaktighet og hastighet. AlphaFold 3 bruker en variant av transformer-modellen for å lære fra store mengder proteinstrukturdata og løse et av de største problemene innen biovitenskap.