John Krogstie er sivilingeniør innen datateknikk fra 1991. Alt på den tiden var kurs innen AI en naturlig del av en master-utdanning innen data ved NTH. Selv om AI ikke var et hovedfokus var det dekket i flere fag, og Krogstie programmerte et større system i Prolog som del av diplomoppgaven. Når han noen år senere tok doktorgrad, var tema for prøveforelesningen Data Mining. Senere har det vært naturlig både som konsulent, forsker og professor å holde seg oppdatert på utvikling innen AI-feltet, der han de siste årene blant annet har hatt stipendiater innen området anbefalingssystemer.
Denne artikkelen er hentet fra boken Teknologien endrer samfunnet utgitt på Fagbokforlaget i 2017 (ISBN 978-82-450-2297-1).
Boken kan bestilles her: https://www.fagbokforlaget.no/sok/?q=978-82-450-2297-1
Når vi skal forholde oss til området kunstig intelligens, er det viktig å ha en forståelse for begrepet intelligens. Hva som inngår i menneskelig intelligens, forstås på ulike måter. Gardner skiller mellom syv ulike typer intelligens: språklig, logisk/matematisk, visuell, musikalsk, kroppslig og sosial intelligens samt selvinnsikt (Gardner, Howard (1999), Intelligence Reframed: Multiple Intelligences for the 21st Century, Basic Books). Mange av disse har vi som del av arbeidet med kunstig intelligens forsøkt å etterligne i maskiner, med hovedfokus på språklig, matematisk/logisk og visuell intelligens, der ulike typer intelligent aktivitet blir forsøkt reprodusert og overgått med bruk av svært ulike metoder. Grovt sett kan vi snakke om to hovedmetoder: symbolske, der vi prøver å representere kunnskap om verden på en logisk måte slik at vi kan bruke eksplisitte regler for å utlede et resultat basert på tilgjengelige data, og sub-symbolske metoder, der vi etterligner deler av hjernens struktur og virkemåte i såkalte nevralnett. Et viktig felt i AI er maskinlæring. I begge metodene kan maskinen forbedre seg (lære) med basis i data, men de har svært ulik anvendelse. Det som de symbolske metodene er gode på, er ikke de sub-symbolske metodene like gode på – og omvendt. Dyp læring (engelsk: Deep Learning) er en fellesbetegnelse på nyere metoder innen maskinlæring der vi tar i bruk nevrale nettverk på nye måter og i flere nivåer enn tidligere.
Ideen om å lage intelligente maskiner er gammel, og kan spores helt tilbake til antikken. Utover enkle regnemaskiner derimot, var det først i forrige århundre at vi begynte å se konturene av at de faktisk kunne lages. Så hva kjennetegner en intelligent maskin?
Figur 1 Alan Turing (Foto: Wikipedia).
Alan Turing beskrev i 1950 en test for å finne ut om maskiner kan tenke, med hovedfokus på språklig intelligens. Kort fortalt består denne såkalte Turingtesten i å la et menneske kommunisere med enten et annet menneske eller en maskin (uten å se hva eller hvem man kommuniserer med). Klarer ikke mennesket å skille mellom disse, har maskinen bestått testen. Jevnlig kjøres det konkurranser der man tester ut ulike programmer. I 2014, for eksempel, overbeviste programmet «Eugene Goostman» 33 % av brukerne at det var et menneske etter en fem minutter lang samtale.
Men Turingtesten i seg selv er egentlig litt uinteressant. En definisjon av AI er å få datamaskiner til å gjøre ting som mennesker (per i dag) er bedre på. Slik har AI fått et mysteriens slør over seg. Når man så får det til like godt eller bedre enn mennesker, er det redusert til algoritmer, som er mindre mystiske (men mer nyttige). Hvis vi ser på de ulike områdene som oppigjennom har blitt sett på som del av AI-feltet, er det klart at vi allerede har maskiner som oppviser intelligent oppførsel (uten at de kan betegnes som intelligente i en generell, menneskelig forstand), og har hatt det lenge. Når bilen din kjører gjennom en bomstasjon uten brikke, og bomstasjonen leser av bilskiltet, bruker den teknologi som for 30 år siden ville blitt sett på som del av kunstig intelligensfeltet. Når du søker om betalingsutsettelse for et lån, blir saken kanskje behandlet av en regelmotor som bruker samme teknologi som fantes i tidlige versjoner av såkalte ekspertsystemer på 80- og 90-tallet. Etter at Deep Blue slo daværende sjakkverdensmester Garry Kasparov i 1997, er nå sjakkcomputerne så overlegne de beste menneskelige spillerne at det ses på som mistenkelig hvis et menneske er like god som dem over mange trekk. Selvkjørende biler er rett rundt hjørnet (i hvert fall på en solskinnsdag), enkle nyhetsartikler skrives automatisk uten journalist-innsats og anbefalingene du får fra Amazon og Netflix bruker teknikker som opprinnelig ble utformet på AI-området.
AI ble etablert som en term og forskningsområde i 1956, ved en konferanse ved Dartmouth College i USA, der man samlet ledende AI-forskere som John McCarthy, Marvin Minsky (som hadde laget det første nevralnettet allerede i 1950, og som senere var rådgiver for Stanley Kubrick når han lagde filmen 2001: En romodyssé med AI-en HAL i en viktig rolle i 1969), Allen Newell og Herbert Simon. I begynnelsen gikk utviklingen svært raskt, og optimismen var stor. Herbert Simon (senere nobelprisvinner i økonomi) hevdet at «machines will be capable, within twenty years, of doing any work a man can do». Blant annet brukte forsvaret i USA mye ressurser på AI-forskning frem mot tidlig 70-tall da tålmodigheten tok slutt grunnet begrensede resultater i praksis.
Figur 2 John McCarthy (Foto: “null0” (http://www.flickr.com/photos/null0/272015955/) [CC BY-SA 2.0 (http://creativecommons.org/licenses/by-sa/2.0)], via Wiki- media Commons)
Interessen for AI tok seg etter hvert opp igjen ved introduksjonen av det som ble kalt ekspertsystemer på 80-tallet samt store forskningsprogram blant annet i Japan (det såkalte 5.-generasjonsprogrammet), men igjen ble mange skuffet. Litt ufint kan vi si at det sentrale resultatet fra 5.-generasjonsprogrammet var at vaskemaskinene brukte «fuzzy logic» for å dosere såpe (dvs. logikk der man kan operere ikke bare om at noe er sant eller usant, men også at det kan være mer eller mindre sannsynlig at det er sant). Vi finner ikke lenger mange som prøver å selge ekspertsystemer, selv om typen problemer de skulle brukes på fortsatt er aktuelle. Et av de første ekspertsystemene, MYCIN, var et system for medisinsk diagnose, et bruksområde i våre dager for IBMs maskin Watson, som først ble kjent når den slo de menneskelige Jeopardy-ekspertene i 2011.
Interessen for AI tok seg etter hvert opp igjen ved introduksjonen av det som ble kalt ekspertsystemer på 80-tallet samt store forskningsprogram blant annet i Japan (det såkalte 5.-generasjonsprogrammet), men igjen ble mange skuffet. Litt ufint kan vi si at det sentrale resultatet fra 5.-generasjonsprogrammet var at vaskemaskinene brukte «fuzzy logic» for å dosere såpe (dvs. logikk der man kan operere ikke bare om at noe er sant eller usant, men også at det kan være mer eller mindre sannsynlig at det er sant). Vi finner ikke lenger mange som prøver å selge ekspertsystemer, selv om typen problemer de skulle brukes på fortsatt er aktuelle. Et av de første ekspertsystemene, MYCIN, var et system for medisinsk diagnose, et bruksområde i våre dager for IBMs maskin Watson, som først ble kjent når den slo de menneskelige Jeopardy-ekspertene i 2011.
På 90-tallet var igjen interessen for tradisjonell AI lav, men enkelte nye områder dukket opp. Et eksempel er det som kalles data mining (datagruvedrift), der man så på nye metoder for å utlede innsikt fra store datamengder blant annet ved bruk av statistiske metoder sammen med AI-metoder (Decker, K.; Focardi, S.: Technology overview: a report on data mining. Swiss Federal Institute of Technology (ETH Zurich) Technical Report CSCS TR-95-02, Zurich, 1995). Decker og Focardi beskrev hva som var nytt på følgende måte:
Disse aspektene i sammenheng er også det som i våre dager ligger bak den store interessen for stor-data (Big Data). På denne tiden var også mange av de sentrale AI-metodene kjent, inkludert både symbolske og sub-symbolske metoder.
Selv om mange av basisteknikkene har vært kjent lenge, har spesielt de tre første trendene over fortsatt å gjelde. Selv om vi kan se en viss oppbremsing når det gjelder utvikling av prosesseringskraft, har man nå i praksis mulighet til å bruke de mer avanserte teknikkene på stadig nye problemer. Et annet viktig utviklingstrekk de siste 20 årene er at vi i større grad kan kombinere ulike teknikker. Watson, for eksempel, bruker ikke bare én teknikk, men oppimot 100 ulike teknikker der vi kan bruke ulike metoder på samme data i parallell, og velge ut svaret som flest av metodene kommer frem til. Vel så viktig for at AI har blitt en vanlig del av vår virkelighet, er at vi inkluderer AI-elementer i mer tradisjonelle informasjonssystemer. Mesteparten av saksbehandlingssystemet til Statens Lånekasse er et tradisjonelt datasystem som jobber sammen med AI-modulen (regelmotoren), tilgang til data fra andre kilder der man også kjenner datakildens egenskaper (metadata) og menneskelige operatører for å gi et totalsystem som både er nyttig og effektivt. Siden AI-teknikkene ofte krever mye prosessering, har også kombinasjonen av AI og parallelle systemer vært viktig.
Selv om AI omfatter mange ulike teknikker, er det en liten del av området datateknikk som helhet. Så lang har mesteparten av utviklingen vi har sett innen informasjonssystemer og digitalisering, og hvordan de har endret blant annet jobbmarkedet de siste 20 årene, vært basert på det vi kan kalle tradisjonell informasjonsteknologi. Det har vært vanskelig nok å automatisere og understøtte ganske banale aktiviteter med datateknologi, for eksempel i offentlig sektor, når vi har måttet forholde oss til et lovverk som er skrevet før det fantes datasystemer. Når vi nå spår at fremtidens teknologi vil gjøre opp mot halvparten av dagens eksisterende jobber overflødige, er det i mange tilfeller ved bruk av AI-teknikker sammen med videreutvikling og raffinering av tradisjonell datateknologi. I tillegg er det viktig at maskinene lages for å fungere i interaksjon med mennesker, og ikke bare i egne, kontrollerte miljøer som tradisjonelle industriroboter.
Som nevnt finner vi elementer av kunstig intelligens i flere og flere systemer. Samtidig er det slående hvor dårlig enkelte av løsningene for eksempel innen anbefalingssystemer er. Når ResearchGate (et sosialt nettverk for forskere) greier å foreslå stillinger for meg som er på lavere stillingsnivå langt av gårde i mindre attraktive strøk eller innen fagområder utenfor aktuelt kompetanseområde, kan vi jo lure. Allikevel ser vi også mange eksempler på god bruk av denne type teknologi, og også ansatser til at vi kan erstatte mange jobber som normalt har vært gjort av mennesker – også der det er behov for mer generell kunnskap. Verdt å merke seg er at denne anvendelse av teknologien i seg selv krever kunnskap om hvilken teknikk som vil fungere til hva. Dette er kunnskap som ikke finnes i overflod og et kompetanseområde der det er et stort og økende behov som langt overskrider de som utdannes, er nettopp IT-området (Damvad. Dimensjonering av avansert IKT-kompetanse). Et annet aspekt er forventningsstyring; vi har sett flere ganger i historien hvordan overdrevne forventninger til både AI og annen IT fører til at vi ikke får utnyttet den teknologien som faktisk er der på en god måte.
Vi tenker oftest på IT som noe som kan automatisere eksisterende oppgaver. Selv om mye av effekten fra bruk av AI-teknologi også går på å automatisere oppgaver tradisjonelt gjort av mennesker (og vi for mange enkle oppgaver har maskiner som ikke bare gjør det vi normalt ville se på som intelligente oppgaver like godt som mennesker, men i mange tilfeller bedre), er det også interessant å se hvordan teknologien kan komme opp med helt nye løsninger. Evolusjonære algoritmer som prøver ut mange nye løsninger for så å kunne evaluere disse, har allerede i lang tid kommet med nye løsninger som er annerledes enn det en vanlig ekspert ville tenke på. For eksempel utviklet NASA en helt ny antenne for kommunikasjon i rommet, som ikke ligner på tradisjonelle antenner, basert på slike utprøvende algoritmer. Potensialet for kreativitet er enda større når vi bruker denne type teknologi i samspill med mennesker. Mens de fleste dataprogrammer er algoritmiske, vil såkalte interaksjonsmaskiner, der vi ser på IT-løsningene som noe som ikke bare automatiserer problemløsning, men som gjør det i samspill med mennesker, kunne brukes på en rekke problemer det ikke er mulig å løse med tradisjonelle algoritmer (Wegner, P.: Why interaction is more powerful than algorithms, Communications of the ACM, vol. 40, no. 5. (1997)). I litterære konkurranser ser vi for eksempel at manuser laget av AI-systemer i samarbeid med mennesker begynner å hevde seg.
Figur 3 Antenne designet ved hjelp av evolusjonære algoritmer (Foto: https://commons.wikimedia.org/wiki/File:St_5-xband-antenna.jpg.)
Innen teknologiområdet er det (som i verden for øvrig) svært vanskelig å forutsi når noe vil skje, selv om vi kan ha god grunn til å forvente at visse ting inntreffer en eller annen gang i fremtiden. Akkurat tidspunktet for når noe blir tatt i generell bruk, avhenger ikke bare av hva vi har tilgjengelig av teknologi og kunnskap, men også av andre samfunnsmessige endringer som ikke har så mye direkte med teknologi å gjøre. I 2002 skrev vi i en artikkel:
With the advent of new mobile infrastructures providing higher bandwidth and constant connection to the network from virtually everywhere, the way people use information resources is predicted to be radically transformed (Krogstie, John, Lyytinen, Kalle, Opdahl, Andreas, Pernici, Barbara, Siau, Keng, & Smolander, Kari. (2002). Mobile Information Systems - Research Challenges on the Conceptual and Logical Level. Paper presented at the MobiMod’02, Tampere Finland).
Den radikale endringen kom, men ikke bare fordi det var teknisk mulig å gjøre mobilen til primærklient mot Internett. En viktig hendelse var at Apple i 2007 lanserte iPhone. Mens det før dette hovedsakelig var bruk av Internett per PC (som vi kunne se det i bruksmønstre av det trådløse bynettet i Trådløse Trondheim), ble mobilen plutselig en viktig måte å bruke Internett på (Andresen, Steinar Hidle, Krogstie, John, & Jelle, Thomas. (2007a). Lab and Research Activities at Wireless Trondheim. Paper presented at the 4.th IEEE International Symposium on Wireless Communication Systems (ISWCS’07) Trondheim, Norway). Ikke fordi det ikke var mulig å gjøre dette med telefonene vi hadde tidligere, men fordi det da gikk opp for den alminnelige forbruker at dette var mulig (og rimelig enkelt) å gjøre.
Fremskrivingen av jobbmarkedet peker som nevnt på at en rekke jobber, også på mellomledernivå (som ofte handler om å finne og strukturere informasjon), forsvinner, noe som i de fleste tilfeller baserer seg på bruk av teknologi som i hvert fall en gang i tiden ble gitt merkelappen kunstig intelligens. Mens den datadrevne endringen av arbeidslivet i stor grad så langt har basert seg på å få tatt i bruk ganske tradisjonell teknologi der vi i stor grad har fokusert på automatisering, vil vi fremover se mer av at tradisjonelle jobber blir erstattet av maskiner som kan fungere i interaksjon med mennesker. Mens industriroboter tradisjonelt har jobbet i beskyttede miljøer, vil fremtidens roboter, slik som Baxter, jobbe sammen med oss. En av de tingene vi vil se, er at vi ganske fort vil venne oss til å omgås maskinene. Helt fra enkle vaske- og gressklipperroboter som nå finnes i milliontall, til roboter som Paro, (Christopher J. Calo, Nicholas Hunt-Bull, Lundy Lewis, and Ted Metzler. 2011. Ethical implications of using the paro robot with a focus on dementia patient care. In Proceedings of the 12th AAAI Conference on Human-Robot Interaction in Elder Care (AAAIWS’11-12). AAAI Press 20–24), som bidrar i omsorgsindustrien, og leketøy, som i tillegg til å interagere med barna, også brukes for å lære hvordan de skal interagere med mennesker for å bli likt. Selv enkle gressklipperroboter som «Bernt» får folk et positivt forhold til. En Facebookside for Bernt fikk i løpet av et år 4000 likes. Når videoer fra Boston Dynamics viser mennesker som sparker til roboter (for å vise hvor godt de tar seg inn), reagerer enkelte på det de ser på som mobbing.
En annen type «roboter» som blir mer og mer vanlige, er autonome kjøretøy. Selv om det muligens er Googles arbeid innen dette feltet som har fått mest omtale, arbeider alle de store bilfabrikantene med denne type teknologi. De første selvkjørende bussene er i rute i USA, og det er ikke noe i veien, teknisk sett, for å få til det samme i Norge – i hvert fall når det ikke er for mye tåke og snø. Forsøk på dette ble gjort allerede i 2016. Her stopper foreløpig lovverket oss, men det er politisk vilje for å myke opp dette, og i løpet av det neste tiåret vil en større del av person- og varetrafikken tas over av autonome kjøretøy. I tillegg til at dette trolig vil føre til færre ulykker, vil mange jobber i transportsektoren gå tapt.
Figur 4 Gressklipperroboten Bernt som brukes på NTNU (Foto: John Krogstie).
Begrepet «robot» brukes nå også (litt misvisende, synes vi) på rene dataløsninger (såkalte softwareroboter). Serviceroboter som Amelia18 vil settes inn i oppgaver som tradisjonelt har vært betjent av mennesker, og flere og flere oppgaver som krever – ikke bare riktige, men også gode – svar, som man typisk kommer frem til i samspill mellom mennesker, vil tas over av maskiner.
Figur 5 Amelia klar til å hjelpe deg (Foto: IPSOFT).
Enkelte har hevdet at den teknologiske utviklingen innen AI og beslektede felt bringer oss frem til en situasjon der maskinene blir mer intelligente enn oss, og også blir i stand til selv å lage enda mer intelligente maskiner til vi kommer til situasjonen som betegnes som den teknologiske singulariteten. Begrepet henspiller på det som skjer i et svart hull, der det på grunn av den sterke gravitasjonen ikke er mulig for oss å få informasjon om det som er på innsiden, siden lyset ikke unnslipper tyngdekraften. Den datatekniske singulariteten er tilsvarende et hypotetisk tidspunkt der systemene, siden de er mer intelligente enn oss, vil lage en fremtid vi ikke kan forestille oss (men som trolig ikke gir oss en mer prominent rolle enn som kjæledyr).
Man har diskutert dette begrepet siden 50-tallet. Trolig er singulariteten et skremselsscenario som ikke vil inntreffe. Selv om vi ser store fremskritt, er det stadig når det kommer til punktløsninger. Amelia er ikke spesielt god til å kjøre bil, for å si det på den måten. Vi er langt unna å lage det som karakteriseres som sterk AI, dvs. maskiner som har en generell intelligens som gjør dem i stand til å lære seg mer eller mindre hva som helst. Dog ser vi jo at vi har blitt bedre til å kombinere ulike løsninger. På den annen side resulterer dette i stadig mer komplekse totalløsninger. Selv om vi i lengre tid har hatt en eksponentiell utvikling innen regnekraft, har vår evne til å lage og vedlikeholde komplekse systemer på langt nær hatt den samme utviklingen. En grunn til at et av forsøkene med bruk av Watson til kreftdiagnose i USA nylig ble stoppet, var at man ikke fikk til en god integrasjon med det nye systemet for å behandle pasientjournaler. Vi ser også klare tegn på at den eksponentielle utviklingen innen maskinytelse og kapasitet bremser opp, siden det etter hvert har blitt svært dyrt å lage maskinene og prosessorene stadig mindre samtidig som man støter på absolutte fysiske begrensninger. De store brikkeprodusentene ser at dagens utvikling innen dette feltet høyst trolig vil stoppe opp i løpet av de neste 5–10 årene. Den såkalte Moores lov (eller snarere observasjon) om at maskinene dobler ytelse i løpet av 18 måneder kan i praksis sies å ha bremset opp over lengre tid, siden man har basert seg på parallellisering for å bedre ytelsen. Det er ofte vanskelig (i noen tilfeller umulig) å helt utnytte den ekstra kapasiteten som parallelliseringen potensielt gir. Heller ikke når det gjelder ressursbruk er en eksponentiell modell bærekraftig. Det er som nevnt heller ikke bare de teknologiske mulighetene som styrer utviklingen; maskinen vil fortsatt trenge mye hjelp fra mange mennesker for å videreutvikles og integreres. Som nevnt er det forventet et stort underskudd på IT-kompetanse, både i Norge og andre land. Selv om mange jobber potensielt forsvinner og fristiller arbeidskraft, er det ikke i en håndvending gjort å trene opp en tidligere sjåfør til å bli ekspert på AI og stordata. Det er trolig at en stor del av den IT-kapasiteten vi har, vil gå med til å vedlikeholde og videreutvikle de mer tradisjonelle datasystemene som samfunnet har gjort seg mer og mer avhengig av, heller enn å kunne utnytte de siste teknologiene for smarte systemer. En siste begrensende faktor, for eksempel i offentlig sektor, er lovverket. Mens enkelte lover i prinsippet er forholdsvis enkle å endre (f.eks. relatert til begrensninger for selvkjørende biler), er det enkelte aspekter som er mer grunnleggende. Når vi gjør et offentlig vedtak, skal det kunne forklares hvorfor vedtaket er fattet. Med symbolske teknikker (regelmotorer) er dette enkelt, mens det ikke er lett å forklare hvordan et nevralnett har kommet frem til sin beslutning.
Datateknologien har allerede endret samfunnet på mange måter, en utvikling som vil fortsette – og muligens eskalere – nå som AI har blitt en del av en standard verktøykasse. På den annen side vil ikke utviklingen gå like raskt som hverken de største optimistene eller pessimistene ser for seg. Akkurat som på 60-tallet med HAL er populærkulturen veldig langt foran virkeligheten. Selv om teknologien er med på å muliggjøre samfunnsendring, er det i bunn og grunn menneskene selv som gjennom millioner små og store valg påvirker hvordan denne foregår. En teknologidrevet katastrofe kan oppstå, ikke fordi maskinene kvitter seg med oss, men fordi vi gir dem for stor innvirkning på enkelte av disse valgene, f.eks. når det gjelder fremtidens krigføring, på måter der vi mister kontrollen over sideeffektene. En litt mer subtil utfordring er at vi mer og mer overlater til maskinene å gjøre våre daglige valg, ved at vi tror de har bedre oversikt enn det vi har selv, og på den måten lar oss fordumme og forføre stadig mer inn i filterboblen.
Får ærespris for utvikling av banebrytende teknologi for å rasjonalisere høsting og ta bedre vare...
Verdensveven var en allmenning, en vidunderlig gave til menneskene. Men den tiltrakk seg...
De fleste jobber endrer seg, og mange til det bedre, når datamaskinene tar over kjedelige eller...
At vi lever gode liv – at vi har det bra med oss selv og i møte med andre – hva er vel viktigere...
Teknologi endrer samfunn, noe som knapt nok er en nyhet. Om vi betrakter alt som er oppfunnet...
Boken er den tredje i en serie fra Norges Tekniske Vitenskapsakademi, som tar for seg hvordan...
Boken Det nye digitale Norge er en artikkelsamling som gir en oversikt over hvordan digitalisering...
Kunstig intelligens (KI) er både en vitenskapelig disiplin, en ingeniørdisiplin, en...
NTVA inviterer til åpent seminar om digitaliseringens innvirkning på norsk næringsliv. Programmet...
Kunstig intelligens og maskinlæring er på alles lepper, men er det en trussel eller en mulighet?...
Agder er en av regionene i Norge som er i front innen satsing på hydrogen. Vi får høre mer om nytt...
Det er ingen kommentarer her enda.
Du må logge inn for å kommentere.