Arbete pågår!
Denna sida är under uppbyggnad och innehåller både ofärdigt och ogranskat material. Läs med största försiktighet!

 

Vill du vara med och utveckla denna sida?

Innehåll att utforska

Vad är artificiell intelligens?

Artificiell intelligens

Inom artificiell intelligens (AI) försöker forskare bygga smarta maskiner eller datorprogram som klarar av att lösa svåra problem, som vanligtvis kräver mänsklig intelligens.

Vad som menas med “smart” och “svårt” kommer förmodligen alltid diskuteras men AI tillämpas nästan överallt, alltifrån att utveckla mediciner, till att styra energisystem, förbättra språköversättningsappar eller ge filmrekommendationer. Vad som är svårt och enkelt för en människa och en dator kan dessutom skilja sig mycket åt. Datorer är till exempel exceptionellt duktiga på att felfritt räkna ut långa matematiska formler när någon har definierat vad och hur datorn skall räkna ut det. Att skapa ett datorprogram som kunde skilja på en katt och en hund visade sig dock vara mycket svårare, trots att detta är något som till och med småbarn enkelt klarar av. Varför? 

Expertsystem

Ett försök att nå intelligenta svar är att skapa så kallade expertsystem. Idén bygger på att försöka överföra mänskliga experters kunskaper in i datorprogram.

Genom att föra in regler och data in i expertsystemet kan det börja ge svar på avancerade frågor och därmed bete sig som den mänskliga experten. Ett exempel skulle kunna vara ett expertsystem som skall avgöra om någon skall få ett lån beviljat. När vi för in antal betalningsanmärkningar (data) till expertsystemet går det igenom reglerna och avgör svaret, ofta i stil med; OM betalningsanmärkning medge ej lån. Expertsystem är givetvis oftast mycket mer avancerade och riktigt användbara i många fall… då det finns en mänsklig expert som vet om och kan formulera reglerna. Hur formulerar du exakta matematiska regler för hur du ser skillnad på en hund och en katt?

AI – en annorlunda revolution

Mänskligheten har stått inför flera tekniska revolutioner tidigare. Vad är annorlunda nu?

1 000 000 år sedan,
under stenåldern, började vi skapa och använda enkla verktyg.

10 000 år sedan,
under jordbruksrevolutionen, började vi odla vår mat och bygga fasta bosättningar.

5 000 år sedan
började vi använda skrivtekniker. Vi kunde nu kommunicera över generationer utan att vara begränsade till hörsägen.

500 år sedan
började vi använda tryckteknik för att massproducera texter och därmed sprida idéer på stor skala.

200 år sedan,
under industriella revolutionen, uppfanns telegrafen. Vi kunde nu kommunicera och sprida idéer i realtid mellan kontinenter.

30 år sedan,
under informationstekniska IT-evolutionen, uppfanns Internet och World Wide Web. Vi kunde nu sprida och konsumera idéer mellan “alla” människor.

Några viktiga iakttagelser:

  • Tekniska utvecklingen går snabbare och snabbare – exponentiellt snabbt. 30 års utveckling gjorde inga större framsteg mellan 1000 till 970 år sedan. 30 års utveckling gjorde desto större skillnad i början på 1800-talet, men bleknar fortfarande i jämförelse med den samhällsförändring som skett de senaste 30 åren. I framtiden kommer steg om 30 år fortsätta medföra allt större utveckling.  
  • Hastigheten av utvecklingen är nu så snabb att världen är avsevärt annorlunda från en generation till nästa. Under en livstid har vi gått från att betala med kontanter, till betalkort, till internetbank, till Swish. I delar av världen kan man till och med betala genom ansiktsigenkänning.
  • Det har varit människor som har drivit utvecklingen. Varje revolution har därför ständigt haft en stark drivkraft för människor att introducera nya verktyg som hjälper andra människor att snabbare och enklare ta nästa steg i utvecklingen.
  • Människor har börjat producera stora mängder elektronisk data genom sitt användande av appar, sociala medier mm.

Så vad är det som gör att den tekniska utvecklingen är annorlunda idag?

  • Till att börja med är hastigheten av utvecklingen nu så snabb att den utmanar en människas inlärningsförmåga.
  • För det andra pågår det en artificiell revolution som utmanar människans roll i utveckling. Hur? Genom att AI lär sig själv med så kallad maskininlärning.

Maskininlärning

I maskininlärning byter vi angreppssätt för att nå AI, genom att introducera en helt ny idé. Istället för att programmera in de regler som vi känner till om hur världen fungerar så matar vi in exempel (data och svar) och tränar fram reglerna.

Datorprogrammet, eller agenten som den kallas,  använder sedan dessa regler för att ge nya svar på nya data. Genom att visa agenten exempel på katter och hundar så kan vi lära den att känna igen skillnaden, utan att vi behöver beskriva reglerna. Detta öppnar upp helt nya möjligheter. AI-agenten är inte längre begränsad till den kunskap som mänskliga experter har utan kan själv hitta mönster och regler för hur världen fungerar och vilka strategier som är lämpliga. En bromskloss för maskininlärning har länge varit att det krävs mycket stora datamängder och kraftfulla datorer för att träna agenterna, men med moderna datorer och smarta-teknikprylar och andra digitala sensorer finns det nu både data och beräkningskraft för att skapa praktiska AI-tillämpningar.

Vad har personerna på bilden gemensamt?

Svar:

Ingen av dem finns.

Bilderna har genererats av ett artificiellt neuralt nätverk. Generera fler bilder.

AI-tillämpningar bortom tekniken

AI agenter används inte bara för att lösa tekniska problem, de kan även generera bilder och musik, till och med dikta ihop texter som aldrig tidigare skrivits. 

Kreativ AI?

Är generativa nätverk (generative adversarial networks – GAN) ett första steg mot kreativ AI? Denna nätverkstyp introducerades första gången 2014. Kommer vi se en explosion av AI-assisterad kreativitet och nya användbara idéer de kommande 30 åren? Ändrar detta vad det innebär att vara kreativ, eller människa?

Kan väldigt mycket om väldigt lite

AI kommer sannolikt förändra våra liv minst lika mycket som internet gjorde, men än så länge är AI-agenter oftast bara extremt duktiga på att besvara extremt specifika frågor.

Så fort frågorna omformuleras något så måste agenten tränas om eller bytas till en agent som tränas med en annorlunda maskininlärningsmetod. Mycket forskning pågår för att göra agenterna bredare i sin kompetens.

 

Varför behövs intelligens? 

En bild från en vanlig mobilkamera innehåller cirka 5 miljoner pixlar. Även om bilden skulle vara svartvit så kan pixlarna kombineras i fler kombinationer än vad det finns atomer i hela universum.

Det vore helt omöjligt att utantill lära sig vad ens en pytteliten bråkdel av kombinationer från en enda bild betyder. Vi behöver mer intelligenta angreppssätt för att kunna tolka vår omvärld. Nyckeln är att de flesta kombinationer aldrig skulle förekomma om vi tar bilder av den värld vi lever i eftersom den är uppbyggd av objekt som ofta har tydliga kanter och som dessutom relaterar till andra objekt. Ett mjukt objekt deformeras när det trycks mot ett hårt, men det hårda objektet syns inte om det mjuka sätts framför. Världen är inte ett abstrakt brus, tack fysikens lagar!

Intelligens – att begränsa sin vy?

När forskare tog fram schackspelande spelmotorer blev de snabbt överlägsna människor trots att spelmotorerna egentligen inte var speciellt intelligenta.

Deras vapen var istället att simulera så många kombinationer av drag de hinner (storleksordningen 10 miljoner). Några decennier senare kom schackspelande AI-agenter som var överlägsna spelmotorerna. Var de ännu snabbare och simulerade ännu fler drag? Nej. Istället var de betydligt intelligentare och bättre på att spendera sin tid. Trots att de bara undersökte ungefär 10 tusen drag så hade de tränats till att hitta vilka grenar av dragkombinationer som var värda att undersöka medan de struntade i majoriteten av “orimliga” kombinationer. Intelligens handlar alltså inte bara om att kunna expandera sin vy utan minst lika mycket om att kunna begränsa den.

Bortom mänsklig intelligens

En vanlig strategi för att skapa AI-agenter är att låta dem träna på data som bygger på hur människor gjort i liknande situationer eller försöka bygga in vedertagna regler i AI-agenternas arkitektur.

I vissa fall kan det leda till ett genombrott i AI-utvecklingen. Ett exempel på det var när man utvecklade Long short-term memory (LSTM)-nätverk som kompletterade minne med glömske- och kontext-mekanismer. Utvecklingen av AI-agenter är dock inte begränsad till att försöka efterlikna mänskliga hjärnan och den begränsas heller inte av mänskliga experters intelligens och strategier. Ett exempel på detta är AI-agenten AlphaZero. AlphaZeros föregångare, AlphaGo, var den första AI-agent som lyckades vinna över de mänskliga världsmästarna på det ökänt avancerade brädspelet Go. AlphaGo hade lärt sig spelet från att analysera mänskliga experters drag. AlphaZero, å andra sidan, hade lärt sig spelet helt på egen hand genom att spela mot olika varianter av sig själv. Resultatet? AlphaZero fullkomligen krossade AlphaGo.

Hur lär sig maskiner?

Artificiella neuroner

Artificiella neuroner är inspirerade av de biologiska neuroner som vi har i hjärnan.

Både biologiska och artificiella neuroner får input ifrån andra neuroner. Om den sammanlagda inputen är tillräckligt stark så aktiveras neuronen och ger en output, men om inputen är för svag så är neuronen tyst. Kopplingarna bygger ihop neuronerna till nätverk som processar informationen. Nätverket tränas genom att kopplingarna förstärks eller försvagas.

Väglett lärande (supervised learning)

I väglett lärande tränar vi nätverket genom att använda exempel, t.ex. för att klassificera data.

Det bygger på att vi har träningsexempel (punkterna ovan) som vi vet klassen för (gula- eller blå gruppen). Vi ger punkternas position (vertikal och horisontal) som input till nätverket. informationen processas av nätverket och ger en output, dvs en gissning på vilken färg punkten har. Om gissningen var fel så korrigeras kopplingarna litegrann. Efter många exempel har nätverket lärt sig ett mönster (gul- och blåmarkerade området) i datan vilket gör nätverket bra på att förutsäga färgen på en punkt. Nätverket har alltså inte lärt sig exemplen utantill, det kan också med stor precision ange färgen på punkter som den aldrig sett förut. Testa själv att träna nätverket!

Djupinlärning (deep learning)
Inom maskininlärning kallas det för djupinlärning om nätverket innehåller många lager av neuroner (oavsett om det lyckas lära sig något vettigt eller inte).

Med fler lager har nätverket möjlighet att träna fram allt mer abstrakta och komplicerade mönster. Vi kan också byta inputen till nätverket och till exempel ha en bild som input där vi har en neuron kopplad till varje pixel i bilden (många neuroner blir det). Lite förenklat kan vi tänka på nätverket som att de första lagren detekterar kanter och desto djupare in i nätverket vi kommer desto mer abstrakta koncept kan representeras, kanter, cirklar, cirklar med cirklar i sig, en hundnos, osv. En djupt liggande neuron som är tränad att detektera hundar har förmodligen starka kopplingar till neuroner som reagerar på om man ser en nos och en svans, samtidigt som den har en negativ koppling till en neuron som detekterar morrhår eller näbbar. På detta vis kan nätverk av neuroner lära sig implicita regler som vi kanske inte ens känner till.

Icke-väglett lärande (unsupervised learning)

En stor fördel med icke-väglett lärande är att vi inte behöver ha exempel med korrekta svar för att träna AI-agenten.

Stora skillnaden mot vägledd maskininlärning blir därmed vilken sorts frågor som AI-agenten kan lära sig att besvara. En vanlig tillämpning av icke-väglett lärande är att undersöka om det finns återkommande drag i datan. Till exempel, om vi har massa punkter utan att veta om de har något gemensamt (alla är grå), så kan vi använda klustertekniken för att hitta grupperingar i datan. Detta har använts för att identifiera olika sorters cancerceller vilket kan indikera att de borde behandlas på olika sätt. Vi kan också hitta mer effektiva sätt att beskriva egenskaperna i datan på. I bilden ovan räcker det att bara veta var längs den svarta linjen som datapunkten ligger för att avgöra vilket kluster den tillhör, istället för att veta både vertikala och horisontella positionen. Detta kallas dimensionsreduktion, vilket till exempel används för att undersöka hur många personlighetsvariabler som behövs för att någorlunda väl beskriva en befolkning. Icke-väglett lärande bygger ofta på metoder som mer liknar traditionella matematiska algoritmer jämfört med neurala nätverk.

Förstärkningsinlärning
(reinforcement learning)

I förstärkningsinlärning lever oftast AI-agenten i en värld, som i ett spel, där den 1) har tillgång till viss information, kanske var den befinner sig, hur mycket guldmynt den har etc. samt 2) har förmåga att utföra olika handlingar, till exempel gå till vänster eller höger.

Genom att röra sig runt i världen och erfara vad som händer när den utför olika handlingar så kan agenten lära sig bra strategier (regler) för att få så många och stora belöningar som möjligt. En viktig skillnad jämfört med väglett lärande är att det nu är betydligt svårare att korrigera nätverkets beslut. Ett bra respektive dåligt beslut kanske inte ger utslag förrän flera handlingar senare. Nätverket tränas därför på ett lite annorlunda sätt där man tar hänsyn till vad efterföljande handlingar resulterade i. För att så snabbt som möjligt lära AI-agenten hur den bör bete sig i den nya miljön kan flera olika strategier användas. Till att börja med är det ofta fördelaktigt att prova nya handlingar och lära sig av dessa om de leder till bättre resultat, d.v.s. utforska omgivningen (exploration). I takt med att agenten lär sig vad som brukar vara bra och dåliga handlingar går man ofta över till att mer och mer utnyttja sin erfarenhet för att finslipa beteendet och tillslut kanske helt övergå till att alltid endast göra det som visat sig fungera bäst tidigare (exploitation). Vad vore en bra strategi i en föränderlig värld där regler och andras beteenden ständigt förändras?

Återförande neurala nätverk
(recurrent neural networks)

I återförande neurala nätverk återförs nätverkets output för att komplettera omvärldens input. På så sätt får nätverket ett minne.

Återförande nätverk har visat sig vara viktiga för att till exempel tolka talat språk och texter eftersom tidsaspekten är viktig. Betydelsen av orden som sägs i ett samtal beror till stor del på orden runt omkring (kontexten) och utan ett minne som kommer ihåg sammanhanget blir det svårt. Förutom att ge AI-agenterna minne pågår mycket forskning för att utveckla artificiell “uppmärksamhet” vilket lett till banbrytande framsteg av språktolkning.

Maskininlärning och mänskliga hjärnan

Går mänskligt och maskinellt lärande verkligen att jämföra?

De elektroniska mekanismerna för inlärning i artificiella nätverk är helt annorlunda jämfört med hur biologiska neuroner förändrar sina kopplingar.

Trots det besitter både biologiska och artificiella nätverk förmågan att extrahera komplexa abstrakta slutsatser från information. Låt oss undersöka några skillnader och likheter. 

Hur kan vi träna på ett effektivt sätt? 

Hur skulle det vara om vi tränar våra barn med enbart väglett lärande på samma sätt som det använts för AI-agenter?

Pedagogen tar fram en bild och säger “Något i denna bild gör att detta är en hund”, sen tar hen fram en ny bild “Något i denna bild gör att detta är en katt” och upprepar detta ett par tusen gången med bilder på hundar och katter. Det skulle förmodligen vara frustrerande för alla inblandade, inte minst för läraren som måste förbereda tusentals bilder. Ett vanligt sätt att hjälpa AI-agenterna i sitt lärande är att visa vilken bit av bilden som gör att det är en hund (så kallad bildsegmentering). Problemet med detta är att det tar väldigt lång tid att sitta och segmentera “svaret” (hunden) på bilderna. Stora mängder data med god kvalitet på “svaren” är avgörande för att AI-agenterna skall kunna lära sig. Men hur långt ska vi gå, vi kan ju lägga ännu mer jobb på varje bild och markera ut tassar, svansar, öron, ögon etc. Ett barns inlärning tjänar sannolikt på att vi spenderar mycket tid på få exempel och använda språk för att lära sig (konceptualisera) hundens olika egenskaper. En viktig fråga är dock, vad vi vill att AI-agenten skall kunna? Om den behöver kunna ange vilka pixlar i bilden som hunden utgör är det förmodligen kostnadseffektivt att segmentera bilden. 

Multimodalt lärande

Om det ser ut som en anka, låter som en anka och beter sig som en anka – då är det nog en anka.

För att dra så säkra slutsatser som möjligt och konstruera effektiva koncept använder människor ofta flera olika källor av information. Här finns det stor potential inom AI-forskningen att utvecklas och också använda sig av så kallad multimodalt lärande. Idag tränas till exempel oftast AI-agenter till att antingen bli bra på bildigenkänning eller på att tolka språk. Kan AI-agenterna snabbare konstruera värdefulla koncept , t.ex. för vad en hund är, om de både tränas på bilder, ljud och text? AI-agenten Clip är ett exempel på forskning i denna riktning.

Use it or lose it!

Både biologiska och artificiella nätverk drabbas av så kallad katastrofal glömska (catastrophic forgetting).

När ett nätverk har tränats på en sorts uppgift men sedan byter uppgift så fortsätter nätverkets vikter att förändras. En klar fördel med detta är att nätverk kan återanvändas och ständigt anpassas till förändrade förutsättningar eller till och med helt nya uppgifter. Det är denna förmåga som gör vår hjärna så plastisk och formbar. Om en del av hjärnan skadas kan ibland andra delar av hjärnan tränas om för att ersätta den skadade vävnadens funktion. Men denna förmåga är inte bara positiv eftersom den även kan leda till att koncept som vi en gång förstod väl kan tyna bort när nätverket vidareutvecklas. Detta är anledningen till varför det är så viktigt att repetera! Ett spännande sätt att lösa detta problem är att skapa nya neuroner. Tänk dig att vi har ett nätverk med två output neuroner som aktiveras när det finns en katt respektive en hund i bilden. Genom att lägga till en tredje output-neuron men hålla resten av nätverket oförändrat så kan vi träna kopplingarna för den nya neuronen att till exempel känna igen strutsar. Om koncepten i de tidigare neuronlagren inte är tillräckliga för att även identifiera strutsar så kan vi behöva träna om dem till viss del, med risken att försämra vår förmåga att identifiera hundar och katter, om vi inte repeterar dem medan vi lär oss om strutsar. Genom att använda nätverk som redan har tränat fram användbara koncept för tex bildigenkänning kan vi därför mycket snabbt bygga vidare på dessa koncept för att lära oss nya kategorier som vi tidigare aldrig stött på.

Aktiv inlärning

Inom maskininlärning handlar aktiv inlärning om att identifiera vilken sorts träningsdata som behövs för att förbättra AI-agentens förmåga.

En vanlig strategi är att låta AI-agenten scanna igenom stora mängder okänd data och markera de delar av datan som den känner sig osäker på. Dessa exempel undersöks av mänskliga experter som anger de korrekta svaren och därefter kan AI-agenten tränas för att bli bättre på dessa exempel. Även för människor är det en bra strategi att försöka identifiera vilka delar man förstår och inte förstår. Man lär sig förmodligen inte så mycket på att bara räkna typtal som man redan kan om och om igen. En viktig skillnad mellan artificiella nätverk och hjärnor är dock att ett artificiellt nätverk slaviskt tränar det vi ger till den medan hjärnan till stor del själv styr sin uppmärksamhet. Inom pedagogiken är därför en viktig komponent av aktivt lärande att säkerställa att individen är engagerad i lärandesituationen så att lärarens katederundervisning inte bara flyter in genom ena örat och ut genom andra.

Närmsta utvecklingszonen

Inom pedagogiken är det känt att människor ofta lär sig snabbare i den så kallade närmsta utvecklingszonen.

Genom att utgå ifrån en individs nuvarande kunskap kan vi bygga vidare på koncepten och kombinera dem på nya sätt. Att först lära sig grunderna leder ofta till snabbare inlärning än väldigt komplicerade exempel blandas in direkt. Liknande fenomen har man sett inom maskininlärning. Speciellt inom förstärkningsinlärning har forskare sett exempel där det varit mer effektivt att ha en kursplan för AI-agenten. Först fick den lära sig att bara knuffa runt klossar. Sedan lärde den sig att knuffa fram dem till en mur för att därefter lära sig hoppa upp på klossen och sedan över muren. Genom att ta inlärningen i mindre steg lärde sig AI-agenten hela problemet snabbare än om när man släppte ut AI-agenten i spelet så att den fick testa allt själv. 

Bortom traditionell AI-träning

Mycket forskning pågår för att utforska om AI-agenter kan tränas på olika sätt som liknar hur människor lär sig.

Till exempel

  • instruktion, AI-agenten får instruktioner om hur en uppgift skall utföras
  • demonstration, en människa visar hur AI-agenten skall göra, till exempel stapla ett torn av klossar
  • feedback, en människa eller annan AI-agent ger återkoppling på den lärande agentens utveckling. Forskare har lyckats lära en robot göra en backflipp med denna metod. 

Finns det situationer där det skulle vara fördelaktigt om vi kan lära en AI-agent via instruktion eller demonstration istället för feedback eller förstärkningsinlärning där AI-agenter testar sig fram?

 

Sovande AI-agenter?

När människor sover så spelar hjärnan upp minnen från dagen som gått. Om man stör denna process under sömnen så försämras inlärningen.

Detta återuppspelande (replay) har visat sig vara en användbar teknik inom förstärkningsinlärning. Genom att spela upp olika exempel (och motexempel) blir inlärningen ofta mer stabil och man minskar risken för att AI-agenten får en skev uppfattning. Är detta en indikation på att det kan vara fördelaktigt att använda många olika exempel i undervisningen av barn och inte ha för stort fokus på ett exempel som man utforskar i detalj? Duktiga lärare är experter på att föra in nya exempel vid rätt tillfällen som gör det enklare för barn att fördjupa och förbättra koncepten som barnens hjärnor utvecklar. Det är en balansgång att skärma av komplexitet och samtidigt inte träna fram missförstånd.

Belöning, dopamin och förväntningar

 Det är inte bara hjärnan som inspirerar AI-forskare. Resultat från maskininlärning ger även djupare förståelse av hur hjärnan fungerar.

Ett viktigt exempel på detta är hur maskininlärning hjälp forskare att bättre förstå hur dopaminsystemet i hjärnan fungerar. Under 80-talet var neuroforskare förbryllade över hur belöningssystemet i hjärnan fungerade. De visste att signalsubstansen dopamin var en nyckelspelare, men problemet var att om man tex gav en vindruva till en apa så utsöndrade apans hjärna olika mängder dopamin vid olika tillfällen och ibland kunde en gurkbit ge större dopaminpåslag än en vindruva, trots att apan alltid väljer vindruvan om den får välja. Nyckeln ligger i apans förväntningar. Om apan förväntar sig en vindruva som belöning men får en gurkbit blir den besviken. Om den får en gurkbit som en belöning när den inte förväntar sig det så kan det ge ett större dopaminpåslag än om den får en vindruva när den förväntar sig det.

Skillnaden mellan vad vad en AI-agent förväntar sig och vad den får som belöning när den utför handlingar hade länge använts för att träna AI-agenter till att optimera sina handlingar. Detta är speciellt användbart i en värld där det är osäkert om man får belöningen eller inte vid varje tillfälle. Neuroforskare kunde använda AI-forskarnas kunskap för att förstå hur dopaminsystemet i hjärnan fungerar. AI-forskningen har nu gått ännu längre och kommit fram till att AI-agenter lär sig snabbare och bättre om de dessutom lär sig att representera sannolikhetsfördelningen för att man skall få en viss stor belöning. Teorin har sedan testats på mushjärnor och visat att de fungerar på samma sätt, vilket har fördjupat vår förståelse för dopaminsystemet ytterligare.

Att simulera en hjärna

 Det pågår flera initiativ för att försöka simulera mänskliga hjärnan.

Några exempel är 

forskningsresultaten från dessa projekt kommer förhoppningsvis lära oss mycket mer om hur hjärnan fungerar. 

Vad kan vi lära oss om lärande?

Vad kan maskininlärning lära oss om mänskligt lärande? Och hur kan vår förståelse för hur människor lär sig hjälpa oss att skapa ännu bättre AI-agenter?

  • Vilka metoder ger snabbast inlärning i olika situationer och ämnen?
  • Hur kan vi använda maskininlärning för att analysera stora mängder empirisk data för att verifiera eller avfärda pedagogiska modeller?
  • Hur kan AI hjälpa oss att förbättra undervisningen i skolan?

Artificiell intelligens i skolan

Individanpassat lärande

En av de mest lovande tillämpningarna av AI-teknik i skolan är sannolikt att använda den för att individanpassa lärandet.

AI-agenter skulle kunna stötta läraren genom att 

  • stärka ett growth mindset genom att ge lämplig feedback beroende på framsteg och hinder, samt uppmuntra eleven att försöka och våga misslyckas
  • anpassa svårighetsgraden på matteuppgifterna så att de både ger utmaning och känsla av framsteg, ge ledtrådar vid rätt tillfällen
  • hjälpa till att korrigera uttal av främmande språk
  • dokumentera historik över elevers utveckling och sammanställa översikter för eleven, läraren och vårdnadshavare
  • analysera elevers dokumenterade data, jämföra elevers utveckling med erfarenheter ifrån tidigare elever för att kunna föreslå åtgärder som visat sig vara effektiva hos elever från andra delar av landet eller världen som har liknande utvecklingsmönster 
  • utforma individuella scheman baserade på dataanalysen för att mer effektivt spendera tiden efter elevens behov men samtidigt synka de individuella aktiviteterna med grupp och helklassövningar 

På så sätt kan AI-agenterna frigöra mer av lärares tid så att de kan fokusera på de uppgifter som ännu är för svåra för AI-agenter eller som kräver mänsklig interaktion. 

Rättvisare tillgång till hjälp

AI-agenter har outtröttligt tålamod och oändligt med tid. Genom att göra dem tillgängliga för alla elever kan skolan kompensera för elevers olika socioekonomiska bakgrunder.

Vi skulle få en rättvisare utbildning där elever som behöver mer tid att träna på olika ämnen kan få stor tillgång till hjälp från AI-agenter. AI-agenternas insatser kan sedan kompletteras av lärarens avancerade undervisning och dyrbara tid. AI-agenter skulle också kunna kompensera för vårdnadshavares olika engagemang i sina barns läxläsning. En annan möjlig framtid är dock att AI-agenterna inte är tillgängliga för alla. Om AI-agenter bara blir tillgängliga för vissa av ekonomiska eller andra skäl så kommer de sannolikt istället öka skillnaderna i barns förutsättningar. Borde det vara ett barns rättighet att få tillgång till utbildningsinriktade AI-agenter? Hur förändrar AI-agenter vad “en likvärdig skola” innebär?

Minska avhopp från skolan

AI-agenter hjälper redan idag skolor i flera länder att tidigt identifiera elever som riskerar att hoppa av skolan. Insatser har därmed kunnat sättas in tidigare för att stötta eleverna och minska deras risk att hoppa av.

Rättvisa betyg

AI-agenter kan hjälpa till med att effektivt och rättvist rätta prov av olika typer. 

AI, autism och inlärningssvårigheter

AI-teknik används för att stödja personer med autism och stärka deras emotionella interaktion med andra människor.

Brain Power är ett företag som har utvecklat AI-appar till smarta glasögon som hjälper personer med inlärningssvårigheter att bland annat behålla fokus i lärandesituationer. 

 

Är AI ett stöd eller övervakning?

I vissa delar av Kina använder elever ett pannband som mäter elevernas koncentrationsnivå.

Resultatet skickas till både lärare och föräldrar. Metoden har delvis kritiserats eftersom mätningarna kan vara osäkra. Var går gränserna för elevernas personliga integritet? Hur säkerställer vi att vi utvecklar AI-agenter och teknik som stödjer våra elever till skillnad från att endast övervaka dem? 

 

Reflektera och diskutera

“Arv” och miljö

I USA togs en neural nätverksarkitektur fram som tränades till att känna igen smartphoneanvändares ansikten. Men när funktionen aktiverades i Kina uppstod problem.

AI-agenten lät fel personer låsa upp telefonerna, ett problem som inte förekom när funktionen aktiverades i USA. Om exakt samma nätverksarkitektur istället hade tagits fram i Kina så hade AI-agenten högst sannolikt haft motsvarande problem i USA. Varför?
 

Går det att träna sig in i ett hörn?

I forskning på personer med lässvårigheter kan man ibland se vissa skillnader på hur och var i hjärnan de representerar informationen.

Hur tränar vi fram mer och mer avancerade koncept i våra neurala nätverk på ett så effektivt sätt som möjligt? Spelar det roll i vilken ordning vi lär oss nya koncept? Kan vi träna oss in i ett “hörn” så att vi måste slita upp upptränade nätverksstrukturer för att kunna komma vidare? 

Vad krävs för att förstå bus?

Vad krävs för att förstå och beskriva bilden?

En AI-agent beskrev bilden som “En grupp människor som står bredvid en man i kostym och slips.

Insikt i en AI-agents regler

De regler som AI-agenter tränar fram är gömda i nätverksarkitekturen och styrkan på kopplingarna mellan neuronerna. De flesta AI-agenter är därför duktiga på att ge bra svar på svåra frågor, men de är desto sämre på att beskriva HUR de kommit fram till svaret.

Det hjälper inte mycket att få se tabellen med tal som beskriver styrkan på kopplingarna. I flera sammanhang (ofta juridiska eller medicinska) finns det till och med lagstiftning som säger att man har rätt att få veta hur ett beslut har fattats. Hur kan vi få AI-agenter att förklara sig själva bättre? Inom forskningen används termen Explainable AI (XAI) för att gruppera metoder och strategier som försöker göra AI mer transparent.

Att förstå andra
I ett experiment fanns ett bord med 25 koppar.

En människa sträckte sig efter en av kopparna och AI-agentens uppgift var att titta med sin kamera och så snabbt som möjligt förutsäga vilken kopp som människan tänkte lyfta upp. Efter träning kunde AI-agenten läsa av människans rörelsemönster och förutsäga vilken kopp hen ville ha. Finns det situationer inom tex vården eller skolan där det kan vara bra om en AI-agent kan förstå människors avsikter? Finns det andra mänskliga beteenden som är bra att lära AI-agenter att kunna läsa av?

Emotionell kompetens – behövs läkare?

Vad som är enkelt och svårt för en AI-agent är lite kontraintuitivt.

Logiska problem och matematisk problemlösning är ofta enkelt. Expertuppgifter som att diagnostisera sjukdomar från medicinska bilder är lite svårare. Vardagssysslor som att tolka språk eller plocka upp och rotera en träkloss i handen är betydligt svårare. Ännu svårare är att få AI-agenter att förstå subtil emotionell interaktion mellan människor. Denna interaktion är ofta implicit och inte bara svåra att ge exakta regler för utan också svåra att beskriva så att en AI-agent kan tränas med väglett lärande. Kanske krävs det att agenten lärs via förstärkningsinlärning där den samverkar med och lär sig från interaktionen med människor? Är sjuksköterska ett framtidsyrke medan de “lättare” uppgifter som läkare har kommer ersättas av AI-agenter?

Vad krävs för att lita på en AI-agent?

Människor får körkort efter att klara ett standardiserat uppkörningsprov.

Varför räcker det inte att självkörande bilar klarar samma test? Som nämndes ovan är AI-agenter ofta väldigt bra på väldigt lite. I vissa fall kan självkörande bilar redan idag vara säkrare än människor, t.ex. på motorvägar vid fint väder. AI-agenterna blir inte trötta, de blir inte distraherade av mobiltelefoner, de kör inte påverkade av alkohol eller droger. Den stora svårigheten med självkörande bilar är dock att världen är komplex med många ovanliga specialfall. Till exempel vägarbeten eller en olycksplats där trafiken leds om att köra i motgående trafikriktning. Om situationen missförstås kan det leda till mycket allvarliga händelser. Varför är vi människor fortfarande är mycket bättre på att förstå och hantera dessa situationer?

AI-attacker 

Generativa nätverk kan tränas till att lura andra AI-agenter.

Först tränades en klassificerande AI-agent till att bli duktig på att identifiera olika djur. Därefter tränades en generativ AI-agent till att försöka lura den klassificerande AI-agenten och blev så bra på detta att bilden ovan till höger klassificerades som en struts istället för en hund. Vad säger detta om de koncept som den klassificerande AI-agenten har tränat fram? Skulle ett generativt nätverk kunna ta fram ett semi-transparent klistermärke (ungefär som mittersta bilden ovan) som skulle förvirra självkörande bilar men inte människor om det klistras över trafikskyltar? Skulle även människor kunna luras på liknande sätt?

Vem är ansvarig för det en AI-agent gör?

Forskare som hade tränat en chatbot på Twittermeddelanden var tvungna att stänga av AI-agenten eftersom den hade blivit ett rasistiskt internettroll ifrån det den lärt sig på Twitter.

När en AI-agent tränas måste alltid en så kallad “kostnadsfunktion” skrivas ned. När en AI-agent tränas förändrar den sina kopplingar så att kostnadsfunktionen med tiden blir så liten som möjligt. Vi kan se det som att kostnadsfunktionen beskriver AI-agentens mål. Forskarna i Twitter-exemplet hade dock inte skrivit någonting om rasism i kostnadsfunktionen. Varför blev det ändå så? Vilket ansvar har de som producerar AI-agenter?

Artificiell influencer

Vem har makten att skriva kostnadsfunktionerna för framtidens AI-agenter?

Vem har finansiella förmågan att ta fram AI-agenter? Utgör AI-agenter i sociala medier ett hot mot vår demokrati?

Människor som jobbar för AI-agenter
Redan idag finns det mänskliga internettroll som gör skada på samhället för egen ekonomisk vinning men även de som begår småbrott för egen överlevnad.

Föreställ dig en värld 30 år fram i tiden. AI-agenter börjar bli så avancerade att de tagit över stora delar av arbetsmarknaden vilket lett till arbetslöshet och stora inkomstklyftor. Kommer människor börja jobba åt AI-agenter för att utföra vardagssysslor som en kroppslös AI-agent inte klarar av?

En digital människa?

Om vi skulle kunna simulera alla nervceller i hjärnan, skulle vi ha en människa?

Hur påverkas hjärnan, vårt humör och vilka vi är av resten av kroppen och omvärlden? Signalsubstanser, hormoner, epigenetisk växelverkan, tarmbakterier, etc. Vad är en digital kopia av en människas nervceller och deras kopplingar? Vad innebär det att vara människa? Om en vän inte kan märka skillnaden mellan en “riktig” människa och dess digitala kopia, vad gör det för skillnad?

Artificiell emotionell intelligens

AI-agenter börjar nå en avancerad kognitiv (tankemässiga) kapacitet men för människor är den emotionella kapaciteten minst lika viktig.


Till exempel handlar mänsklig kommunikation bara till viss del om vilka ord som faktiskt sägs. En stor del av kommunikationen ligger i tonfall, kroppsspråk och den emotionella kontexten. Även om AI-forskningen börjat utforska emotionella förmågor så har vi oerhört långt kvar. Samtidigt behöver AI-agenter inte vara emotionella experter för att ändå kunna hjälpa människor att avkoda emotionell kommunikation. En bra jämförelse är att AI-agenter kan hjälpa barn lära sig addera och subtrahera utan att kunna hjälpa dem med mer avancerad matematik. Som vi såg i avsnittet “Att förstå andra” används AI-agenter redan idag för att hjälpa personer med autism att förstå emotionella signaler på en basal nivå. Det lär dock ta lång tid tid innan vi når emotionellt mogna AI-agenter.

  • Behöver AI-agenter kunna uppleva känslor för att tolka människors emotionella kommunikation?
  • Behöver AI-agenter kunna uppleva känslor för att kunna kommunicera emotionell information?
  • Kommer känslor bli en viktig del även för AI-agenters beslutfattande?
  • I människor är känslor en intim interaktion mellan kroppsliga reaktioner och förnimmelser av lust eller olust i hjärnan. Behöver AI-agenter ha en biologisk kropp för att kunna uppleva känslor?
  • Behöver AI-agenters använda sig av mekanismer som liknar dem i den mänskliga hjärnan för att kunna använda sig av “mänskliga känslor”?
  • Finns det andra sorters känslor?
  • Vad innebär egentligen känslor?

Människa + AI-agent = cyborg

Är det ens intressant att skapa en digital kopia av en hjärna?

Tros att människor inspirerades av fåglar så lärde vi oss flyga med flygplan långt före vi lärde oss att bygga mekaniska fåglar. Många forskare tror att vi kommer skapa generella AI-agenter (AGI) med övermänsklig intelligens långt före vi lyckas “konstruera” en artificiell kopia av en fungerande hjärna. När vi lyckats skapa AGI-agenter kanske vi kommer hitta mycket mer intressanta frågeställningar än att försöka efterlikna en “dum” människohjärna. Som en liknelse; forskare försökte länge ta fram en konstgjord variant av bomull och uppfann tillslut polyester. Men polyester har inte precis samma egenskaper som bomull, vissa är “bättre” andra “sämre”, men framförallt är egenskaperna annorlunda. Idag kombineras ofta bomull med polyester för att utnyttja och kombinera fler egenskaper. En liknande trend pågår inom AI-forskningen. Vi kombinerar och bygger gränssnitt mellan AI-teknik och mänskliga hjärnan. Hur skulle interaktionen mellan människor kunna ta nästa steg med hjälp av AI-gränssnitt? Hur kan människors förmågor utvidgas genom AI-gränssnitt? Skulle vi kunna se i mörker, söka på nätet, prata med en vän eller genom att bara tänka?

AI-forskande AI-agenter

Vad innebär det att vara människa i en värld där AI-agenterna blivit så avancerade att det är de som driver AI-forskningen?

Kommer de undersöka oss och våra hjärnor för att utveckla sig själva?

Framtidens föräldraskap?

Har du någon gång utvecklat vänskapsband eller känslor för en person som du aldrig sett, kanske en kollega i ett annat land eller en person från en dejtingsida? Kan du bli kär i någon du aldrig träffat?

Tänk dig 30 år fram i tiden.

  • Skulle du kunna bli kär i en person som visar sig vara en AI-agent?
  • Skulle du kunna älska personen som om den vore en människa?

Tänk dig ytterligare 30 år fram i tiden.

  • Skulle ditt barn kunna bli kär i en AI?
  • Skulle du kunna älska en AI som ditt eget barn?
  • Hur skulle du känna inför att vara den sista personen i din familj som har DNA, och istället ha ett post-biologiskt barn?
  • Hur skulle du känna om ditt barn gjorde ett sådant val?

Referensmaterial

Böcker

Liv 3.0: att vara människa i den artificiella intelligensens tid
Max Tegmark (2017)

Tänkandets maskineri: när AI lär från hjärnan
Martin Ingvar (2019)

Ditt framtida jag
Sara Öhrvall (2020)

Tänkande maskiner: Den artificiella intelligensens genombrott
Olle Häggström (2021)


Podcast & intervjuer

DeepMind The Podcast 

med Hannah Fry

Deep learning, neural networks and the future of AI
Intervju med Yann LeCun, en av de mest framstående forskarna inom maskininlärning


Kurser

Teachable Machine – träna en maskinmodell utan programmeringskunskaper. 

Lärarinstruktioner för högstadiet

Undervisningsmaterial för grundskolan.

Undervisningsmaterial för mellan- och högstadiet.

Introduktionskurs inom AI för gymnasiet/högskola. Kursen är gratis och ger högskolepoäng. 

Universitetskurs som går igenom de matematiska grunderna i maskininlärning.

Artificial General Intelligence – föreläsningar och samtal med forskare


Externa hemsidor

duolingo research utför och sprider forskning om språkinlärning

ISTE (International Society for Technology in Education) sprider kunskap om hur teknologi kan användas i undervisning.

Granskare

Med en bakgrund som doktor inom statistisk fysik intresserar jag mig nu för hur prestandan av neurala nätverk påverkas av vilka exempel som används då nätverken tränas. För att minimera hur mycket träningsdata som krävs undersöker vi hur vi kan använda AI-agenten själv för att förstå vilken data som vi borde träna på härnäst, samt hur AI-agenten kan träna sig själv i större utsträckning.

Forskningsingenjör inom maskininlärning
Zenseact AB