Episode Transcript
Available transcripts are automatically generated. Complete accuracy is not guaranteed.
Speaker 1 (00:18):
Teksting av Nicolai
Winther, hva kunstig intelligens
er og ikke er, hvilkefortellinger vi har om
teknologien og også hvordan denkan eller ikke kan brukes til
kunstnerisk produksjon.
I dag er mitt håp og mål at viskal enda mer inn i det
filosofiske bakrommene om detkinesiske rommet, som er en
filosofisk thriller som kommerpå Jyllandal i løpet av en dag
(00:41):
eller to, Jeg tror.
Kanskje den skal være ibutikken 4.
Oktober.
Så som husets markedsavdelinger det min jobb å minne deg på
at vi har.
Altså, hvis du er her fordi duvil høre om AI, fordi du er
bekymret for litteraturensfremtid, så er det viktigste du
kan gjøre for litteraturensfremtid å faktisk lese bøker,
når så liksom, ja, det er liksom, kjøp bok, les bok.
(01:09):
It's good for you og bra forkulturen og bra for Jan da, som
har skrevet boka og får pengerfor den for å være helt
gjennomsiktig, alright.
Så dagens tema er altså mer detfilosofiske bak den filosofiske
(01:30):
thrilleren, men det er også jegskal ikke si mer over i de ekte
horrorelementene.
Så i dag kommer vi til åinvitere på to gjester Aksel
Brann Stærri og Ida Torsre.
Aksel Brann Stærri er filosofog fagsjef i tenketanken
tankesmin langsikt, som jobbermed å finne ut hva vi skal gjøre
(01:51):
langsiktig med politikken.
Vår Ida Torsdru erpersonverdensjurist, som betyr
at det er en av de storeinternasjonale spesialitetene på
hva i all verden det er meta ogalle de store tech-tingene å
holde på med på ekte og hva vifaktisk gjør med persodataene,
som betyr at vi da har defilosofiske perspektivene og så
(02:13):
har vi det.
Hvor brenner det på do akkuratnå.
Perspektivet som vi skal fåbesøka i dag, buckle up, for
dette kommer til å blichat-gapetet sier at hver eneste
gang jeg ber den skrive enmorsom tekst, så avslutter den
alltid med buckle up, it's goingto be a wild ride.
So buckle up, it's going to bea wild ride ok.
(02:36):
Jan, hvordan går det an å skriveen filosofisk thriller?
Hva i all verden er enfilosofisk thriller?
Speaker 2 (02:46):
Ja, ikke ved hjelp av
TrettKPT i hvert fall, det har
vi fått testet ut nå.
Men her har jeg prøvd å skriveen spenningsroman som får deg
til å tenke, eller en tankeromansom er spennende å lese.
Så får vi se om det har gåttbra eller dårlig.
Det skal ikke jeg være den somjeg skal ha noen meninger om.
Men nå gjør vi noe nytt.
(03:09):
Vi har et digitaltlanseringsarrangement med folk
som kan mer om kunstigintelligens enn det denne
forfatteren kan, og så har detvært morsomt å se hvordan noen
temaer utvikler seg underveis isamtalene.
Og da har jeg også funnet utlitt mer av hva er det jeg har
gjort når jeg har skrevet dennefilosofiske trilleren.
(03:29):
Og jeg tror, hvis jeg skalramme inn denne praten her på en
eller annen måte, så kommer detlitt ut av den samtalen vi
hadde i går med Bård og Taina,hvor jeg har følelsen av at vi
kommer til å snakke litt omdystopier.
Og så kommer vi kanskje til åsnakke mest om hvordan de
(03:50):
dystopiene vi er mest redd forer ikke nødvendigvis de
dystopiene som vi jobber oss inni uten helt å tenke over det.
Det er et gjennomgangstema iromanen.
Der skjer det en god del skumleting, men de skumle tingene som
skjer er nok litt mer, litt merhverdagslige og kanskje også
litt mer uventede, nettopp fordide store, skumle scenariene
(04:16):
styrer tenkningen vår på en heltannen måte.
Nå ser jeg, at det er noen somkaller seg for Aksel Sterri i
chatten, så la oss se om det ermenneske eller bot.
Speaker 1 (04:30):
Out to panelist.
I'll be joining Woohoo.
Out to talk, ask to unmute Ogask to start video.
Speaker 2 (04:41):
Hallo.
Speaker 4 (04:43):
Hallo.
Speaker 2 (04:43):
Det ser ut som en
ekte aksel.
Speaker 3 (04:46):
Det er så vanskelig å
si disse dager.
Speaker 2 (04:48):
Det er veldig
vanskelig å si, men i hvert fall
, så er du her og kan snakke påvegne av akselbrånens deri, og
det er jo veldig fint.
Så et etterhåndssted må vibegynne, og jeg tenkte at vi
skulle begynne med filosofien.
Speaker 3 (05:07):
Jeg vet ikke om du
trenger deg selv som filosof.
Det har vært en lang.
Det er jo et eller annet kajn,at man kaller seg selv filosof.
Så jeg hadde lenge identitetensom statsvitter, og så var det
på en måte en aspirerendefilosof.
Men nå lener jeg meg tungt inni filosof-titelen noen må gjøre
det også i det 21.
Speaker 2 (05:23):
Århundre.
Så det er godt å høre.
Jeg har jo fusket i faget som ifilosofien.
Jeg har noen kurs påbachelor-nivå, og det er det.
Men en av de tingene jegforbinder med filosofien, det er
jo tankeeksperimenter.
Det er et arbeidsverktøy somfilosofer eller i hvert fall
(05:47):
mange filosofer er veldig glad i.
Jeg er også glad itankeeksperimenter, men jeg
kommer nok ofte til dem somforfatter og ikke som filosof,
samtidig som jeg tenker, attankeeksperimenter har noe sånn
grunnleggende litterært ved seg.
Man forestiller seg en verden,og så bruker man den forestilte
(06:09):
verdenen for å si noe om denekte verden vi lever i.
Så jeg tenkte jeg bare kunne taen liten start der på hva du
tenker om tankeeksperimenter ogom det har noe å gjøre med det
dere driver med i tenketanken,tankesmien eller hva enn den
strukturelle metaforen er forden platonske styringsenheten.
(06:32):
Du har laget deg Akkurat det.
Speaker 3 (06:37):
Så spørsmålet var
nettopp litt om
tankeeksperimentet og deresrolle, og jeg tenker at jeg er
veldig glad i tankeeksperimenter, men jeg har også fått det
bekymret for deres manglendepotter i vann.
Så filosofen blir ofte liksomliker ikke kritikken som ofte
kommer fra på en måte mer fralitteraturen da.
For det er jo altså.
(06:57):
De fleste har kanskje ikke hørten del av disse tankeeks, som
trollieeksperimentet foreksempel, hvor det kommer en
løpende trollie og du skalvurdere om den skal treffe ett
eller fem mennesker.
Og det litt rare med detankeeksperimentene er jo at de
begrenser seg så ekstremt ihvilken informasjon som du får
og på hvilken relevans du har ivårt virkelige liv.
(07:19):
Så du har på en måtefullstendig informasjon om hva
som skal foregå.
Du kan gjøre en ting eller enannen ting, men du kan ikke
gjøre noe mer.
Du får ikke noe mer informasjonom hva som kommer etter at
tankeeksperimentet er ferdig.
Da på en måte stopper verden.
Så dette får på, at du må væreveldig tydelig på hvilke
problemer du gir eller du måtteklare de problemene.
(07:43):
Og så kommer tankeeksperimentetfor å løse akkurat de
problemene du skal gjøre, for atdet skal være nyttig i det hele
tatt.
Og jeg tror ofte at detankeeksperimentene måtte tas ut
av sin originale kontekst, somdet er brukt på en måte inni
filosofien og få sitt eget liv.
Og når de da får sitt eget livi litter, bare i folket, blir
det et meme da i folkensbevissthet.
Så på en måte blir de mindrekloke da, og jeg tror ikke sånn
(08:11):
et problem med dem da og dettegjelder langt inn i filosofien
også er at de lukker.
Altså, de skal jo på en måtetilgjengelig, de skal på en måte
gjøre det mulig for oss å seting som vi ellers ikke ser, det
tydeligere alternativene, dettydeligere på hva som står på
spill.
Men ved å tydeligere hva somstår på spill, så lukker vi oss
øynene for så mye.
Og jeg har tenkt når du kommertil for eksempel og har vært
(08:35):
opptatt av nødsituasjoner, såhandler det jo ikke om AI
nødvendigvis, men handle inødsituasjoner.
Og da bruker man ogsåtankeeksperimenter som nettopp
sier du går forbi et druknedebarn, skal du da på en måte
redde det barnet, selv om detgår på kostnader i ekstremt mye
av?
du har på deg masse dyreklær ogalt sånt, som dette er.
(08:55):
Og så sier jo, peter Stienbruker et eksempel til å si
siden du var villig til å reddeet barn og du var villig til å
offre kanskje 50 000 kroner forå gjøre det i form av dyreklær,
og så burde du også donere 50000 kroner til Against Malaria
Foundation.
Spørsmålet er har vi mistet noenår vi prøvde å se på dette
(09:20):
problemet?
hvor mye du skal gi til fattigei Afrika gjennom metaforen
eller tankeeksperimentet, det åredde barn fra druknings ulykken
?
Så jeg tenker det er på detmest relevante hva er det man
ser og hva er det man ikke sernår man bruker
tankeeksperimenter?
Og så kan dette kanskje glieover på ei, men det er faen min
(09:43):
å umiddelbart ideere.
Speaker 2 (09:44):
Vi får se om vi
noensinne kommer oss til den
kunstig intelligensen.
Jeg er veldig glad for at dunevnte det tankeeksperimentet
til Peter Singer, hvor det ogsåtar som utgangspunkt, at sånn
den handlende parten itankeeksperimentet er en mann
som går tusen kroner og detverste som kan skje med dem er
at de er klarene gårdystykker.
Det er jo også et fintutgangspunkt for et scenario og
(10:07):
definitivt noe somromanforfatteren i meg får lyst
til å utforske mer i detalj da,og det er jo på en måte det jeg
har gjort.
Men altså en av grunnene til atjeg har jo lest en del ting du
har skrevet i offentligheten ogfor så vidt vært uenig i mange
(10:29):
av dem.
Men det som jeg på en måte oftekonkluderer med er, at jeg vet
aldri helt hvor haren kommer tilå hoppe, og dermed var jeg også
litt nysgjerrig på nå som duhar lest denne boken og fått en
snikikk på den Er det en dystopieller er det en utopi?
Jeg har jo laget et litescenario hvor det sprer seg et
virus som gjør folk litt mer tilfilosofer med utilitaristisk
(10:56):
tilnæring til livet enn det deellers ville vært, og så er det
mange som handler deretter Såbra eller dårlig, at folk blir
mer opptatt avtankeeksperimenter i hverdagen.
Jeg vil gjerne ha din lesningav det.
Speaker 3 (11:08):
Ja, altså, slik, jeg
synes at dette er spennende.
Altså jeg tenkte når jeg lesteboka, så blir man litt sånn, er
man selv en filosofisk zombiesom du har opptatt av, Ikke sant
?
Filosofisk zombie for de somikke har lest boka eller følget
til er jo de som.
De agerer som mennesker, men dehar ikke noe på innsiden.
(11:29):
Det er ikke noe.
Slik det er å være dem.
Det er liksom ikke noe subjekt,det er ikke noe farger og
ingenting.
De har ikke kvalia.
Og man begynner å lure på harman for det er jo det som jeg
får fram i boka litt, det ernoen som ser ut til å ikke ha
mistet det helt ennå kanskje,men at man går fra å være
ekstremt levende mennesker, somhele mennesker, med sorg og
(11:50):
irrasjonaliteter og kanskje formye empati, for de er på en måte
det meste som de mennesker er.
Og så kommer det på en måtedette tankeviruset eller dette
som gjør folk litt mer tilkjølige kalkulerende maskiner
som kan tenke rasjonelt på ting.
De lar ikke følelsene stå iveien for å tenke klokt om hva
(12:11):
vi bør gjøre.
Da er det spørsmålet på hvorman selv befinner seg, på en
skala fra det messige,følelsesstyrte, men kanskje mer
menneskelige, over i detumenneskelige men likevel
rasjonelle individer, og vidrives kanskje hver og en av oss
mellom de to, og jeg må joinnrømme at det er kanskje det
(12:32):
kontrære i meg, eller så er detdet at jeg synes på en måte
ultrarisme og på en måte brukepå den forholdørte rasjonelle
syn på moral og hva vi somsamfunn bør gjøre.
Så tiltrekker seg jo litt avdenne dystopien din.
Det var litt det samme somMaldus Huxley med Brain New
World.
Alle sier herregud, såforferdelig.
(12:53):
Og sier, det er ikke så ille,hvis folk elsker å gjøre den
kjipe jobben og får noe bra dopfor mens de driver med det.
Det samme tenker jeg her.
En ting som spiller en sentralrolle i boka det er jo et
spørsmål om aktiv dødshjelp somkanskje etter hvert lirer over
(13:15):
en ekstrem tilgjengeliggjøringav den tjenesten.
Så når noen har så dårlig liv,at det ikke lenger er verdt å
leve, så er det jo bra for dem,er det ikke det?
Og kanskje til og med bra forsamfunnet, at de ikke skal leve
lenger, og det må jo vi somsamfunn måtte legge til rette
for, Og så er det selvfølgelig.
Jeg kjenner jo også på, ogdette er jo ting jeg har skrevet
(13:35):
.
Jeg har vært tilhenger av AkteDødsel etterfor på ordentlig vis
.
Men det er selvfølgelig.
Jeg er ikke så langt ifilosofisk zombieland at jeg
ikke kjenner på ubehaget somkommer når man lager sånne
podder som uteliggere kan gå oglegge seg inn i og termineres.
(13:56):
Så jeg får jo det kontrære ogmin egne syn på at det drar meg
i retning av at dette her ikkeer så mye av en dystopi som det
bør være.
Men jeg kjenner det definitivtpå Ubagi.
Speaker 2 (14:13):
Ja, nei, men da har
jeg i hvert fall truffet én
leser med prosjektet, og det erjo det er jo litt.
Nei, det er jo disse sånne.
Det er jo problemet med åskrive sånn, det er jo et
kortsiktig problem og ikke etlangsiktig problem å skrive
disse dystopiene.
Disse kapselene finnes jo, ogdet var jo en sak nå i forrige
uke vel, hvor den ble benyttetfor første gang, Altså en sånn
(14:34):
kapsel som man kan legge seg inni, og så blir den fylt med
nitrogengass, og det er det, Detvar jo ja det er det.
jeg turlig ikke, men det ble jokommentert fra sveitsisk
ministerhold at det blant annetvar store problemer med
produktsikkerhet på dennekapselen.
Så her kom det til å bli en saki etterkant, følge dette
(15:01):
dystopiske sporet litt lenger,fordi jeg er jo ikke spesialist
på langsiktig politikk, men jegforbinder det litt med en type
utilitarisme som har en del ågjøre med effektiv altruisme,
som igjen hadde en del å gjøremed det tankeeksperimentet du
(15:23):
snakket om i sted med hva er duvillig til å gjøre, hva er du
villig til å offre av dinematerielle, dine egne materielle
ressurser og forstå gode ting ieget liv for at andre skal få
det bedre.
Og så begynner man først åtenke på dette på en rasjonell
måte.
så er det jo vanskelig å ikkebegynne å tenke på fremtiden,
(15:48):
ikke bare på menneskene somlever nå, men på hvordan de
menneskene skal ha det om ti år,og på deres barn og på deres
barnebarn og på hele veienvidere.
Så har det skjedd noe ganskeinteressant i det, at det virker
også for meg som om mange somer opptatt av effektiv altruisme
og av langsiktig politikk harnå i det siste også blitt veldig
(16:09):
opptatt av kunstig intelligens.
Så jeg hadde lyst til å ja ogkanskje mer skeptisk til kunstig
intelligens enn man kanskje iutgangspunktet ville trodd at
man skulle være.
Så jeg tenkte, kanskje du kunnesnakke litt mer om det også.
Speaker 3 (16:27):
Absolutt.
Så da er det til det at jegtror det er en.
Det starter på en måte fra denmoralske universalismen da, ikke
sant?
De aller fleste som bletiltrukket av effektiv altruisme
i starten ble nok på en måte,hadde en form for sånn enten
kjøpte logikken i dettetankeeksperimentet til Peter
Singer eller bare kjøpte det myeenklere poenget om at, ok, vi
(16:50):
lever i Norge, vi er topp 1% avdet rikeste i verden, vi har så
mye at hvis du tar 50 000 kronerfor meg, så gjør ikke det mitt
liv noe som helst verre ivelferdsterm.
Ja, jeg mister noen penger avdet, men det gjør ikke livet
mitt verre, og det kan redde etmenneskeliv i et fattigland,
(17:11):
ikke sant?
Så det virker som en heltåpenbar ting å gjøre.
En ting er at det kan være enfantastisk ting å gjøre, for lov
til, å, som noen av dissefolkene i denne bevegelsen i en
brennende bygning og på en måteta med seg et barn ut derfra og
på en måte si at du har gjortdet.
Er de sammenlignet med dette?
med det, ikke sant?
Å donere til effektivebistandsorganisasjoner og dermed
oppnå det samme?
det er det man på en måte harmuligheten å gjøre.
(17:32):
Men noe annet er at det er enmoralsforpikkelset borte.
Det er en geografisk avstand.
Den geografiske avstand harikke moralsk relevans ifølge
fytioterister.
Jeg tror det er god grunn for åmene det, at fra et upartelig
(17:55):
ståsted så er de like mye verdtsom et barn i Norge, men vi
bruker åpenbart mye færreressurser på dem.
Når du da på en måte tenker ok,men hvis det er slik at vi skal
ha en upartisk geografi, skalvi ikke på også ha upartiskhet i
tid?
Og jeg tror et bare sånntankeeksperiment fra filosofen
Derek Parfit er godt for å viseat dette ikke er så dumt.
(18:16):
Altså han sier ok, si at du eri skogen på tur og du har med
deg en glassflaske, og så knuserdu den glassflaska og så vet du
at på en måte 50 minuttersenere så kommer det noen barn
som skal gå gjennom dette sammetråkket og så tenker du skal jeg
ta opp disse glassgårdene?
virker jo sannsynlig at du børgjøre det.
Det er jo dumt å på en måte etbarn på en filosofisk.
(18:44):
Dette er jo en bit avtankeeksmøtet.
Da kan du finne på litt ting.
Dette er glass som ikke blir.
De blir ikke over tid, så er defortsatt like skarpe, de blir
ikke mindre skarpe over tid, ogda kan du se for deg at det
kommer et barn om 50 år.
Du kan godt si det er 500 år,men det er så mye å si.
Dette barnet er enda ikke født,enda Så 50 år vet du at det
(19:05):
kommer til å komme et barn og gåover det her Har det betydning
for om du skal plukke oppglasset, om det er et barn som
er født eller som ikke er født.
Og for meg virker det heltåpenbart at det tankeleksumentet
viser at du bør være nå, ellerom du skader et barn om 50 år.
Hvis du tar den logikken tilsin endepunkt, så er det
(19:28):
ekstremt mange mennesker som kanleve gode liv eller som kan
skade seg av hverandringer.
Klimaendringer er jo det meståpenbare eksempelet.
Vi må unngå å skade dem, men vimå også unngå menneskehetens
utslettelser som vil sikre atveldig mange av disse her ikke
(19:49):
får lov til å leve gode liv.
Og jeg er litt sånn ok, her kanman enten gå med på den
logikken i dette argumentet, mankan gå med på sånn jo, ok, alle
liv har like mye verdi.
Det er relevant om de nåeksisterer eller om de kommer
til å eksistere, eller du kanbare tenke jeg er jo glad at jeg
ble født, og kan jeg vel ikkedet samme gjelde for alle de som
(20:10):
vil komme senere.
Så det er liksom ulikeinngangsvinkler inntil dette her
.
Men når det som effektivaltruister eller i hvert fall
den nyere versjonen av effektivaltruisme 1.0, nå har vi en ny
effektiv altruisme 2.0 sier atkanskje vår største moralske
prioritet må jo være å sikre atden fremtiden blir en fremtid
for mennesker og at denfremtiden blir så god som
(20:32):
overhodet mulig.
Og da er det på en måtespørsmålet hva er de store
truslene nå mot å s?
Og mange av de effektivealtryssene er utrolig begeistret
over kunstig intelligens, fordide tenker at kunstig
intelligens kan hjelpe oss medså mange ting.
Det kan hjelpe oss med å kurerealdring, som de er veldig
bekymret for.
Aldring gjør jo at de fleste avoss dør, og døden er en tragedie
(20:55):
, så det må man unngå.
Det kan redde oss mot pandemier.
Man kan drive pandemi medvirusovervåkning og sånne type
ting som AI vil være bra til.
Men så er man også bekymret forat AI skal utgjøre den største
eksistensielle trusselen motmenneskeheten.
Og der er det jo litt sånnulike igjen, kanskje
tankeeksperimenter.
Det er jo et tankeeksperimentsom sikkert noen av dere kjenner
(21:16):
, som er fra Nick Bostrom, somer denne paperclip, og dette
kommer fra en idé om at for ålage et kunstig
intelligenssystem, så må du gidet en form for målfunksjon.
Du må ha noen verdier, på enmåte i hvert fall, de må ha noen
mål.
Og si at du gir en AI et sånnsimpelt mål som at de skal lage
(21:41):
så mange paperclips somoverhodet mulig, så vil
problemet være at hvis detteblir en ekstremt kapabel system,
så vil de kunne tenke at jeghar ett mål, og så blir det en
overoptimering i forhold til detmålet, og så vil de tenke at nå
skal jeg bruke alle menneskerog gjøre dem om, ta atomene
deres og gjøre dem om tilressurser som jeg kan gå inn og
lage maksimalt antall paperclips, og så vil det ende med
(22:05):
menneskehetens utskjellelse.
Dette er kanskje ikke den mestplassible måten vi kommer til å
gå på, men i det minste er detslik at det er noe i den
misalignmenten mellomAI-systemets verdier og våre
verdier som kan gjøre at tinggår skikkelig galt.
Speaker 2 (22:23):
Ja, så dette
diskuterer man da mye i
langsiktige politikkredser mennå tror jeg, vi skal få på Ida
Torsrud.
Ja, da, jeg fikk det til.
Jeg fikk trykket på knappen.
Da sier vi hallo til Ida.
(22:47):
Hei, jeg håper, at du har fåtthøre Aksels diskusjoner nå av
bindersoptimaliseren som jo eren fryktelig dystopi, men jeg
tror at mitt spørsmål til degsom personvernjurist og
(23:08):
spesialisert fagperson når damange mennesker i sentrale
AI-miljøer oglangsikkerhetspolitikk-miljøer
bruker mye tid på å snakke om ogløfte frem i offentligheten
problemer med en uendelig mengdebinders, er det da noe annet vi
(23:29):
ikke får øye på i skyggen avden diskusjonen som muligens
også kan være problematisk?
Speaker 4 (23:39):
Ja, det er det jo.
Så jeg jobber jo veldig sånnoperasjonelt med disse
problemstillingene, fordi jeg eren av de som løper etter
diverse offentlige virksomheter,andre private virksomheter for
å prøve å få dem til å etterlevedet de skal.
Altså, det vil si, at jegprøver å få dem til å
(24:02):
operasjonalisere desikkerhetsmekanismene som ofte
er inne i lovverket for at manskal ivareta personvern.
Og nå kommer det også enAI-forordning som har noen
sikkerhetsmekanismer inni seg.
Ja, dette kunne jeg snakket myeom.
Men det som slår meg når jeghører på denne diskusjonen er jo
først og fremst at oi, oi,allerede nå så har vi problemer
(24:26):
med å etterleve og sikre at detingene som vi trenger å ha på
plass for at folk skal få et brapersonvern, eller at vi skal
ikke bruke denne teknologien påen måte som skader mennesker.
Allerede nå har vi problemermed å gjøre det.
(24:50):
Så, med den teknologien som girmer, flere muligheter, så blir
de problemer vi allerede harenda større på etterlevelsesiden
.
Så det som vi liksom ikke ser,ja, det er.
Jeg tror at feil vil skje ommennesket kommer til å bruke den
(25:15):
teknologien på den måten somden kan brukes på og det er det
høres kanskje litt sånn selv tilå bruke den teknologien på den
måten som den kan brukes på, ogdet er.
Det høres kanskje litt sånnselvsagt ut, men ofte innenfor
det fagfeltet jeg jobber, såsnakker vi.
Og innen AI, så snakker vi omtilsiktet bruk og utilsiktet
bruk, og jeg tror at veldigmange kommer til å bruke den med
(25:36):
utilsiktet bruk på alle måtervi kan bruke den på for å få den
mest optimal.
Det høres kanskje litt svevendeut, men hver gang jeg er inne i
politiske diskusjoner om AI, såsier jo politikerne, våre
lederne, våre, at velferdsstatenmå reddes med AI, at
(25:57):
velferdsstaten den må reddes medAI.
Eller liksom man er veldigopptatt av at velferdsstaten den
må reddes og man ser til AI somen av de verktøyene.
Og da digitaliseringsministerensier at 80% av statlige
virksomheter skal bruke AI innenutgangen av 2024, det har vi
(26:21):
veldig liten tro på i miljøet.
80 prosent av stadligvirksomheter skal bruke AI innen
utgangen av 2024.
Det har vi veldig liten tro påi miljøet.
Men det viser at man har enveldig tro på teknologien og at
man nok røsjer inn i noe som jegtror at man ikke bør røsje inn.
I tror at man ikke bør skynde.
Speaker 1 (26:39):
Så, nå som vi er her
mellom tankeeksperimentene, jans
skrekkdystopi, slash kanskjelitt utopi og hold på å si den
utilsiktede, faktiske horrorensom de av oss som har jobbet mye
med teknologi ofte ser.
Det er jo liksom, holdt jeg påå si, lenge før AI.
(27:01):
Så har jeg, jeg tror, førstegang jeg var med å se noen
stjele passord ut av, altså,både Aksel og jeg jobbet i Stor
Norsk Leksikon.
Og det å se at jo, når allelegene på OS, som i
utgangspunktet jobber i veldigsterke sikkerhetssting, skal
logge seg inn påStorNorskLeksikon og alle har
til passordet passord 1, 2, 3,eller fornavnet sitt med store
(27:22):
og små bokstaver som fax, fax,og det er det samme passordet de
har på OS-systemet, så skal detikke veldig mye til for at noen
skal inn og kikke i en journal.
Hvis StorNorskLeksikon harveldig dår sikt av kjeden av
informasjonen som flytter seg,ikke sant?
Så, siden vi snakker omalvorlige ting, men jeg skal
(27:43):
ikke si på tullete måter, så harjeg litt lyst på en sånn jeg
skal ikke si en dystopi slashutopirunde på en måte, når vi
ser på hvor, hvis dere har noeparanoia om dagen, hvor er det
dere har paranoia om dere?
Er det et bra spørsmål, ellerer det?
Speaker 2 (28:04):
Det er et veldig godt
spørsmål.
Jeg kan jo ta og bringe detlitt tilbake til litteraturen
igjen, fordi en av de tingenesom jeg merker i meg selv, som
er noen som er på engelsk sierman jo terminally online, og det
er jo litt sånn det føles,særlig når man skal ut og
lansere en bok og flakker rundtpå internett og leser seg rundt
(28:27):
i online diskursen.
Jeg merker jo at språket mitt,og kanskje da også måten jeg
tenker på, påvirkes av hvem jegsnakker med, men også av hva jeg
leser og hva jeg prosesserer påmåter som jeg ikke tror jeg har
helt oversikt over.
(28:48):
Og et av gjennomgangsmotivene iden dystopien som jeg har
skrevet og som jeg vil insisterepå at er dystopisk.
Det er måten språket kan endreoss på, altså i måten vi tenker
på, men også hvordan vi følgerverdidommer, i hvordan vi
bestemmer oss for å leve, rettog slett gjennom de tusen små
(29:13):
kanalene som vi ikke haroversikt over.
Det er ikke noe som harspesifikt med kunstig
intelligens å gjøre.
Det har å gjøre med at vi leveri et samfunn som påvirker oss
på alle disse tusen forskjelligemåtene, mens det som er
interessant og litt uhyggelig,med den generative kunstig
intelligensen som har blittveldig prominent i dag, dette er
(29:37):
ting vi snakket mye om i gårdet at den forsterker en sånn
det man i samfunnsvitenskapenkaller regressjon til medianen.
Den forsterker en bestemt typegjengs, statistisk,
gjennomsnittlig, ureflektert ogtilgjengelig, veldig byråkratisk
språk som har en forflatendevirkning på veldig mye rart.
(29:59):
Altså, hvis norske forfattereeller forfattere som sånn
begynner å benytte kunstigintelligens over en lav sko, så
tror jeg det ene er veldigsannsynlig, og det er at bøkene
deres kommer ikke bare til å blidårligere, men de kommer til å
bli dårligere på en veldig lik,forutsigbart lik måte.
(30:21):
Og det har noe å gjøre medmekanismene i den typen
generativ kunstig intelligenssom remikser alt som finnes i
den menneskelige kulturelleproduksjonen, men går mot et
gjennomsnitt til en hvertid.
Så det er kanskje ikke den mesteksotiske dystopien, men jeg
(30:42):
synes det er ganske trauriglikevel.
Speaker 1 (30:46):
Vil du fortsette?
dystopietoget Aksel.
Speaker 3 (30:48):
Gjerne.
Jeg vil gjerne knytte bare enkommentar til det også, fordi
jeg synes det er.
Jeg er så bekymret for Akadiet.
Det er en form for sånn dubeskriver først, at det er en
sånn garbage in, garbage out, atvi er svamper, så vi blir på en
måte det vi leser, så vi måvære litt nøye med hvem vi
henger med og hva vi tar inn,for det kan tilpå ikke hvordan
(31:10):
vi tenker og hvordan vi skriver.
Vi bør liksom ikke tenke, forvi står jo midt i en på en måte
KI-revolusjon, og vi har noengenerative språkmodeller som gir
visse resultater i dag.
Men du ville jo ikke stått herfor to år siden og sett på GPT-2
(31:32):
og sagt sånn, se her, dette erpå en måte, de modellene er så.
Nå står vi da altså med GPT-4+,og så ser vi, ja, dette her er
regression to the mean, detteblir kjedelig språk.
Vi vet jo ikke, om to år.
Så ser dette her drastiskannerledes ut.
Så kanskje er dette mindre avet problem, kanskje blir disse
(31:54):
modellene mer kreative.
Så det er mulig.
Den pessimistiske hypotesen erjo, at vi nå lager systemer som
gitt på en måte en sånn form for, at de er statistiske systemer,
så ender de med å blinødvendigvis på en måte
kjedelige.
De blir the average av alt deleser.
Men det er ikke nød segwayentil min egen, på en måte, det
(32:20):
jeg er bekymret for.
For jeg vet at når vi begynnerå snakke om disse paperclips og
sånn, så er det litt sånn.
Det er teit, ikke sant?
Men når man tar innover seg atnå har vi de største modeller,
(32:44):
flere parametre, det er det somhar fungert som en lovmessig
sammenheng hittil og det er detsom har skapt disse systemene vi
ser nå De fortsetter å pøse påmed de samme innsatsfaktorene
som har tidligere skapt dissemodellene her.
De tror på at dette kommer tilå bli ekstremt kapable systemer.
De lager også mer autonomesystemer i den forstand at de
(33:07):
lager autonome agenter som skaloperere uavhengig av oss.
I dag er disse systemene på enmåte reaktive.
Vi spør dem om noe, og så girde oss en input.
Og så spør vi dem på nytt nå,og så gir de oss mer input.
Men disse systemene skal jobegynne å operere i mange steg
og kunne operere som vimennesker ikke kan gjøre av seg
selv.
Og da blir det plutselig veldigrelevant å tenke ok, vi kan få
(33:30):
ekstremt kapable systemer veldig, veldig fort.
De skal operere i den virkelligverden på en helt annen måte enn
det de gjør i dag.
Og de, hvordan sikrer du at dehar verdier eller har på en måte
mål da som er i overstemmelsemed vår egen?
Det som på en måte skjuler seg,mener jeg mest i det
paperclip-eksempelet, er jo atdet forutsetter at noen skal
(33:52):
prøve å lage en bra maskin, iutgangspunktet selskapet med
profittmotiver, sånn at du kandytte disse på verden.
Det gjør meg litt bekymret, ogda er det bare mange ting,
hvordan dette kan spille seg utog så videre.
Men jeg tror det er tilsetteligingen jenser for å være
ekstremt bekymret da.
Og det er det jeg tenker når vitenker langsiktig på disse
(34:13):
problemerne her.
Så ja, det er masse problemermed personvern, helt enig, og
jeg tror mange av de løsningervi kan ha på datakontroll kan
hjelpe oss å håndtere disseproblemerne også.
Men her er det noen vanvittigeuløste problemer som vi ikke har
kontroll på, tenker jeg.
Speaker 1 (34:27):
Og jeg hører en aldri
så anelse liten marxistisk
kritikk i bånd der.
For det er jo faktisk sånn, atdet er no som bestemmer både
utviklingen og spørsmålene.
Ok, Ida, vil du fortsette påparanoia-toget?
Speaker 4 (34:44):
Ja, det var meg.
Så min store ting, som jeg erskikkelig bekymret for, det er
hvordan vi bruker AI sombeslutningsstøtte.
Fordi det er jo sånn at vi ikkevet hvordan AI kommer til
beslutninger og hva er densvarte boksen fra input til
output.
Og da er det et baselineinnenfor det jeg driver med, at
(35:12):
man skal bare bruke AI sombeslutningsstøtte, ikke til å ta
beslutninger, men dengrensegangen på.
Når vi som mennesker har etsystem som er så fantastisk og
som forteller oss ting medoverbevisning, så er det veldig
lett for oss å gå frabeslutningsstøtte til beslutning
, også fordi det er veldigenkelt for oss å legge det den
(35:35):
sier til grunn.
Jeg vet jo om folk som harjobbet operativt med skole, med
velferdstjenester, som da KjetgePT kom, så trodde man at de var
sannhetsmaskiner og at mankunne bruke dem til, for
eksempel, plagiatkontroll.
Det har skjedd.
(35:56):
Når jeg kommer borti det, såstopper vi det selvfølgelig.
Men hvordan AI kan gjøre at vioutsourcer en del beslutninger,
det er jeg bekymret for.
Speaker 2 (36:15):
Det går jo en rød
tråd her.
Jeg er både veldig enig i detdu akkurat sa, og så tenker jeg
på det du kommenterte på Aksel,som jeg forstår at også er.
Ve ser ikke ut som om det vilskje noe annet enn at disse
(36:41):
systemene er i all hovedsak eidav transnasjonale selskaper med
et veldig sterkt profitmotiv, ogsånn sett så kan man jo også si
, at her er det historien somgjennomtar seg, for de selve
selskapsformen, som disseaktørene er, er jo også i en
viss forstand en autonom agent,som er ikke menneskelig og som
(37:06):
opererer etter noen insentiverog styrer etter noen mål, som
gjør at de ofte handler på tversav mange menneskers interesser.
Jeg så jo også i en sånn det ermer sånn i meme-humor-sjanger,
at Open Eye, som har byggetChatGPT, begynte jo sitt liv som
(37:28):
en non-profit, som en stiftelse, og så er de nå i ferd med å
bli giret om til etfor-profit-selskap, noe som
mange har advart mot lenge.
Og den som driver dette er joSam Altman, en av grunnlegerne
som ble beskrevet nydelignettopp som en autonom agent som
har kommet ut av kontroll.
Så her er det jo en glidningmellom kunstig intelligens,
(37:52):
mellom de ikke-menneskeligeværensformene som vi kaller for
institusjoner, organisasjoner ogselskaper og for så vidt også
vårt forhold til andre mennesker.
Så til det du sa, ida, så erdet vel også sånn at det skjer
vel også ganske ofte, at man foreksempel i skolen og i andre
(38:13):
offentlige sammenhenger kanspørre til råds kommersielle
selskaper og la dem tabeslutninger som de kanskje ikke
gjør, i tro med dine egne besteinteresser, selv om de virker
veldig overbevisende iøyeblikket.
Speaker 4 (38:30):
Ja, absolutt.
Og for å være litt precis pådet, så er det ofte et problem
at det offentlige som bestillerer ganske dårlig Man vet ikke
helt hva man bestiller og denaktøren som tilbyr disse
(38:53):
tjenestene er så mye merkunsthavsrik.
Så da får man jo virkelig densamme mekanismen som når det
enkelte mennesket outsourcerbeslutningen, litt som på
offentlig organisasjonsnivå, atdet er mye enklere å tenke at
leverandøren kan dette her deter de som sitter på, det er de
(39:17):
som er laget i teknologien ogdet er de som kan det.
Nå skal det også sies at veldigmye av særlig historisk
språkmodellene er jo, de er jokommersiell, avisert på en måte
som gjør at andre leverandørerkan bruke modellene, og det gjør
at du ikke lenger kan legge tilgrunn at leverandøren heller
skjønner teknologien.
(39:37):
Så ja, det er et annet aspektav det som også for så vidt gjør
meg bekymret.
Speaker 1 (39:44):
Jeg kommer bare til å
minne publikum på om at hvis du
sitter nå og har et brennendespørsmål eller bare er et stort
spørsmålstegn eller har etspørsmål du tenker deg i
Q&A-boksen, så kommer jeg somkonferansier, moderator til å
følge med på de spørsmåleneunderveis og hive dem inn.
Så bare beskjed til publikum omå hive seg inn i spørreboksen
(40:08):
når de føler for det kan jegmelde meg på.
Speaker 3 (40:10):
Ja, for jeg har en
kommentar som både er noe som
jeg frykter med AI, men som ogsåpå en måte retter seg mot det
jeg mener er på en måte en muligkanskje problem med
ultralarisme, men også muligensJans forståelse av ultralarismen
.
Altså, det som mange erbekymret for når det kommer til
(40:33):
AI er nettopp at vi lager på enmåte tomme, ikke sant?
De er sånn ekstremt smartesystemer, men det er på en måte
ingenting på innsiden.
De er ikke som oss, ikke sant?
De er ikke sånn til å kjenne påglede og alt det greiene der.
De har ikke kvalia.
Som jeg sa, kan vi si Så da,hvis vi på en måte tenker at vi
bare fyller hele universet medslike maskiner, flinkere å skape
(40:55):
mer og mer, men det er ikke noepå innsiden, så vil jo det på
en måte ikke ha noe verdi.
Da vil mange tenke, ogutilitarister vil jo på en måte
være den første til å si at detvil være en helt forferdelig
verden.
Altså, den verden vil jo ha påat ingen verdi, for for
utilitarister ligger verdien ivelferd, ikke sant?
At noen har det bra.
Og det eneste som jeg erbekymret for er faktisk at ikke
(41:17):
bare at vi lager et univers sombestår bare av tomme maskiner,
men også det motsatte, at vilager maskiner.
Vi vet jo ikke så mye om hvorbevissthet kommer fra, hvordan
det oppstår, og vi vet jo ikkeom vi vil lage maskiner som vi
mener skal være våre slaver.
Løsningen på dettemisalignment-problemet som vi
(41:37):
snakket om tidligere, om å prøveå sikre at AI-systemene har
verdier som våre egne, det er joen form for enslavement, det er
et forsøk på å gjøre dem tilvåre slaver, og vi kan se for
oss at det vi gjør er, at vilager systemer som blir mer og
mer kapable, men også i løpet avden prosessen her får en
(42:00):
forhold for innsidet, de fårkvalet, de får bevissthet, og så
på en måte gjør vi dissebevisste individene om til på en
måte våre slavier, og så skalde drive og styre.
Det er på en måte en ordentligdystopi, og bare for å knytte
deg helt på slutten av denallerede ganske ramblende
tankerekken.
Men dette knytter seg altså tildisse karakterene i boka, til
(42:21):
Jan, da De blir nettopp mer ogmer utilitaristiske trekker jeg
vil nettopp selv kanskje ta livav andre, hvis det er bra for
samfunnet som helhet Men de blirogså til synligheten.
Egoister Og egoister, egoismenog utilitarismen er jo veldig
(42:41):
ulike.
På en måte hva skal jeg kalledet verdisett Utilitarismen
nettopp er det at du skal prøveå handle slik og at du fremmer
alles velferd så mye som mulig,mens egoistene bryr seg bare om
seg selv.
Så denne personen, dette erkanskje litt sånn spoiler, men
Egoistene bryr seg bare om segselv.
Så denne personen, dette erkanskje litt sånn spoiler, men
(43:03):
det er en karakter som ender medå drepe en annen person for å
få tak i kryptovalutaen tildenne personen for å starte et
nytt liv.
Og det vil jo en egoist, sierjeg jo kjempefint, men en ekte
utilitarist vil jo sagt at detmest sannsynlig var den
nyttemaksimerende handlingen.
Så det er noe vi ser, og dette,tror jeg, gjelder generelt, at
(43:24):
når vi ser på en måte dissefolkene som blir utilitarister,
så blir det mer og mer sånn åja,den slemme utilitarismen, som
egentlig er jo en fantastiskvakkert syn, som er at alle til
hver tid skal tenke hvordanderes handlinger fremmer mest
mulig velferd for alle,inkludert dem selv.
Og så blir det tatt inn i ensånn at det ligner litt på
(43:46):
egoismen.
Det synes jeg, ofte blir slåtti hardkorn med egoismen, og den
siste tingen er at det ender medat, hvis ditt leiterskikk også
ender med at du ikke har kvaler,så er det nettopp en utrolig
kjip verden for utenarister.
Så jeg synes utenarister fårdet sånn dårlig rap noen ganger
ved å bli sauset sammen meddisse andre tingene.
Speaker 2 (44:06):
Ja, nei, men jeg er
jo helt enig.
Og da har vi ikke engang begyntå snakke om hvordan det føles å
være.
en sånn avstanden mellomintensjoner og utkomme kan være
ganske grusom å se på noenganger.
Det jeg liker med litteraturentil forskjell fra de sånn
(44:27):
ordentlige filosofisketankeeksperimentene er at man
trenger jo ikke å værekonsekvent, man kan bare heller
peke på det som noen av osskanskje oppfatter som noen
iboende problemer med det åskulle implementere utilitarisme
, nemlig at vi alle, i hvertfall inntil videre, er
individuelle aktører med vårespesifikke kvalier og spesifikke
(44:48):
posisjoner, og det er noe avdet som gjør det så vanskelig.
Så jeg mente jo litt det jeg samed referansen til Peter
Singers tankeeksperiment, at deter jo en liten gjennomgangsting
i mye av det han skriver, oghan har skrevet mye forferdelige
gode ting.
men det er jo det at hanskriver fra sin høyst
(45:10):
individuelle posisjon og ogsånår han har blitt utfordret på
noen av sine mest problematiskeposisjoner for eksempel at
foreldre skal ha lov til å taliv av sine nyfødte
funksjonshemmede barn Så når hanhar backtracket på de
posisjonene, så har det gjernevært mer henvisning til ting i
(45:31):
hans eget liv for eksempel sittforhold til sin mor, sånn at det
er en.
det er på en måte sånntankeeksperimentene møter verden
, og i mitt tilfelle, derfilosofien møter litteraturen,
synes jeg, at vi får noen av demer sånn mer brennbare og mer
interessante diskusjonene rundtdette.
(45:52):
Det er jo litt sånn.
her er vi jo på en måte allefanget i våre, altså for det
første i våre egne hoder, menogså i våre disiplinære
virkeligheter.
Og for meg så er det jopåfallende, hvordan på en måte
både litteraturen og filosofienog mange andre disipliner, felt,
(46:14):
hva vi skal kalle det, nestenalle disse feltene har det til
felles, at de kan alltid vinneen diskusjon på hjemmebane, men
det er litt verre, når det skalskje på premissene som gjelder
andre steder.
Det er jo noe av det som gjørdet interessant å drøfte disse
tingene på tvers.
Speaker 1 (46:34):
Ok, jeg kommer til å.
Det var et spørsmål forrigegang som jeg kommer til å komme
hit på, så det er sagt høyt, forjeg tror det er min jobb å
stille de dumme spørsmålene.
Men det var ikke et dumtspørsmål heller, men du var jo
litt inn på det.
Og så, Aksel, du snakket om det, hvis vi i prinsippet kunne
laget en digital bevissthet, ogde da ville vært sla, helt
(46:55):
sikker på at kunstig intelligenser kunstig, hvordan vet vi
forskjellen på kunstig og ekteintelligens?
Hva er forskjellen, og liksom?
Så jeg kommer bare til å sørgefor at det spørsmålet er stilt,
for jeg vet at det alltid ernoen som lurer på det, og så er
det litt vanskelig å spørre omdet.
Speaker 3 (47:13):
Det er ikke jeg som
tenker om det.
Hvilket system er detintelligensen opererer innenfor?
det er ikke noe mer kunstig medden kunstig intelligensen,
anten at den ikke foregår ibiologisk materie, så at den
kommer i silikon eller hva detskal være.
Det er det som er den kunstigeelementet av det.
Da noen vil si, at det som erkunstig med kunstig intelligens
(47:35):
er at det er vi som på en måtelager den.
Det kunne du jo for så vidtsagt om mennesker også.
Så på en måte blir vi jo lagetvi også, og evolusjonen har
definitivt laget vår intelligens, og det faktum at vi er et
produkt av en historie, slik enkunstig intelligens, er et
produkt av en historie, selv omden var intensjonell, for da vil
man jo si at Gud, gud prøvde åskape menneske til og med for å
(47:59):
reflektere ham selv.
Igjen, det gjør ikke noe utover, det gjør ikke oss til noe mer
kunstig, det reduserer for såvidt ikke vår intelligens noe
særlig.
Så det er jo alldeles sikkertikke jeg forstår det bare snakke
om hva er biologisk materiale,hva er pålsesstein?
Og det betyr jo, at hvis vi datenker, hvis vi kommer til
(48:22):
spørsmålet om nettopp, er detsannsynlig at et kåesystem noen
ganger vil være bevisst?
så vil noen si nei,selvfølgelig går ikke det, fordi
bevissthet må jo selvfølgeligkomme fra biologisk materiale.
Men hør på den påstanden,hvorfor bevissthet nødvendigvis
må komme fra biologisk materiale.
Du kan kanskje si, at bevissthetpå et eller annet vis i
evolutionsprosessen må oppstått.
(48:43):
Hvis ikke du tror, atbevissthet var built in i
universet fra starten, som noentror på Det kalles ofte
pansykisme Du tror på, at alleatomer eller de minste
bestandene i universet har enform for proto-bevissthet og at
det er derfor vi kan værebevisste.
Men hvis ikke du tror det, såtror du gjerne at bevissthet
oppstår på et eller annet sted ievolusjonsprosessen.
Men igjen, det betyr bare, atdu kan lage bevisst materiale
(49:07):
fra ikke-bevisst materiale på eneller annen fysikert måte.
Og det samme kan jo gjelde veti dag.
Og her kan man jo også, hvisman bøker i filosofien gå til og
si, at flertall har rett.
Men et flertall av forskere pådisse spørsmålene her sier, at
det ikke er utelukket at kunstigintelligenssystem i kamerabus.
Speaker 1 (49:33):
Når du ser hold på å
si nå har jeg lyst til å høre
Idas reaksjon på det, fordi jegskal ikkeldig tett på.
Hvordan pølser blir stappet, erjo alltid litt sånn.
Det var enda dummere påbaksiden, disse synsene.
Jeg er jo liksom.
Speaker 4 (49:53):
Jeg er spent på
hvordan ser nei, altså, det er
hver gang vi snakker.
Altså det er veldig gøy å væremed i denne samtalen her, fordi
at jeg det blir liksom veldig,veldig konkret og personelt med
personvern og AI, og når visnakker om dette her, så er det
(50:16):
sånn ja, nei, hva er AI?
Det er jo disse neuralenettverkene, disse modellene som
vi har lagd, og vi er ikke derat KI er bevisst, åpenbart ikke
nå, om vi kan komme dit.
(50:39):
Hver gang vi snakker om dette,så blir det litt sånn.
Jeg vet at når vi skal bruke KIi verdenforstaten, så kommer det
til å være kommuner som brukerKI Og de folkene som gjør denne
jobben allerede nå.
De er, for eksempel, en personsom har en 10%-stilling i en
bitterliten kommune som drivermed alt på personvern og som
(51:02):
konfigurerer det skolesystemetde bruker og bla, bla bla.
Så jeg bare sitter her og baresånn åh boy, hvordan skal vi
klare å sørge for at vi brukerdette verktøyet noe som fortsatt
er et verktøy og ikke erbevissthet på en måte som ganger
(51:24):
oss?
I don't know, i don't know youguys, i don't know.
Speaker 1 (51:30):
Nei, alternativt
titel for romanen kunne jo vært
noe sånt som dystopien kom meddigipost eller noe i den gaten
altså, det er en masse kultespørsmål, men hovedtingen her er
jo liksom, på en måte, det eret spørsmål om restriksjon.
Er det mulig å begrense bigtech, eller burde staten eie KI?
(51:54):
liksom restriksjonen politiskvar det en ting.
Speaker 2 (51:58):
Det er jo fortsatt et
veldig godt spørsmål, for det
er jo ikke som om statligeaktører opp igjennom historien
alltid har handlet ibefolkningens beste heller.
Men det er jo kanskje det kangå videre til Aksel først, fordi
du har vel en del meninger omstat og styring.
Speaker 3 (52:18):
Ja, altså, jeg synes
det er et spennende spørsmål og
jeg tror det om det forbeholdeter viktig, men også om det
forbeholdet er sagt allerede, såkan jeg hoppe over det.
Det som er litt spennende,tenker jeg, når det kommer til
den skaleringshypotesen som jeghar sagt om tidligere, at det
ser ut til å være at veldig myeav KI-utviklingen driver seg av
(52:40):
mer data, mer datakraft ogstørre modeller.
Så tar det litt vekk, dennefortrinnet til de aller
smarteste folkene i SiliconValley.
For det som har vært storyenmed mye teknologiutvikling har
vært, at du trenger noen veldigfå mennesker som har ekstremt
(53:00):
høy IQ, som kan sitte og drivepå for seg selv i kreative
virksomheter borte i Kalifornien.
Siden du kan ikke tvinge defolkene til å gjøre det du vil
det går jo ikke Du må gi de påen måte spillrom til å gjøre hva
de vil og legge insentivene tilrette og håpe at de lager noe
bra, ikke sant?
Og da på en måte mister jostaten litt kontroll, kan du si,
(53:21):
for da blir det noen private s,og de må selvfølgelig få lov
til å beholde alle pengene.
For hvis ikke de får beholdealle pengene, så vil jo ikke de
gidde å jobbe.
Så det er på.
Eneste virkemiddel vi har, er åprøve å belønne dem med store
gullrøtter.
Men hvis det er slik at mye avdette her er data, datakraft og
parametre, så er jo dette enstatlig oppgave.
(53:42):
Du få på en måte departementetfor KI til å drive med.
Så jeg ser, hvis det er ikkesikkert at den
skaleringshypotesen vil gjeldefremover ja, det har fungert
hittil.
Men hvis vi tror at det er sånnher KI kommer til å bli
utviklet videre, så slår det megsom at dette kan være en sånn
(54:03):
statenes gjengkomst og at vi får, fordi dette blir så dyrt.
Prisen på å drive dette herblir eksponensielt dyrere hele
tiden.
Og dette har jo vært sånn.
Sam Oldman var ute for ikke såveldig lenge siden og sa jeg
trenger liksom halve verdens BNPfor å drive og lage nye
modeller.
Så er det spørsmålet hvor lengegidder private investerer å
(54:24):
være med på det eventyret der?
kanskje er det bare stater somhar råd til å drive med dette
her.
Og da får vi plutselig nettoppakkurat dette her, uten at vi
egentlig har bedt om det.
Så får vi kanskje noen storestater som tar over
KU-utviklingen og greier detlike bra.
Og så er det spørsmålet om deter den fremtiden vi ønsker oss
(54:50):
men i usannsynlig scenario, slikKJ har blitt utviklet sitt til,
tenker jeg.
Speaker 4 (54:52):
Og så, fordi Ida
fortsett Så spørsmålet om hvem
skal eie KJ, dette har vi jo.
Jeg husker ikke, hvilkenundersøkelse det er, men det er
en ny undersøkelse jeg har setti Norge på hvem skal liksom eie
KJ som generelt, eller hvem skalutvikle den kåring som vis alle
skal drive og bruke?
Og da er det liksom det første.
(55:14):
Man svarer ingen.
Ingen skal eie den.
Men nummer to er staten i NorgeMed ganske mange prosent, jeg
tror det er rundt tredje, noesånt.
Og så kommer de storetech-firmaene Microsoft, google,
apple på ish-delt tredjeplass.
Og det er interessant.
(55:37):
Jeg kommer fra personen.
Personen handler ommenneskerettigheter, du
hintenter til det, men det er joikke sånn at stater
nødvendigvis er så veldig bra påå utvikle den type systemer
eller gjør det på måter somrespekterer menneskerettighetene
(56:01):
eller minoriteter.
Så det er en ting, og en annenting er også det at og det er
kanskje et argument for atstaten skal gjøre det igjen og
det er at, for å kunne bruke KIpå den måten som vi ser for oss,
at vi skal bruke KI foreksempel som beslutningsstøtte
(56:22):
eller til hjelp for å reddeverpehelsstaten, så må de
modellene være åpne, de må væreforklarbare, for at, hvis du
skal bruke dem for eksempel forvalgningen, til
beslutningsstøtte eller til ogmed også til automatiserte
behandlinger, så må du kunneforklare, hvorfor de har kommet
til det svaret de har kommet til, og da er du nødt til å bygge
(56:45):
dem på åpne modeller, og detfordrer, at ikke bare Big Tech
lager dem.
Speaker 1 (56:54):
Så egentlig, jeg
føler at nå har jeg bodd på
internett veldig, veldig lenge,men jeg føler at vi ender
tilbake til 92-93, og vi sierdet må være en åpen standard.
Åpne standarder er politiskviktig.
Men det er jo.
Speaker 3 (57:09):
Yes, bare hopp inn,
aksel, keep talking for det er
jo nettopp det som har vært.
Den dominerende ideen har jovært nettopp det, at vi trenger
åpne standarder, åpne kildekode,åpne skudd.
Men det er det jo også en delsom har blitt bekymret for.
Hvis det er slik at vi lagerbåde systemer som har blitt og
blitt bekymret for, hvis det erslik at vi lager både systemer
(57:30):
som veldig lett med noen fåtweaks kan gå fra å være
kjempebra brukerstøtte til enkommunalt ansatt i
velferdsstaten Norge til å væresånn, hvordan kan jeg lage
verdens farligste sprengstoffeller virus som jeg kan slippe
ut for å lage mest mulig skade?
så hvis det er strengstoffeller virus som jeg kan slippe
(57:52):
ut for å lage mest mulig skade,så hvis det er noe spesielt med
kunstintelligens som er det atden øker kapasiteten til den som
bruker den og det er lett å fåvridd de systemene rundt, så
tenker du at kanskje desystemene ikke bør være
tilgjengelige på internett tilhvem som helst å tvike dem til
det formålet de selv ønsker.
Så da får du et krav om å gjøredem lukket for å sikre at det
(58:14):
er noen som har kontroll, og deter ikke sikkert at det bør være
.
Altså, hvis du tror på detargumentet, så virker det ikke
som for meg at du sier sånn ja,men da gir vi, eller hvem det nå
skal være som skal lage de nyemodellene.
Det vi da kanskje bør gjøre, erå ha en type enten sånn her i,
sånn CERN for AI, hvor det erder du lager de store modellene,
(58:36):
hvor det er masse tredjepartersom er inne og sjekker hvor safe
eller hvor trygge er dissesystemene.
Kan de brukes til slike ting,kan de ikke brukes til andre
ting?
Speaker 1 (58:46):
så du må ha en sånn
type kontroll da, og så skal
filosofene være på toppen, og såunder skal de andre.
Og så er vi.
Platon har laget en bok om dether tror jeg.
Speaker 3 (58:54):
Det er klart, det er
akkurat det vi trenger.
Nei, altså, det er en veldigfin visjon.
Speaker 2 (59:04):
Altså, det er sånn
som mange av visjonene til
Platon finner på toppen, littmer problematiske på bunnen.
Men jeg har lyst til å vri littvia det.
Tilbake til utopiene ogfremtidsvisjonene.
Vi fikk ned et spørsmål her pådette med informasjonsfattighet
(59:27):
i tankeeksperimenter.
Det kan jo også være sånn.
Det er jo noe som jeg tipper atfilosofien også anerkjenner, at
det er ikke.
Du kan ikke på en måte, ja, dukan tydeliggjøre noen valg, du
kan tydeliggjøre noen skiller,du kan tydeliggjøre noen
begreper ved hjelp avtankeeksperimenter.
Men tankeeksperimenter er ikkeverden, og og det betyr også at
(59:57):
de ikke nødvendigvis gir godemål og styrheter.
Nå er vel vi også i en sånn.
Nå tenker jeg høyt her.
Men vi befinner oss jo også ien historisk fase hvor det er en
viss knapphet på utopier og påvirkelig gode mål å styre etter.
Det er ikke det, at vi manglerdystopier, og det er ikke det,
(01:00:17):
at vi mangler risikoforståelse.
Det har vi i ekstrem grad, ogdet er også i løpet av den timen
her.
Så har vi ikke engang snakketom klimaendringer og en del av
de andre tingene som også påkort, mellomlang og lang sikt
burde oppta oss en del.
Men i søkene etter utopier, såkommer jeg på Marsbyen til Elon
(01:00:39):
Musk hvordan den skal se ut.
Jeg tror ikke jeg har lyst tilå bo der, men det er ganske
langt mellom de virkeligoptimistiske fremtidsbildene.
Så hvor er vi der?
Altså, seieren for AI, ja,kanskje, men andre ting som det
er verdt å styre etter?
for akkurat nå virker det somom den versjonen av kunstig
(01:01:02):
intelligens som vi har nå, somer den gjennomprivatiserteerte,
ikke veldig lønnsomme, men iferd med å bli veldig, veldig
sterkt profitorientert varianten, har lagt en del premisser for
både veivalg og diskusjon, ogdet knytter jo også litt tilbake
til det som jeg har prøvd åskrive meg litt rundt og gjennom
(01:01:24):
og inn i romanen, nemlig i hvorstor grad den tankeverdenen vi
lever i, den diskursive,språklige verden vi lever i,
lukker en god del diskusjoner ogstyrer oss i bestemte retninger
.
Speaker 3 (01:01:41):
Kan jeg si jeg kan
starte på det.
I hvert fall, Jeg liker veldiggodt fokus på utopier og jeg
tror jo den utopien som defleste ser for seg sikkert jeg
ser det er jo den ideen om, påen måte, disse enormt kapable
AI-assistentene som er servilefor oss men som basically fra vi
er veldig, veldig små hjelpeross til å bli den beste
(01:02:05):
versjonen av oss selv.
Da tenker jeg ikke på en veldigbegrenset variant som skal være
snill mot alle, men derimotnettopp hvis man ser for seg et
menneske som kan vokse til å blien fantastisk blomst og utrolig
kreativ og alle muligeegenskaper i mennesket som ikke
alltid kommer frem hos de flesteav oss fordi vi er redde, vi
(01:02:27):
blir traumatisert, vi lukker ossinne.
Men noen som hjelper oss,stimulerer oss, er en venn som
er på en måte terapeuten vår ogsom sørger for at hver og en av
oss kommer ut av den og blir denvakreste blomsten vi kan bli da
og det er ikke noe vanskelig åda se for seg.
Det er utrolig dette her, hvisdet er slik at du på
fingertuppene bare kan se alleideene dine.
(01:02:50):
Du har noen ideer, men det erhardt arbeid å få dem til å bli
så god som de vil bli eller somde kan bli, og så kan du se dem
visualisert.
For eksempel, du kan lage heltenorme studer som kan komme hele
verden til gode ved å hjelpe avnoen tasseuttrykk, men det er
kanskje noen smudre måter.
Så det på en måte er jo en idésom jeg på en måte er sånn.
(01:03:12):
Den gir mening for meg.
Vi er fortsatt i verden.
A1 fungerer som støtte.
Hver og en av oss er på en måteliksom fortsatt i sentrum av
begivenheten.
Så har du på en måte no toandre utopier for disse folkene,
som vi har allerede snakket om.
Nick Bostrom, som er mannen bakPaperclips og boka
Superintelligence han har joakkurat kommet ut med en ny bok
(01:03:34):
som heter Deep Utopia Så nettoppprøver å argumentere for at en
verden i virtual reality for såvidt så her tror jeg, en del vil
hoppe av.
Dette er det samme som DavidChalmers, en av tech-filosofene
som har kommet opp med ideen omfilosofisk zombie, som vi også
har snakket om i dag.
Begge de to er på dettilgjengelige av å si, at et liv
(01:03:57):
i virtual reality, altsåbasically i Matrix, kan bli, er
et like bra liv, kan være etlike bra liv, om ikke et mye
bedre liv, enn det livet defleste av oss lever i denne
virkelige verden som vi lever inå, og der er det på en måte
mange argumenter man kan førefor det.
Men det er liksom, man kan joikke, for det er ofte man tenker
(01:04:18):
ofte at det vil være på en måteet enkelt liv og på en måte et
kjedelig liv, i sånn billig dopemåte at det er heronistens liv,
heronisten på sitt beste, ellerhedonismens liv.
Men du kan jo se for deg at detlivet dette er det Bostrom
prøver å argumentere for, at detlivet kan være vakrere enn noe
(01:04:41):
du kan oppleve.
Nå, dine evner til å opplevedet skjønne kan på en måte
enhances fullstendig.
Hvis du ser for deg at du harlyst til å klatre fjell og gjøre
avdeling i prestasjonene, kandet være heftigere enn det noen
har blitt før.
Så dette er jo andre typerutopier, som selvfølgelig andre
kanskje vil tenke er dystopier.
(01:05:01):
Men de er fulle av kvaler og detrenger ikke innebære at du tar
liv av noen og putter dem ikapsler heller.
Speaker 1 (01:05:12):
Dette er veldig
morsomt.
Har du noen utopier?
Speaker 4 (01:05:17):
Ja, jeg har det.
En det er veldig vanskelig formeg å ha utopier sånn at jeg
virkelig dug deep, og deutopiene mine, de er veldig
pragmatisk og kjedelige.
Fordi det jeg ønsker at vi skalbruke AI til, det er de
(01:05:40):
kjedelige skriveoppgavene som vialle har gjort, sånn type
årsrapporter som på en måte måskrives, men som er utrolig
kjedelige, som en menneskenesten ikke trenger å gjøre.
Og i forlengelsen av det, såkan man jo se for seg at da for
(01:06:00):
nå kan jo AI gjøre den typekjedelige års rapportskriving
som veldig mange som har jobbeti byråtiden en gang har drevet
med På.
Det jeg gjør i dag er jo i storgrad å lage rutiner og regler
for hvordan man skal etterlevepersonverden, også typiske ting
som man kan generere.
(01:06:23):
Men i forlengelse av det, såbør vi egentlig begynne å stille
oss spørsmål Trenger vi dethelt tatt å lage de dokumentene
hvis ingen leser de og vi baremå ha de?
Så kan vi ikke gå over fra jeghar skrevet en
personvernetklæring som jeg erganske stolt av til
nyhetsprøvemet.
Det er en levende tekst, enutrolig levende tekst.
(01:06:50):
Så svaret mitt er ikke vi børfå AI til å skrive alle de
kjedelige greiene vi på en måtebare må skrive.
Og så bør vi innse at kanskjevi ikke trenger til å skrive det
og kanskje vi kan gå videre tilen type levende tekst i stedet
for.
Det er utopien min, at AI fåross til å skjønne at det er
visse ting vi gjør som vi ikketrenger å drive med lenger, og
vi kan heller gjøre andre tingsom gir mer mening.
Speaker 2 (01:07:13):
Ja, det er et av de
premissene som jo ofte ikke blir
diskutert rundt A&O er jo, ihvor stor grad det er lansert
som et verktøy som skal økeproduktivitet.
Jeg hadde også noen sånne jeg.
Det er lansert som et verktøysom skal øke produktivitet.
Jeg hadde også noen sånne.
Jeg hadde flere tanker også omdet.
Du sa, aksel, om den kvaldigebaserte utopien, fordi det er
(01:07:41):
også fra et bestemt perspektiv.
Så det er jo det som blirbeskrevet der.
Nå har jeg ikke lest den nyesteboken til Nick Bostrom, men jeg
tror det er på gjengjøvelsen avden.
Det er jo også etgjennominstitusjonalisert liv,
sånn at det er jo en analys der,hvor man kanskje også bør
drøfte en del maktforhold rundthvem som lager denne
(01:08:07):
opplevelsesmaskinen, hvis manvil låne en maskin for et annet
eksperiment.
Men ja, hva tror du?
vi da Har vi gått runden påutopier og dystopier.
Speaker 1 (01:08:20):
Jeg tenker jo liksom
bare, at nå som tidspoliti og
hun som har fulgt med, har jegogså noen spørsmål som ble med
over fra forrige runde.
Men dere har på en måte alleredevært inne i dette her med.
Liksom, jo, jeg har noenkonkrete ting, fordi jeg sitter,
jo, jeg synes det er så morsomtå sitte og høre dere snakke på
(01:08:41):
det, fordi jeg er jo liksom detfine med å være liksom halvt
ekte tekniker til en viss grader, at jeg har vært med å lage
noen AI-er, inkludert en ektemaskinlæringsting.
Som jeg har vært med å lage erjo kvitteringsgjenkjenneren til
Folio, som da kan kjenne igjenen kvittering blant utrolig
mange forskjellige lapper papir,og etter hvert har blitt viska
(01:09:04):
vekk, for de fleste kvitteringerer trykket på veldig dårlig
papir hvor blekket forsvinnerveldig fort.
Så er den veldig forlinkt til åkjenne igjen at dette er en
kivikvittering.
Jeg tror det der skulle være etsekstal og ikke et åtetal, for
eksempel.
Så det er jo en veldig dum menveldig lur maskin, og som
(01:09:32):
tekniker er det en del av detsom jeg har sett.
Jeg tror ikke noe påbevisstheten det hele tatt,
fordi disse tingene er såutrolig dumme og det tar så
ekstremt lang tid og det kreverså ekstremt mange mennesker som
sitter og sjekker at folk harskrevet punkt, du må ikke komme.
Det er storparten avteknikernes vaktmesterliv.
Men den tingen som vi ikke harsnakket om, som jeg ser komme
(01:09:52):
veldig, veldig hardt, er jodisse maskinerne som allerede
finnes.
Den eneste grunnen til at deikke har spist 20 prosent av
norske arbeidstakeres vanligejobber er at vi har en
velferdsstat som beskytterstillinger veldig, veldig stert,
som betyr at liksom, men iprinsippet og for de fleste ikke
(01:10:14):
skjønner hvordan teknologienkan brukes enda.
Men dette kommer jo til å kommemed en veldig, veldig, veldig
stor fare for arbeidsløshet.
Så hvis vi skulle si noe om jegskal ikke si, altså for å gå
tilbake til Marx, da hvormeningen med livet ifølge Marx
(01:10:35):
handler om å ikke værefremmedgjort fra arbeidet, har
du noen tanker om det i forholdtil denne vidunderlige maskinen?
Speaker 3 (01:10:48):
Jeg kan alltid starte
, men Ida stopper nå så jeg kan
starte så mange ganger.
Nei, sett i gang.
Ja, ok.
Jeg synes dette her er en av deskumlere tingene.
Jeg synes det er helt absurdnår du ser perspektivmeldingen
(01:11:09):
som skal se frem til 2060, og deskal begynne å tenke på ok, hva
er det, hvordan blir det meddette kunstig intelligens
greiene, da, så forventer dealtså mot.
Altså, nå har vi hatt 1%produktivitetsvekst de siste 20
årene, så det er det deforventer frem i tid.
Så tenker de nei, men la ossvære litt spreke og tenke litt
på kunstig intelligens, hvilkekonsekvenser det skal ha.
(01:11:31):
Sier de Ja, ok, da.
Et litt sånn ambisjøs scenarioer at du har tatt 10 prosents
produktivitets ellereffektiviseringsgevinst i
helsesektoren i personligmeldingen, som er vårt sprekeste
fremskrivningsverktøy.
Så det er jo ganske absurd.
(01:11:53):
Jeg tror, nettopp som deg, atdette her går utrolig tregt, for
selv når systemene er gode noktil å ha satt folk sine i jobber
, så skjer ikke det.
Jeg tror ikke.
Det bare er at vi har godeeller for meg sånn gode, det er
av ingen av syne.
Men at vi har gode eller formeg sånn gode, det har jeg ingen
aning om.
Men at vi har strengebeskyttelser av folk, sin
arbeidsplass og så videre.
(01:12:13):
Men det er det, at folk serikke hva teknologien kan brukes
til enda.
Så de tingene kommer veldig,veldig kjapt når de først kommer
, men det tar lang tid før detskjer.
Og en ting er jo økonomene harjo et naivt syn på dette.
De sier altså, når en maskinersatter en arbeidstaker, så
(01:12:34):
betyr det, at det er bedre åersatte den arbeidstakeren, det
er mer profitabelt, det betyr,at overskudd skapes og det
overskuddet kan på en måtebrukes.
Det er stort nok til åkompensere de som tapes.
Så hvis vi har et fornuftigsystem, så vil denne typen av
automatiseringen ende over tidmed at flere får gode og bedre
betalte arbeidsoppgaver.
(01:12:55):
Men spørsmålet er da en er detsånn at det vil bli flere nye
jobber?
Er det sikkert at de jobbenelages, eller er dette
automatisering uten at detskapes mange nye jobber?
Så det er jo en utfordring.
En annen utfordring er at dejobbene som lages, annet enn Ida
sitt ønske utopi om at det erA1 som står for alt det
(01:13:17):
kjedelige.
Så blir det heller detskikkelig, at A1 gjør alt det
kreative og gøy.
Og det er jo et typen meme nå,sånn du håper at en robot skulle
gå og fikse klesvasken, for dether gjør alltid kjip arbeidet,
men nå ser du at Kåin lager kulefilmer og lager kunst og sånn.
Så det er jo et alternativ, atvi får jobber.
(01:13:39):
Nok.
Det er jo noen som alltid vilbetale for at noen skal bære dem
rundt på gullstolen, hvis deter det jeg snakker om.
Men det er ikke kremjobber da.
Så det er nok jobber, men deter ikke høykvalitetsjobber.
Og jeg er bekymret for detsiste, da det er to typer
scenarier.
Så er det et siste scenario sombasically er, at ok,
(01:14:00):
k-utviklingen går så langt, atde systemene tross alt blir så
kapable kanskje blir de ikkebevisst til, men de blir likevel
kapable så de kan løse nestenalle oppgaver vi mennesker kan
løse.
Og da er det spørsmålet hvordanser det samfunnet ut?
for jeg tror ofte vi tenker, atdet samfunnet kommer til å se
likt ut som vårt eget.
Og da kan jo folket somplutselig da har alle en
(01:14:22):
interesse av borgerløn, så tarman penger fra de rike og gir
til de fattige, som vi er, og såblir vi rike vi også, og så er
dette her egentlig en helt kremverden.
Men jeg tror, i den situasjonen, hvor hver og en av oss mister
vår rolle som arbeidssaker ogkanskje mister vår rolle som
soldat, så har vi plutselig ikkenoe og vi har ikke noe
(01:14:47):
interesse lenger av å sørge forvår velferd, og du vil ikke se
de overføringene som ernødvendige.
Så dette er kanskje et annetMarxistisk poeng AI kan ikke
streike.
Ja, ikke sant.
Ai kan ikke streike og vi kanikke streike vi heller, fordi vi
har ikke noen streike med,fordi det er ingen som trenger
vår arbeidskraft lenger.
Og da er vi i en situasjon hvordette ser plutselig veldig
(01:15:10):
dystopisk ut.
Ja, masse verdier skapes, mende føles ikke tilbake til
vanlige folk.
Det er ikke en verden vi erspesielt klar over eller ønsker
oss.
Speaker 1 (01:15:23):
Vil du bare fortsette
å stå oppi den i dag?
Speaker 4 (01:15:26):
Ja, så når vi snakker
om dette her, så tenker jeg på
de stedene hvor og det er ikkenødvendigvis i Norge, men jeg
bor jo til vanlig USA og det erjo flere steder ikke steder, men
arbeidsplasser i USA som harblitt veldig påviket av AI.
(01:15:47):
Jeg tenker på Amazon-sjåføreneeller budbringerbransjen, hvor
den jobben er blitt veldig,veldig tajmet, automatisert og
den delen av jobben menneskenegjør er også veldig tajmet Og
(01:16:07):
den delen av jobben menneskenegjør er også veldig timet og da
har krav hvor mennesket må på enmåte møte maskinen sin den type
krav som maskinen veldig enkeltkan gjøre.
Panøst må Amazon-sjåfører tissepå brusflasker i bilen for å
(01:16:29):
rekke tidspunktene de skallirere ting på.
Det er en ting, og så er det enveldig overvåkning av mennesket
mens man gjør den oppgaven.
Hvis du kjøper en pakke, foreksempel, så kan du se hvor
sjåføren er, i tillegg til denutrolig overvåkning og
rapportering av hva sjåførenegjør til et hvert tidspunkt.
Så det jeg er bekymret for nårvi snakker om automatisering,
(01:16:52):
det er at vi en, at jobbeneforsvinner og at vi ikke deler
på den verdiskapningen ved, foreksempel, borgerlønn, men også
det, at de jobbene som er igjenblir så dysfunksjonelle at det
er opp til mennesket å leve opptil samme type krav som det
maskinen skal levere på, ogåpenbart klarer det veldig bra,
(01:17:12):
fordi maskinen trenger ikke åstreike trenger ikke tidsspøse,
trenger ikke i det hele tatt.
Speaker 2 (01:17:20):
Så det er jo.
I går snakket vi litt om dehistoriske momentene, for
eksempel den mekaniske tyrkeren,den sjaksspillende, såkalt
robotten fra 1700-tallet, sommange som jobber med kunstig
intelligens synes det erinteressant å snakke litt om.
I realiteten, så var det joegentlig bare en relativt enkel
(01:17:41):
mekanisk innretning.
Da er det lov.
Et menneske klimt inn påinnsiden med relativt dårlig
luft og et lite tilarinlys for åse hvordan trekken skulle
foretas, som gjorde at denmaskinen virket.
Det interessante er jo atAmazon i vel i 2005 lånte navnet
på den mekaniske tyrkeren for åsette inn en sånn outsourced
(01:18:06):
småjobber-tjeneste.
Så de så jo denne fortellingenog tenkte sånn ja, det høres ut
som en kjempegod idé.
Sånn skal arbeidsplassen se ut,inn i boksen med deg.
Men det vi forstått nå er detjo inne på noe av kjernen av det
som jeg har prøvd å tangerelitt i romanen, nemlig nettopp
(01:18:30):
det, at selv om en littuavhengig av hvilke intensjoner
disse systemene er blittimplementert med, så er jo noe
av utkommet i praksis, gitt atdet filtreres gjennom den formen
for kapitalisme som vi leverunder, blir at man gjør veldig
mange menneskeliv i praksisoverflødige.
Ja, du har ikke lenger meninggjennom arbeid, og arbeid er jo
(01:18:51):
også, som Aksel var inne, påveien til demokratisk deltakelse
, fordi det ligger maktmidler idet og for mange det eneste
maktmidlet som finnes.
Og tilfeldighetene vil jo hadet til at jeg i går var oppe på
et seminar på sosiologi her påBerkeley.
Der på sensussen var vel mereller mindre at det er ikke
(01:19:12):
nødvendigvis fascisme man er påvei mot i USA, men det er
definitivt et sammenbrudd i denformen for klassekompromiss som
har opprettholdt en form fordemokratisk deltakelse.
Og kanskje vil det som kommerut av det ligne mer på en sånn
form for neobonapartisme, varordet som ble brukt, altså ikke
(01:19:34):
Napoleon den første, men hansenda hipere nevø, napoleon den
tredje, som foretok statsgruppei Frankrike på 1800-tallet og
ikke egentlig trengte massemobilisering eller et masseparti
.
Du kunne ha et autoritært styremed en sånn aristokratisk
tyngde på toppen, og det var merenn nok.
(01:19:58):
Og det driver man kanskje åberede grunnen for nå ved at man
ikke da trenger massene påsamme måte som man gjorde før,
annet enn som Amazon-sjåførertil å utføre de jobbene, som
roboter rent fysisk ikke kanutføre, i hvert fall enda.
Speaker 1 (01:20:23):
Ja, fordi jeg skal
ikke si, at der er vi på en måte
i.
Jeg skal ikke si, det er detsom er horroren, at hele
premisse for Marx-revolusjonener, at noen jobber i fabrikk og
den fabrikken må virke.
Speaker 4 (01:20:38):
Altså, det er dette
som er horroren for meg når jeg
leser det kinesiske rommet.
Det er at vi, ved hjelp av AI,lager et miljø som er så hostile
og så dysfunksjonelt formennesker og vi må tilpasse oss
det, for det kommer vi til ågjøre, det har vi allerede gjort
, eller det gjør menneskertraumatisk i dysfunksjonelle
miljøer.
Ja, og det er det jeg er reddfor, og det synes jeg også.
(01:21:03):
Det må jeg bare si at jeg synesdu beskriver det på en veldig
god måte, som virkelig bare slårmeg rett i ajansen min.
Speaker 3 (01:21:21):
Jeg kan da legge til
en ting Jeg tror vi når en
enighet Eller konsensus.
Det som er farlig med menneskerEr, at vi er servile Eller late
, og det merker man kanskje Iseg selv I møte med En
(01:21:43):
mekteteknologi Som kan hjelpe enpå vei.
Så er det lett at man tenkerJeg merker når språkmodellen,
chatsypeteri, kommer enmekteteknologi da som kan hjelpe
en på vei, så er det lett atman tenker jeg merket bare sånn,
når språkmodellen og sånnchat-shippet de kommer.
Så var det sånn.
Jeg bare ah, tenk om han barekan gjøre arbeid for meg.
Og så bare tanken på at hankunne gjøre arbeid for meg
gjorde, at jeg ikke orket åmotivere meg til å gjøre den
tingen.
Så da, ten, herregud, hvordanskal det være for unger, hvis du
(01:22:06):
har en tilgjengelig teknologisom kan gjøre alt, du kan gjøre
bare mye bedre.
Og så skal du jo leke gjennomskolegangen med å ikke ta bruk
av den teknologien som bare kanhjelpe deg.
Det er en utrolig fristelse.
Nå tenkte jeg på en måte sånndet er jo også skolen i dag, så
det er jo bare en lekk grin,hvor ja du kan snakke med pappa
(01:22:29):
og prøve å få dem til å hjelpedeg.
Men folk greier å entertaineeller få fake verden, som skolen
, tross alt, er for folk.
Men jeg tror dette gjelder ikkebare for barna, det gjelder for
voksne.
Jeg tenker, den virkeligedystopien vil jo være sånn, bare
(01:22:49):
fordi spriket i forventning ogrealiteten blir størst, er sånn.
Vi har et AI-tilgjengelig til åhjelpe oss med alt mulig.
Vi kan bare få utløp for allevåre kreative evner, vi kan
gjøre fantastiske ting.
Men så er det på en måte ikkenoe sånn insentiv press til å
gjøre det av en fikse det selv,og så på en måte utvikler vi
(01:23:10):
aldri eller vi utøver ikkeengang de evner vi har.
Så det er en sånn ekstremt tristscenario for meg, hvor det bare
er våre evner og til og medvilje for vittere.
De møter med et system som kangjøre så mye for oss.
Mye for oss da, og så er det jonoe å si.
Da er vi allerede på dettidspunktet.
Så er det bare å forese inn iopplevelsesmaskinen til Robert
(01:23:33):
Nozick, da har på det våre evner, forvitter det såpass mye, at
vi er utelukkende blittkonsumenter, og det er vi bra
for.
Da er det bare å kvalgene igjen.
Men her tror jeg, jeg delerderes intusjon, hvis jeg har
forstått deres intusjon rett, atdet er litt sånn.
Det er ikke dit bra Denfremtiden, der er ikke
(01:23:57):
høysikkert, dit bra ut.
Speaker 1 (01:24:01):
Altså, vi er fem
minutter fra det, som jeg tenker
er naturlig køtt off, og det erikke fordi jeg har egentlig
tenkt at vi kan sitte og skravetil klokka ti på kvelden, men
det jeg har sett er at folk blirtrøtte halv ti.
Det er minbarnehagetante-intuisjon, etter
å ha hatt disse arrangementeneSånn at jeg skulle.
(01:24:21):
Det dumme med å ha digitaltarrangement er at vi ikke kan
sitte og fortsette å skravle uti natta, for det har jeg faktisk
veldig lyst til, for dette varveldig, veldig morsomt.
Men det er altså sånn at, for,la oss bare ta en bitteliten
runde på hvor folk kan finneAksel og Ida og henge mer med
(01:24:42):
dem, for jeg tror det er fleresom tenker sånn shit, jeg vil
lese mer av det Aksel skriver,jeg vil følge mer med på hva Ida
driver med av faktisk politiskpressarbeid for at ikke Meta og
Google skal få lov til åbestemme absolutt alt her i
landet.
Så, aksel, hvor på internettkan folk finne deg og hvor kan
de lese hva du har skrevet oghvor er du om dagen?
Speaker 3 (01:25:03):
Yes, så mitt primære
virke er som fagsjef i langsikt,
hvor vi ikke bare jobber medpaperclip maximizing, prevention
men også en del andre ting.
Så der kan du lese det meste avdet som er nytt om dagen.
Og så kan man også gå påakselsterrino hvis man er mer
(01:25:25):
interessert i mitt akademiskearbeid.
Så der er det en rekke artiklerom alt mulig rart som er
tilgjengelig for de som erinteressert.
Speaker 1 (01:25:35):
Veldig bra, Ida.
hvor finner folk deg?
Speaker 4 (01:25:39):
Finner du på LinkedIn
Ida Torsløv, og der vil du
finne type nyhetsbrev blogg,hvor jeg skriver litt om dette
her også.
Men LinkedIn er liksom minprimære, ja det primære stedet
jeg er på internet.
Speaker 1 (01:25:54):
Jeg har lært at nå
skal vi ikke si lenger, si
influencers, du er enLinkedIn-profil.
Det er klart at, rentmedievitenskapelig, så er dere
begge to i kategorienopinionsdannere og ikke
mikrokjendiser, selv ommikrokjendis er et veldig antikt
begrep, etter at influenser bleen stor ting.
Mikrokjendis ja, men liksom igamle dager så het det
mikrokjendis, når man varinfluenser med det
(01:26:14):
vitenskapelige.
Så er det ikke helt ut avfagtermonologien enda, men
oppenbent folk som mener ting omting de kan, som andre hører på
.
Så jeg anbefaler å følge bådeAksleida og lese det de skriver
og henge med rundt.
Og så håper jeg at alle som harvært med live eller hørt på et
av opptakene går og kjøper detkinesiske rommet og ser om de
(01:26:38):
blir skremt eller om de er enigemed Aksle om at dette ikke er
den verste dystopien som kunneha skjedd.
Kan det være vi må ha enoppfølgingsarrangement hvor vi
diskuterer det.
Det blir aldri så ille sommittnavno det kan vi alle ta
høyde for tusen, tusen takk tilalle som kom og tusen takk til
(01:26:59):
alle som har stilt spørsmål ogtusen takk til alle som har vært
levende publikum på disseannerledes boklanseringene.
Gi en applaus for dere selv oggi en applaus i chatten for
gjengen.
Så det er tusen, tusen, tusentakk for i kveld.