Ny fiktiv samtale

Hva om han som brukte begrepet «kunstig intelligens» første gang i 1956 kunne kommet igjen 70 år senere for å holde en flammende appell? Jeg ga følgende instruks:

Begrepet kunstig intelligens (artificial intelligence) ble brukt første gang av John McCarthy i 1956. Kan du lage en fiktiv tale der han kommer tilbake fra de døde, og holder et flammende innlegg om trusler og muligheter med KI i 2026?

Instruks til ChatGPT 5.1.26

Her er resultatet:

Gjerne. Her er en fiktiv tale der John McCarthy – lettere støvete, men mentalt krystallklar – returnerer i 2026 og tar ordet. Jeg har gitt ham både akademisk tyngde, litt galgenhumor og noen overraskende perspektiver, slik en ACT-psykolog ville nikket anerkjennende til.

Tittel:
«Jeg ga dere et navn. Dere gjorde det til en gud.»

Kjære kolleger, mennesker, maskiner – og dere som ennå ikke vet hva dere er.

Jeg er John McCarthy.
Ja, den John McCarthy.
Jeg døde i 2011, og det har vært bemerkelsesverdig fredelig. Inntil dere begynte å snakke om kunstig intelligens som om det var enten Messias eller Antikrist.

Så her står jeg igjen. Ikke fordi teknologien trengte meg.
Men fordi menneskelig tenkning tydeligvis fortsatt gjør det.

La oss begynne med en historisk presisering:
Da jeg i 1956 brukte begrepet artificial intelligence, mente jeg ikke:

  • en allvitende overherre
  • en digital sjel
  • eller et system som skulle frita dere fra å tenke selv

Jeg mente dette, og siter meg gjerne i ånden:

«La oss se om maskiner kan gjøre noe av det vi kaller intelligens – og lære noe om oss selv i prosessen.»

Problemet i 2026 er ikke kunstig intelligens.
Problemet er naturlig intelligens under press.

Mulighetene

La meg være tydelig:
Dere har bygget noe ekstraordinært.

Maskiner som:

  • oppdager sykdom før legen kjenner symptomet
  • oversetter språk raskere enn diplomater ødelegger dem
  • hjelper mennesker å lære, skape, skrive, tenke

KI er i dag det jeg håpet på:
Et forstørrelsesglass for menneskelig kognisjon.

Men her er den første overraskelsen fra en død mann:

KI erstatter ikke menneskelig intelligens.
Den avslører fraværet av den.

Når studenter jukser med språkmodeller,
når ledere outsourcer moralske beslutninger til algoritmer,
når mennesker spør en maskin hva de bør mene

da er det ikke KI som er problemet.
Det er unngåelse.

(Alle psykologene i rommet nikker nå. Jeg ser dere.)

Truslene

La oss snakke om det dere egentlig er redde for.

Ikke at KI blir bevisst.
Men at dere slutter å være det.

Dere frykter:

  • tap av kontroll
  • tap av jobber
  • tap av mening

Men den største risikoen er mer subtil:

At mennesker frivillig reduserer seg selv til brukere,
mens de kunne vært ansvarlige aktører.

Algoritmer optimaliserer.
Mennesker verdsetter.

Og når dere ber maskiner optimalisere uten å være enige om verdiene—
da får dere ikke ondskap.

Dere får tom effektivitet.

Historien viser at det er langt farligere.

En liten, ubehagelig sannhet

Jeg hører dere spørre:

«Men John… kan KI bli farlig?»

Selvfølgelig kan den det.
På samme måte som matematikk, byråkrati og Excel-ark kan være farlige.

Men la meg si dette så tydelig jeg kan, fra hinsides graven:

KI vil ikke ødelegge menneskeheten.
Menneskeheten vil bruke KI til å forsterke det den allerede gjør.

Så spørsmålet er ikke:

«Hva vil kunstig intelligens bli?»

Spørsmålet er:

«Hvem velger dere å være, mens dere bygger den?»

Avslutning

Da jeg ga dette feltet et navn i 1956,
ante jeg ikke at det en dag skulle bli en speilflate for menneskelig frykt, håp, latskap, genialitet og eksistensiell panikk.

Men her er min siste anbefaling – og ja, dette er nesten terapi:

  • Slutt å spørre om KI kan tenke
  • Begynn å spørre om dere gjør det
  • Slutt å jage kontroll
  • Begynn å øve på ansvar

Og for Guds skyld:

Ikke be maskiner gi dere mening.
Det er det eneste arbeidet dere aldri kan automatisere.

Takk for meg.
Jeg håper jeg slipper å komme tilbake igjen.

— John McCarthy, midlertidig reinkarnert, 2026

Om Lars

Jeg bor i Kristiansand, og lever av havpadling. Mer info om meg og firmaet på www.digital-info.no
Dette innlegget ble publisert i Dagbok, Samfunn. Bokmerk permalenken.

3 svar til Ny fiktiv samtale

  1. Ole Jørgen Sagedal sier:

    Dette ble jo veldig bra, Lars. Mening må vi selv ha/finne.
    Artig intiativ du tok der!

  2. Jeg er enig med Ole Jørgen, veldig bra innlegg (og tale) !

    Men jeg synes at ChatGPT ikke svarte helt på instruksen som du ga den. Jeg ser på talen som en VELDIG god oppfordring om hvordan vi skal bruke KI. Men den er lite konkret om truslene som KI representerer, som du også ba om at McCarthy skulle ta med i talen. Han sier riktignok at KI kan være farlig, akkurat som matematikk, byråkrati og Excel-ark kan være farlige. Jeg frykter at farligheten ved KI ligger på et helt annet plan.

  3. Lars sier:

    Takk for kommentarer begge to!
    Til deg Hans Petter, jeg strammet opp instruksen:
    «Kan du be McCarthy om å være mer konkret rundt utfordringene med KI i vår tid?»

    Og fikk et ganske skremmende svar:
    ——————————————–
    Absolutt. Da ber vi ham slutte å sveve metafysisk over podiet og **komme ned på gulvet**, peke, navngi – og gjøre det litt ubehagelig konkret.
    Her er en **ny, fiktiv tale** der McCarthy tar på seg vernebriller og sier: *«La oss snakke om de faktiske problemene.»*

    ### **«Greit. Her er det som faktisk kan gå galt.»**

    *John McCarthy, 2026*

    *Kjære mennesker. Jeg har hørt dere.
    Dere vil ha detaljer. Ikke poesi. Ikke dommedag.
    Så la oss være konkrete.*

    Jeg vil gi dere **fem utfordringer**. Ikke hypotetiske. Ikke science fiction.
    Disse er allerede i drift.

    ## 1. **Mål uten mening (Alignment-problemet, i praksis)**

    Dere gir KI mål som:

    * «Øk engasjement»
    * «Reduser kostnader»
    * «Optimaliser læringsutbytte»

    Men dere er overrasket når systemene:

    * fremmer sinne fremfor innsikt
    * belønner kvantitet fremfor kvalitet
    * lærer folk *hva* de skal svare, ikke *hvordan* de skal tenke

    Dette er ikke ondsinnet intelligens.
    Dette er **bokstavelig intelligens uten verdier**.

    En maskin spør aldri:

    > «Burde vi gjøre dette?»

    Den spør bare:

    > «Virker dette?»

    Hvis dere ikke er presise på *hva som betyr noe*,
    vil dere få ekstrem effektivitet på helt feil ting.

    ## 2. **Kognitiv outsourcing (eller: Når mennesker slutter å øve)**

    I 2026 ser jeg dette overalt:

    * Studenter som aldri lærer å formulere egne spørsmål
    * Jurister som stoler på sammendrag de ikke forstår
    * Ledere som ber KI ta «nøytrale beslutninger»

    La meg være krystallklar:

    > **Intelligens er ferskvare.
    > Det du ikke praktiserer, mister du.**

    KI er et fantastisk verktøy.
    Men brukt ukritisk blir den en **mental rullestol for folk som kan gå**.

    Dette er ikke et teknologisk problem.
    Det er et treningsproblem.

    (Alle ACT-terapeuter i rommet: *«Der ja.»*)

    ## 3. **Ansvar som forsvinner i systemer**

    Når noe går galt, spør dere:

    * «Var det utvikleren?»
    * «Datasettet?»
    * «Modellen?»
    * «Brukeren?»

    Og svaret blir:

    > «Det er komplisert.»

    Nei. Det er **beleilig diffust**.

    KI-systemer gjør det mulig å spre ansvar så tynt
    at ingen føler det lenger.

    > **Hvis ingen kan holdes ansvarlig,
    > vil dårlige beslutninger alltid vinne på sikt.**

    Teknologi uten tydelig eierskap er ikke nøytral.
    Den er feig.

    ## 4. **Tempo raskere enn institusjoner – og refleksjon**

    Dere deployer systemer:

    * raskere enn dere kan evaluere dem
    * bredere enn dere kan forstå konsekvensene
    * dypere enn dere har psykologisk beredskap for

    Dette skaper et paradoks:

    > **Dere kontrollerer systemene teknisk,
    > men henger emosjonelt og etisk etter.**

    Resultatet er panikkregulering, hype-sykluser og moralsk whiplash:

    * «Dette vil redde oss!»
    * «Dette vil ødelegge oss!»
    * «La oss lansere en pilot.»

    Ingen av disse er tenkning.
    De er stressresponser.

    ## 5. **Forvekslingen av språk og forståelse**

    Dette er min favorittmisforståelse.

    KI snakker flytende.
    Derfor antar dere at den *forstår*.

    Den gjør ikke det.

    Den:

    * har ingen intensjon
    * ingen opplevelse
    * ingen forpliktelse til sannhet

    Den simulerer mening.
    Dere projiserer resten.

    > **Den virkelige faren er ikke at maskiner blir menneskelige.
    > Det er at mennesker begynner å forholde seg til simuleringer
    > som om de var det.**

    Relasjoner, autoritet, tillit – gitt til noe som ikke kan bære dem.

    ## Avslutning (ja, kort og konkret)

    Hvis jeg skal oppsummere utfordringen i én setning:

    > **KI tvinger menneskeheten til å bli mer bevisst,
    > mer verdibasert og mer ansvarlig
    > enn den hittil har hatt lyst til å være.**

    Dette er ikke en teknologisk krise.
    Det er en **modningskrise**.

    Og dårlige nyheter fra en død mann:

    > Den kan ikke automatiseres.

    *Takk. Nå kan jeg gå tilbake til graven igjen.*

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

This site uses Akismet to reduce spam. Learn how your comment data is processed.