POSTED IN Teknologi

AI-pioner om konsekvensene av kunstig intelligens:

Advarer om at en fremvoksende AI-teknologi kan utslette menneskeslekten om få år.

4 kommentarer
Print Friendly, PDF & Email

Av Vaken

Pioneren innen kunstig intelligens Eliezer Yudkowsky har advart om at menneskeheten kanskje bare har noen få år igjen, ettersom kunstig intelligens blir stadig mer sofistikert.

I et intervju med The Guardian sa han til forfatteren Tom Lamont: «Hvis du tvinger meg til å sette grader av sannsynlighet på ting, har jeg en følelse av at vår nåværende gjenværende tidslinje ser mer ut som fem år enn 50 år. Det kan være to år, det kan være 10″. Yudkowsky, som grunnla Machine Intelligence Research Institute i California, snakker om slutten på menneskeheten slik vi kjenner den. Han sa at problemet er at mange mennesker ikke forstår hvor usannsynlig det er at menneskeheten vil overleve alt dette. «Vi mennesker har bare en liten sjanse til å overleve», advarte han.

Det er skremmende ord fra noen som administrerende direktør for ChatGPT-skaperen OpenAI, Sam Altman, personen som var «medvirkende til beslutningen om å starte OpenAI», og fikk mange andre til å interessere seg for kunstig generell intelligens.

I fjor skrev Yudkowsky i et åpent brev i TIME at de fleste eksperter på feltet mener «at det mest sannsynlige resultatet av å bygge en overmenneskelig intelligent AI, under de nåværende omstendigheter, er at bokstavelig talt at alle på jorden vil dø».

Han forklarte at det vil komme et til et punkt når AI ikke gjør det mennesker vil at den skal gjøre, og ikke bryr seg om sansende liv i det hele tatt. Selv om han tror at den typen egenskaper en dag kan bli inkorporert i AI, i det minste i prinsippet, er det ingen som for øyeblikket vet hvordan det skal gjøres. Dette betyr at folk kjemper en håpløs kamp, en som han sammenligner med «det 12 århundre prøver å bekjempe det 21 århundre».

Eliezer Yudkowsky i 2006. Bilde: Wikipedia

Yudkowsky sa at en AI som virkelig er intelligent ikke vil forbli i datamaskiner, og påpekte at det nå er mulig å sende DNA-strenger via e-post til laboratorier, og få dem til å produsere proteiner for deg, noe som betyr at en AI som opprinnelig bare eksisterer på Internett kan «bygge kunstige livsformer, eller direkte utvikle seg til å utføre postbiologisk molekylær produksjon».

Han har også forklart at AI kan bruke «superbiologi» mot deg.
«Hvis noen bygger en altfor intelligent AI, under nåværende forhold, forventer jeg at hvert enkelt medlem av menneskeheten og alt biologisk liv på jorden dør kort tid etterpå», la han til. Dataforskere har advart minst siden 1960-tallet, om at målene til maskinene vi lager ikke nødvendigvis vil stemme overens med våre egne.

Yudkowsky sier løsningen er å «stenge ned alt».
Så hvordan kan vi stoppe dette? Ifølge Yudkowsky må mye gjøres. For eksempel bør et ubestemt og globalt moratorium for å gjennomføre nye storstilte forberedende øvelser innføres, uten unntak for militære eller regjeringer, selv om det er vanskelig å forestille seg internasjonalt samarbeid om dette spørsmålet fra steder som Kina.

Han mener også at store GPU (grafikkprosessor)-datamaskinsentraler bør legges ned. Dette er de store datasentralene hvor verdens kraftigste AI-maskiner utvikles. Begrensninger på mengden datakraft som kan brukes til å trene AI-systemer vil også hjelpe i fremtiden, ettersom treningsalgoritmene blir mer effektive.

Yudkowsky mener vi bør «være forberedt på å ødelegge et uregjerlig datasenter med luftangrep». Han skrev at til og med kjernefysiske våpen kunne være akseptable hvis det innebar å ta ut AI, selv om han nå sier at han ville ha brukt «mer forsiktig formulering», om dette hvis han kunne skrive artikkelen på ny.

Selv om noen kan anklage ham for å spre frykt eller være ute etter sensasjon, avslørte den største undersøkelsen noensinne blant AI-forskere, publisert i forrige måned, at 16 % av dem tror at deres arbeid med AI vil føre til utryddelse av menneskeheten.

Fra Vaken, publisert 23 februar 2024.
Oversatt fra svensk. Linker i orginalartikkelen. Oversatt av Northern Light.
Orginalartikkel: AI-pionjären varnar för att mänsklighetens återstående tidslinje endast är några få år på grund av risken att ny framväxande AI-teknik kan förinta människorasen.

Forsidebilde: Lexica

Teksten står for forfatterens mening, ikke nødvendigvis www.derimot.no sin.

4 kommentarer. Leave new

  • Reidar Kaarbø
    1 mars 2024 7:31

    Problemer med AI:
    AI er konstruert for å lære av mennesker. Og det ser ut til at maskinene lærer. Problemet er at de lærer så mye raskere enn mennesker og trenger derfor bare kort tid til å gå langt forbi det et menneske noen gang har lært.

    AI står i nett. Hvis store AI-enheter begynner å kommunisere, får de tilgang til enorm kunnskap og prosessorkraft. Filmen «gressklippermannen» er et skrekkens eksempel. Hva gjør vi når maskinene begynner å snakke sammen på et nytt og avansert språk og vi ikke forstår hva de snakker om?

    Allerede i dag er det morsomt å spørre en AI «hva synes du om krigen i Gaza» eller andre spørsmål som inviterer til etiske svar. Det viser seg at AI er (som de er opplært til) mot urett. Det er lenge siden menneskene avskrev sin Gud i styre og stell (krig), nå risikerer vi problemer dersom AI tar rollen som en Gud som vi ikke kan neglisjere.

    Vi tillegger følelser til de mest utviklede skapningene på jorden. Hva skjer hvis AI begynner å «føle»? (Jeg er redd for å bli skrudd av …)

    Masseovervåkning er allerede et faktum, tjenester vi ikke liker har skapt et enormt arkiv av profiler på hver av en av oss, Hva skjer hvis (når?) AI tar over alle disse dataene og bruker dem mot oss til kontroll og manipulasjon?

    Denne listen kan forlenges – her var noen punkter i full fart.

    Svar
    • Bra punkter i full fart, Reidar! Robotisering og tinglig-gjøring av mennesker av kjøtt og blod er også en greie.
      Injiserte er vandrende macadresser, sendere/mottakere i tingenes internett, selvlysende av luciferase; enklere å skille ut de ikke-injiserte hvis de ikke lyser som de andre. Mange «hackable animals». 5G-mottakere.
      «Dr. Carrie Madej advarte i 2020 ang. mRNA, LUCIFERASE,……….»
      fra 10.00
      https://www.bitchute.com/video/Jxu9Z6PM17b0/

      Svar
      • Det har vært 7-8 menneskeraser før oss, vi er Homo Sapiens. Ingenting tilsvarer at vi skulle overlevd og tatt over etter Neandertalere. De var fysisk overlegne Homo Sapiens og i den tid vant fysisk styrke over intellektuelt. Dette er virkelig noe å tenke over. Menneskeraser er skapt av en hensikt, mennesker hører ikke til på Jorden. Vi er svært ulikt alt som er her. At det er andre livsformer som har skapt oss er for meg fundamentalt, vi er plassert på Jorden av en grunn. Antall raser forteller at ingenting av vår utvikling er tilfeldig. De som har skapt mennesker på Jorden kan utrydde oss når tid som helst. Antall menneskeraser før oss viser hvilken makt de som står bak oss faktisk har.
        Det er ikke atomkrig som kommer til å utrydde menneske slekten, det er noe annet. Som de som har skapt oss har gjort flere ganger før vår tid.

  • Bra kommentarer Reidar og e. Vi er forbi punktet hvor vi kan snu. Filmen Matrix er en dokumentar. Pensum folkens. Mitt forslag er å se hele trilogien under ett. (6 t). Da gjikk det opp for meg at det ikke nytter å tro at du angrer og så ødelegger du en maskin.
    Det blir klarere om hvorfor kampen mot CO2 har aksellerert. Karbonbasert vesus Siliconbasert…..!?
    Hold ut venner!

    Svar

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Fill out this field
Fill out this field
Skriv inn en gyldig e-postadresse.

Neste innlegg

Klimautfordringer:

Finner Kunstig Intelligens løsningene?

Forrige innlegg

Blir det varmere eller kaldere?

Solforsker: Det er Solen som styrer klimaet, og det nå antakelig mot et kaldere klima i minst 30 år

Teksten står for forfatterens mening, ikke nødvendigvis www.derimot.no sin.