đ€ Kevin Kelly: Reglera inte AI baserat pĂ„ rĂ€dsla för mĂ€nsklig utrotning
"Att bara vara riktigt smart innebÀr inte att du övervinna Ätta miljarder mÀnniskors vilja att överleva."
Dela artikeln
I en intervju med Warp News om sin nya bok, Excellent Advice for Living, pratade Kevin Kelly ocksÄ om AI och den nuvarande debatten om riskerna med AI.
Vad Àr din syn pÄ riskerna med AI och hur AI ska anpassas till mÀnniskor?
"Det finns olika nivÄer av anpassning. Att anpassa AI:s vÀrderingar Àr legitimt. Att göra dem bÀttre Àn vi i genomsnitt Àr en bra sak att arbeta med."
Men vad sÀger du om AI sÄ kraftfull att den allvarligt kan skada eller döda oss?
"Risken Àr större Àn noll, men sÄ lÄg att den inte borde pÄverka vÄra policies sÀrskilt mycket."
"Nyligen jÀmförde nÄgra det med en pandemi eller klimatförÀndringar. Jag tycker att en asteroid Àr en bÀttre jÀmförelse. En asteroidtrÀff pÄ jorden skulle vara förödande, men det Àr mycket liten risk för att det kommer att hÀnda. Men eftersom resultatet skulle vara katastrofalt, bör vi ha folk i ett program som försöker upptÀcka dem, avvÀrja dem och lista ut vad man ska göra. Men vi fattar inte policybeslut baserat pÄ det faktum att vi kanske blir trÀffade av en asteroid. Vi bygger inte asteroid-sÀkra byggnader."
"Detsamma gÀller existentiell risk med AI. Vi borde ha nÄgra personer som arbetar med det, men vi borde inte skapa policys och reglera baserat pÄ nÄgot med sÄ lÄg sannolikhet."
Intelligens rÀcker inte
Varför tror du att risken Àr sÄ lÄg?
"Anledningen till att jag skiljer mig frÄn vissa personer, som Elon Musk och Eliezer Yudkowsky, Àr att de tenderar att överskatta rollen av intelligens, i att fÄ saker att hÀnda. De Àr killar som gillar att tÀnka, och de tror att tÀnkande Àr det viktigaste. För att fÄ saker att hÀnda i vÀrlden krÀvs intelligens, men det Àr inte det viktigaste. Det Àr inte de smartaste mÀnniskorna som fÄr saker att hÀnda i vÀrlden. Det Àr inte nödvÀndigtvis de smartaste personerna i ett rum som fÄr saker att gÄ framÄt. Intelligens ensamt Àr otillrÀcklig för att förÀndra vÀrlden. Du behöver ha uthÄllighet, du behöver ha empati och uppfinningsrikedom. Och alla möjliga andra saker."
Kevin Kelly lÀgger ocksÄ till en annan aspekt pÄ AI och existentiell risk. Viljan att överleva slÄr viljan att döda.
"Vad vi vet frÄn naturen Àr att överlevnadsviljan alltid slÄr rovdjurens vilja. De flesta rovdjur misslyckas i sina försök att döda ett byte, eftersom viljan att överleva Àr mycket större. à tta, nio miljarder mÀnniskors vilja att överleva Àr otroligt mycket starkare Àn viljan att utrota dem. Och den viljan Àr oberoende av intelligens."
"Att bara vara riktigt smart innebÀr inte att du övervinna kan Ätta miljarder mÀnniskors vilja att överleva."
Hela intervjun finns pÄ YouTube
Kolla gÀrna pÄ hela intervjun med Kevin Kelly om hans nya bok, Excellent Advice for Living, om varför framtiden skapas av optimister, varför nu Àr bÀsta tiden att skapa nÄgot och varför du bör fokusera pÄ de största möjligheterna, inte de största problemen.
Missade inte heller Kevin Kellys essÀ, Ett manifest för optimism, hÀr pÄ Warp News.
Mathias Sundin
Den arge optimisten