Fusionskraft - ja tack!

Våga ifrågasätta och se alternativ. Fria ämneskategorier, bara det belyser något nytt och hoppfullt för mänskligheten.

Moderator: Moderatorgruppen

Siëng Donk-Tsïong
Inlägg: 22
Blev medlem: 04 dec 2003 14:48
Ort: Motown

Inläggav Siëng Donk-Tsïong » 09 dec 2003 13:56

Jag har skummat igenom på ITER-sidan nu, och jag tycker det låter mycket lovande. Det jag skrev tidigare är nog lite oväsentligt, förutom det sista:

jag undrar om människan är tillräckligt samarbetskapabel i sådana stora horder som vi utgör, för att klara av att sköta något sådant på ett tillfredsställande säkert sätt.


även om vi inte skulle vara det så är det väl inget som hindrar oss, inget hindrade Tjernobyl från att byggas, och inget hindrar det från att förse Sverige med el just nu i denna stund (vilket faktiskt sker pga det låga vattenståndet).

Jag har spridit ITER-sidan lite. Det är väl det mesta vi kan göra om vi vill bilda opinion.
Oguh!

Maverick
Inlägg: 48
Blev medlem: 08 dec 2004 15:54

Inläggav Maverick » 08 dec 2004 16:06

Fusionskraften är uppenbarligen svår att göra bruk av i dagsläget, men det är ingen anledning att ge upp, tvärtom är det ju en anledning att investera pengar och resurser idag, så att vi har denna teknologi imorgon, och inte i övermorgon eller aldrig. Sedan vill jag givetvis se denna teknologi i framtida rymdskepp. Som det är nu finns det planer på fissionsdrivna rymdsonder, men fusion vore det nästa logiska steget.

Användarvisningsbild
Johan Ågren
Administratör
Inlägg: 3500
Blev medlem: 15 jan 2003 00:58
Ort: Gävle
Kontakt:

Inläggav Johan Ågren » 07 maj 2006 00:06

Uppdatering: ITER ser ut att hamna i Cadarache i Frankrike.

http://www.itercad.org

http://www.iter.org/default.aspx

Den som lever får se. Om tio år kanske vi har ett färdigt småskaligt fusionskraftverk, och om det fungerar så ska det väl bli lite bättre fart.

Tänk er små solar på jorden, det måste vara det största mänskligheten presterat, inte minst symboliskt; att man själv skapar det liv som skapat människan. Det kan bli en start på ett nytt tänkande; där energi ses som något gott i stället för ont. Och dessutom eldar jag med olja nu!  30.000kr/år :smt013 Konverterar till pellets innan nästa vinter. (Blev bergvärme  :) ).

Johan

Användarvisningsbild
Johan Ågren
Administratör
Inlägg: 3500
Blev medlem: 15 jan 2003 00:58
Ort: Gävle
Kontakt:

Inläggav Johan Ågren » 04 aug 2010 14:00

Här finns ett hundratal informationsfilmer som man kan botanisera i. Finns även filmer som visar aktiva tokamaker: http://www.iter.org/org/team/odg/comm/Video

Justin Case
Inlägg: 3559
Blev medlem: 31 mar 2007 17:46

Re: Fusionskraft - ja tack!

Inläggav Justin Case » 05 sep 2010 04:55

Johan Ågren skrev:Här finns det en applicerbar teknik som bygger på fusion men var finns opinionen? Det är opinionen som avgör om det kommer att ta 50 år eller 10 år att förverkliga fusionskraften! Detta borde vara central fråga i dagens energidebatt. Men det verkar som fler än jag har gått på myten om fusionskraftens omöjlighet.


Av två skäl är jag spontant emot att man satsar på att ta fram fusion.

Jag tror inte att energibrist eller klimathot utgör de största hoten mot mänsklighetens framtid. Det största hotet är unfriendly AI, tror jag. Att öka farten i mänsklighetens utveckling ytterligare genom att öka energitillgången med fusion skulle ge de programmerare som försöker ta fram friendly AI för mänsklighetens bästa ett mindre försprång före de aktörer i världen som försöker och/eller snart kommer att börja försöka ta fram unfriendly AI för egna egoistiska syften. Naturligtvis kan det vara tvärtom, så att unfriendly AI har större chanser än friendly AI att komma först, och att därför en ökning av mänsklighetens energitillgång skulle öka chanserna för friendly AI att komma först. Frågan är vilket av friendly AI och unfriendly AI som förmodligen kommer att vara i ledning när de tävlande börjar närma sig mållinjen. De flesta människor vill nog att mänskligheten ska överleva (allt annat lika), vilket innebär att det är möjligt för friendly AI-projekt att få mer resurser än vad det är för unfriendly AI-projekt - så det troliga är väl att friendly AI har störst chanser att vinna tävlingen. Därför skulle fusion förmodligen öka risken för att fel tävlande vinner, genom att den skulle minska friendly AI:s försprång före unfriendly AI, då den skulle snabba upp den tekniska utvecklingen i största allmänhet. Ju större försprång för friendly AI, desto säkrare positiv utgång i mänsklighetens AI-programmerares tävling om världsherravälde.

Dessutom skulle det väl kosta en väldig massa pengar att ta fram fusion inom 10 år istället för inom 50 år? De pengarna skulle gå från relativt vettiga människor, skattebetalare - medan diktatorer och talibaner och andra relativt farliga varelser skulle spara sina pengar till att t.ex. bygga unfriendly AI istället, och på så sätt ha större chans att vinna tävlingen mot friendly AI genom att de har mer pengar över, i relation till de "goda" krafterna i mänskligheten, än om de "goda" krafterna struntar i att ta fram fusion och istället lägger pengarna på AI-forskning.

Av dessa två skäl är jag spontant emot att man satsar på att ta fram fusion. Men lägg gärna fram motargument som tar hänsyn till vad man kan förvänta sig inom AI-utvecklingen de närmaste årtiondena, jag har säkert missat något.

Användarvisningsbild
Johan Ågren
Administratör
Inlägg: 3500
Blev medlem: 15 jan 2003 00:58
Ort: Gävle
Kontakt:

Inläggav Johan Ågren » 05 sep 2010 13:04

Tror de länder som kommer att driva fusionsprojekt gör det av goda anledningar och således kommer fusionskraften att existera i en sådan kontext där energin kommer goda utvecklingsprocesser till godo. De får således ett försprång. Ser inte att vi kan fördöma hög energitillgång i sig. Lite grand som att fördöma livet i sig som farligt då man kan göra farliga saker när man lever. Naturligtvis kan man fördöma teknikens utveckling i sig, men var har då "tekniken" för naturliga avgränsningar till det "naturliga". Jag fördömer inte tekniken i sig, utan enbart i vilken tjänst den är. På samma sätt fördömer jag inte energitillgången i sig.

Sedan att dåliga människor skulle få ett försprång för att man själv gör goda saker stämmer kanske, men man får hoppas att det goda vinner till slut. Vad är alternativet? Medan jag slösar bort mitt liv på att sopsortera så knullar mina miljöbovar till grannarna järnet och sätter mer barn till världen. Jag förlorar. Men hur ska jag göra då? Förlora direkt? Antagligen måste jag överprestera så att jag både knullar järnet medan jag är duktig och sopsorterar.

Användarvisningsbild
freddemalte
Inlägg: 3418
Blev medlem: 04 mar 2006 20:04

Re: Fusionskraft - ja tack!

Inläggav freddemalte » 05 sep 2010 16:23

Justin Case skrev:
Johan Ågren skrev:Här finns det en applicerbar teknik som bygger på fusion men var finns opinionen? Det är opinionen som avgör om det kommer att ta 50 år eller 10 år att förverkliga fusionskraften! Detta borde vara central fråga i dagens energidebatt. Men det verkar som fler än jag har gått på myten om fusionskraftens omöjlighet.
Jag tror inte att energibrist eller klimathot utgör de största hoten mot mänsklighetens framtid. Det största hotet är unfriendly AI, tror jag. Att öka farten i mänsklighetens utveckling ytterligare genom att öka energitillgången med fusion skulle ge de programmerare som försöker ta fram friendly AI för mänsklighetens bästa ett mindre försprång före de aktörer i världen som försöker och/eller snart kommer att börja försöka ta fram unfriendly AI för egna egoistiska syften. Naturligtvis kan det vara tvärtom, så att unfriendly AI har större chanser än friendly AI att komma först, och att därför en ökning av mänsklighetens energitillgång skulle öka chanserna för friendly AI att komma först. Frågan är vilket av friendly AI och unfriendly AI som förmodligen kommer att vara i ledning när de tävlande börjar närma sig mållinjen. De flesta människor vill nog att mänskligheten ska överleva (allt annat lika), vilket innebär att det är möjligt för friendly AI-projekt att få mer resurser än vad det är för unfriendly AI-projekt - så det troliga är väl att friendly AI har störst chanser att vinna tävlingen. Därför skulle fusion förmodligen öka risken för att fel tävlande vinner, genom att den skulle minska friendly AI:s försprång före unfriendly AI, då den skulle snabba upp den tekniska utvecklingen i största allmänhet. Ju större försprång för friendly AI, desto säkrare positiv utgång i mänsklighetens AI-programmerares tävling om världsherravälde.
Justin, jag kan tänka mig att man säkert har kommit ganska långt i AI-forskingen (oavsett AI:ets vänlighet eller inte). Men är det inte mer tänkbart att vi (mänskligheten sådan som vi känner den) redan är produkten av en sådan aktivitet? Eller?

Vad gäller fusionskraften är det väl bra så länge man kan starta den utan att riskera större en katastrof samt om man kan uppringda tillräcklig energi för detta? Det hade väl varit coolt om alla energikrävande system t.ex. bilmotorer alltid kunde vara påslagna (igång) utan att generera varken förlust av naturresurser eller farligt avfall? Men hur långt har egentligen forskningen kommit på detta område?

Vänligen

Fredrik
"Jag drömde att jag var, vaknade och var den jag drömde."

För mig är filosofi i princip likställt med ifrågasättandet av det vardagliga (common-sense) med det rationella tänkandet (analys och abstraktion), känsla och språket som huvudsakliga verktyg i en spännande samklang med fantasin drivet av en enorm nyfikenhet på världen vanligast manifesterad i en undran över hur andra människor upplever sin tillvaro, tänker och känner.

Justin Case
Inlägg: 3559
Blev medlem: 31 mar 2007 17:46

Inläggav Justin Case » 10 sep 2010 06:16

Johan Ågren och freddemalte,
Jag håller inte med. Jag kanske inte förklarade mitt resursförbrukningsargument så bra. Jag tänker så här. Anta att de "goda" länderna från och med nu och de tio närmaste åren satsar en del resurser (mycket eller litet, spelar ingen roll) på framtagandet av fusionskraft. Låt oss kalla dessa resurser för r. Anta att de "onda" aktörer som nu kanske håller på att ta fram unfriendly AI inte själva kommer att satsa några resurser på att ta fram fusionskraft oavsett om de "goda" länderna gör detta eller inte. (Om ni inte anser att man bör anta detta, hojta till.) Låt oss kalla de "godas" sammanlagda resurser för R1, och de "ondas" sammanlagda resurser för R2. Då gäller att:

R1 - r - R2 < R1 - R2

När fusionskraften väl är framtagen, kommer de "onda" AI-forskarna att kunna utnyttja denna i samma utsträckning oavsett vem eller vilka som tog fram fusionskraften. Oavsett hur stor "skjuts" fusionskraftens intåg ger AI-forskningen, ger den all AI-forskning lika mycket "skjuts" - även den "onda". Den avgörande skillnaden är därför att de "goda" tappade en del av sitt eventuella försprång i AI-utvecklingen genom att ägna en del av sina resurser åt att ta fram fusionskraft istället för till att ta fram friendly AI. Det innebär att de "goda", genom att ta fram fusionskraft, skulle tappa en del av sitt eventuella försprång till de "onda", något som skulle öka risken för att de "onda" lyckas ta fram unfriendly innan de "goda" hunnit ta fram friendly AI. Förstår ni hur jag tänker?

Jag utgår från att fusionstekniken, när den väl är framtagen, kommer att spridas till alla "goda" länder, och att detaljerade kunskaper om hur den fungerar därmed kommer att nå så många människor att det är omöjligt att förhindra att vem som helst, inklusive de "onda", kommer över den.

En liknelse:
Anta hypotetiskt att du och jag är de två finalisterna i en mycket uppskattad tv-tävling i landet Absurdien. Vi befinner oss i ett låst rum med väggar, golv och tak av okrossbart glas. Tv-kameror strax utanför rummet filmar oss ständigt från alla håll. Ingen av oss släpps ut ur rummet förrän tävlingen är avgjord. Vinnaren får (kom ihåg att allt det här är ett hypotetiskt tankeexperiment) motsvarande tio miljoner kronor och får dessutom laglig rätt att göra vad han vill med förloraren: ingenting, eller tortera honom i resten av livet, eller döda honom, ja precis vad han vill. Förloraren får ingenting; han får vara glad om han ens blir fri. Anta att du vet att jag är utvald helt slumpvis bland hela världens alla människor, men att du i övrigt inte vet ett dugg om mig - inte ens huruvida jag vet något om dig. Vi har fått varsitt snöre med tio hårda knutar på. Knutarna sitter likadant och lika hårt på båda snörena. Den av oss som först knutit upp alla knutarna på sitt snöre vinner. Man har kontrollerat så att vi inte har något på oss som vi kan använda till att få upp knutarna lättare än vad det är med fingrar och tänder. Det finns dock hundra vassa sylar utspridda över taket. Med vilken som helst av de sylarna skulle man kunna få upp knutarna mycket snabbare. Vi får veta att det kan gå att komma åt sylarna genom att knappa in en viss tresiffrig kod på en av fyra knappsatser som sitter utplacerade en i varje hörn av rummet; om man slår in rätt kod kan det hända att hela taket blixtsnabbt dras åt sidan så att sylarna regnar ned i rummet. I övrigt finns det inget annat i rummet. Om någon av oss försöker hålla fast den andre, skada den andre eller döda den andre, blir han själv omedelbart avrättad av vakterna. För att kunna vinna tävlingen måste man alltså hålla sig till fredliga metoder. Sylarna är så lätta att man inte löper någon större risk att skadas allvarligt om man får dem över sig, och även om någon skulle skadas på det sättet blir den som hade ned sylarna ändå inte avrättad, eftersom det inte räknas som avsiktligt våld att ha ned sylarna.

Vad är den bästa strategin för att vinna den tävlingen?

Om du börjar knappa dig igenom alla de tusen möjliga sifferkombinationerna från 000 och uppåt på en av knappsatserna för att komma åt sylarna, kommer du visserligen kanske att slå in rätt kod innan jag knutit upp alla mina knutar (kom ihåg dock att vi inte fått några garantier om att det finns någon rätt kod), men när och om sylarna sedan ramlar ned i rummet kan du inte lägga beslag på dem allihop, utan jag kommer då att få tag på minst en av dem. Vi kommer då att få lika stor hastighetsökning i vårt uppknytande av våra knutar. Inget talar för att du skulle få något försprång i knutuppknytandet genom att försöka få ned sylarna, tvärtom, du ger mig ett försprång genom att stå och knappa in sifferkombinationer.

Du i ovan beskrivna hypotetiska tävling symboliserar "de goda i världen". Jag "de eventuellt onda i världen" (jag kanske är god, men du kan inte vara säker på det). Knutarna symboliserar de problem som måste lösas inom AI-forskningen av den som vill skapa en generell, övermänskligt intelligent AI (AGI). Den eventuella kod som kanske låser upp glastaket symboliserar den eventuella möjligheten att få fusionskraft att fylla mänsklighetens energibehov om man satsar en massa resurser på fusionsforskning de närmaste tio åren eller så. Sylarna symboliserar den fantastiska energikälla fusion skulle kunna bli. Sylar vore en lika stor tillgång för mig som för dig = i den mån fusion som energikälla gynnar AI-forskning, gynnar den illasinnad AI-forskning lika mycket som den gynnar godsinnad, då energibolag inte gör skillnad på goda och onda kunder (särskilt inte om de onda kunderna inte avslöjar att de är onda). Ingen av oss kan ta den andres snöre, och den som vill dölja sitt snöre kan göra det, medan ingen av oss kan bli ensam innehavare av en syl för mer än max någon sekund = AI-forskning går att dölja tills den nått ett slutgiltigt resultat i form av t.ex. friendly AGI, men fusionsteknik som blivit allmänt känd skulle alla aktörer kunna utnyttja i samma proportioner i förhållande till varandra som de idag kan utnyttja dagens mindre effektiva energikällor.

Notera att detta argument gäller inte bara fusionskraft, utan all forskning och alla andra aktiviteter som de "goda" kan ägna sig åt och som inte går att hålla hemliga så länge och som inte har som främsta syfte att maximera de "godas" chanser att vinna kapplöpningen om att bli de första att skapa en AGI.

Justin Case
Inlägg: 3559
Blev medlem: 31 mar 2007 17:46

Inläggav Justin Case » 10 sep 2010 07:00

freddemalte skrev:Justin, jag kan tänka mig att man säkert har kommit ganska långt i AI-forskingen (oavsett AI:ets vänlighet eller inte). Men är det inte mer tänkbart att vi (mänskligheten sådan som vi känner den) redan är produkten av en sådan aktivitet? Eller?


Jag tror att vi lever i en datorsimulation. Men jag tror inte att de som skapat den datorsimulationen bryr sig om vad vi gör. Jag tror vi är alltför primitiva i jämförelse med dem för att de ska ha någon anledning att bry sig om oss (än så länge i alla fall). Vi kan vara en rent slumpmässig effekt av parametrar som skaparna av datorsimulationen slängde in på måfå. De kanske var ute efter att skapa något helt annat, något kanske mycket mer avancerat än vi, och vi är bara en av många för dem helt ointressanta bieffekter. Jag skulle likna det vid situationen att en enskild harmlös GMO-bakterie uppstått som oavsedd bieffekt vid någon terrorists försök att genmodifiera fram livsfarliga bakterier. Terroristen har ingen anledning att bry sig om denna enskilda harmlösa bakterie, men bakterien själv har ändå olika stora överlevnadschanser beroende på hur den beter sig. Nu har vi i och för sig kanske en större "fri vilja" än vad en bakterie har, men det är kanske ändå bara en gradskillnad. Min poäng är att det faktum att vi förmodligen lever i en datorsimulation och att någon skapat oss inte behöver betyda att vi bör bete oss på något annat sätt än hur vi skulle ha haft anledning att bete oss om vi inte hade levt i en datorsimulation och ingen hade skapat oss - så länge den del av vår omgivning vi kan påverka är densamma oavsett vilket.

Men det kan tänkas att det, åtminstone längre fram i tiden, har betydelse för vår riktigt, riktigt långsiktiga framtid huruvida vi tror att vi har någon/några skapare eller inte. Kanske kommer vi en dag att kunna mäta oss med våra skapare i fråga om makt, och kanske rentav ta makten över dem. Det kan inte uteslutas, liksom det inte kan uteslutas att en till en början ofarlig GMO-bakteriestam, som en terrorist av misstag råkat ta fram i sina försök att skapa en farlig dito, kan utvecklas till en farligare art med tiden, en art som (med en väldig "tur" (alltså "tur" sett från den artens perspektiv, men naturligtvis otur för mänskligheten)) kan komma att utrota mänskligheten och bli ensam kvar, fri att fortsätta utvecklas i frihet, till hur avancerade arter som helst. En annan liknelse är dataprogram: liksom en bugg, i en övermänsklig AI skapad av människor, i princip kan råka få det program det tillhör att ta makten över mänskligheten och därefter utvecklas obegränsat på egen hand i frihet, kan vi kanske hitta ett sätt att ta makten över våra skapare, om vi utgår från hypotesen att vi är en bugg av ett sådant slag som råkar kunna det. Det finns alltså trots allt anledning att minnas att det kan vara så att vi är skapade av någon/några. Vi kan ha nytta av den hypotesen när vi blivit så mäktiga att vi kanske kan ta makten över vår(a) skapare. Men tills vidare bör vi nog snarare fokusera på att få mänskligheten att överleva åtminstone detta århundrade. First things first.

(Undrar flyktigt hur hädiskt det där med att ta makten över vår(a) skapare låter, på en skala, i öronen på en kristen fundamentalist... :-) )

Användarvisningsbild
Johan Ågren
Administratör
Inlägg: 3500
Blev medlem: 15 jan 2003 00:58
Ort: Gävle
Kontakt:

Inläggav Johan Ågren » 10 sep 2010 08:32

Nu börjar jag se likheter mellan dig Justin och en annan person.

http://www.simulation-argument.com/

Justin Case
Inlägg: 3559
Blev medlem: 31 mar 2007 17:46

Inläggav Justin Case » 10 sep 2010 11:58

Johan Ågren skrev:Nu börjar jag se likheter mellan dig Justin och en annan person.

http://www.simulation-argument.com/


Ja, likheterna mellan min och Nick Bostroms världsbild är många och jag har länkat till den där sajten vid flera tillfällen här på filosofiforum. Den är mycket läsvärd, jag rekommenderar den varmt. Men jag är inte Nick Bostrom om du trodde det. Och jag delar inte alla hans åsikter; till exempel delar jag inte alls hans skepsis till aggregativ konsekventialism. Här argumenterar han för att aggregativ konsekventialism - och alltså bland annat utilitarism - tycks meningslös om universum är oändligt stort:

http://www.nickbostrom.com/ethics/infinite.pdf

Om matematikers vanliga sätt att behandla oändliga mängder är det sätt på vilket man ska behandla varje oändlig mängd lycka och varje oändlig mängd lidande, och om universum är oändligt stort, och om (vilket väl är ofrånkomligt) ett oändligt stort universum innehåller oändligt mycket lycka och oändligt mycket lidande vad vi än gör, och om det enda vi moraliskt bör bry oss om är hur våra val påverkar universums sammantagna mängd lycka respektive lidande, spelar det moraliskt sett ingen roll vad vi gör. Men jag anser att vi, trots att jag anser det bevisat att universum är oändligt stort, bör utgå från att det spelar roll vad vi gör. Jag menar att istället för att förkasta aggregativ konsekventialism bör man förkasta matematikers vanliga sätt att behandla oändliga mängder. Jag anser att om Nick Bostrom har rätt om aggregativ konsekventialism i sin "Infinite Ethics", är all moral meningslös, inte bara aggregativ konsekventialism. Om universum är oändligt stort, och om matematikers vanliga sätt att behandla oändliga mängder är det sätt på vilket man ska behandla varje oändlig mängd, sker nämligen, i precis samma utsträckning, precis allt som kan tänkas ske, oavsett om vi väljer att få det att ske eller inte - vilket innebär att det inte finns något man kan låta bli att göra, vilket innebär att all moral är meningslös. Den slutsatsen är oacceptabel, och därför måste man förkasta någon av de premisser som leder till den. Om universum är oändligt stort - vilket jag finner bevisat att det är - måste man därmed förkasta matematikers vanliga sätt att behandla oändliga mängder och ersätta den med en matematik som gör det meningsfullt för ändliga varelser som vi att göra något i ett oändligt stort universum. Det är ett av skälen till att jag i tråden "Oändligheten och evigheten" (under Naturvetenskap) argumenterar så frenetiskt för att en oändlig mängd gånger en ändlig mängd större än 1 är en större oändlig mängd än den ursprungliga oändliga mängden.

Om du har något svar på det jag skrev för ett par inlägg sedan om fusionskraft så är jag idel öra.

Användarvisningsbild
Johan Ågren
Administratör
Inlägg: 3500
Blev medlem: 15 jan 2003 00:58
Ort: Gävle
Kontakt:

Inläggav Johan Ågren » 10 sep 2010 13:06

Justin,

Ja det var ju jag som kom med de dräpande argumenten mot Boströms teorier. Han missar på det där med dimensioner; total mängd och täthet  :wink:  : http://www.filosofiforum.com/forum/vie ... php?t=5473 Dominans/täthet är ju det som är relevant när det kommer till utilitarism, för det är den som har faktisk inverkan på allas liv, en princip som gör sig gällande i en oändlighet.

Ska se om jag får någon tid till att svara dig i helgen.

Användarvisningsbild
Johan Ågren
Administratör
Inlägg: 3500
Blev medlem: 15 jan 2003 00:58
Ort: Gävle
Kontakt:

Inläggav Johan Ågren » 11 sep 2010 09:21

De "onda" lägger således sitt krut på att rusta upp sig till den dagen fusionskraften är färdig, och då slår de till, och genom sitt strategiska försprång så tar de fusionskraften ur händerna på de goda och brukar den i sitt onda syfte.

Ja så skulle det kunna gå till. Men det är då inte något unikt för bara fusionskraften. Det tänkandet skulle i så fall lamslå alla framsteg som kunde bli potentiella vapen i någon annans händer. Så själva resonemanget faller på fundamentala förhållningssätt som uniminerar själva den grund vi står på.

De krav som ställs på oss är således att värna alla variabler av en utvecklingsprocess, så att detta inte kan ske. DVS att inte utveckla fusionskraft under sådana förutsättningar där detta problem kan uppstå. Einstein med kollegor agerade således felaktigt när de tog fram teorier som sedan resulterade i att de onda börade klyva atomer. Alternativt så var de onda själva.

De som kom på att man kunde jaga med spjut skulle aldrig ha visat det för de andra i lägret, helt enkelt.  :)

Justin Case
Inlägg: 3559
Blev medlem: 31 mar 2007 17:46

Inläggav Justin Case » 11 sep 2010 21:57

Johan Ågren skrev:De "onda" lägger således sitt krut på att rusta upp sig till den dagen fusionskraften är färdig, och då slår de till, och genom sitt strategiska försprång så tar de fusionskraften ur händerna på de goda och brukar den i sitt onda syfte.

Ja så skulle det kunna gå till. Men det är då inte något unikt för bara fusionskraften.


Det är sant, det gäller inte bara fusionskraften utan även det mesta som människor idag skulle kunna ägna sig åt. Men inte allt som människor idag skulle kunna ägna sig åt. Se nedan.

Det tänkandet skulle i så fall lamslå alla framsteg som kunde bli potentiella vapen i någon annans händer.


Det skulle (om jag fick bestämma) inte få lamslå friendly-AI-forskningen, ty utan den finns det inget som förhindrar att unfriendly AI tas fram, och unfriendly AI måste till varje pris förhindras. Det skulle därför inte heller få lamslå den infrastruktur, matproduktion, energiproduktion och annat som behövs för att maximera differensen mellan [hastigheten på "de godas" framtagande av friendly AI] och [hastigheten på "de ondas" framtagande av unfriendly AI]. Jag tror inte att försök att ta fram fusionskraft tillhör det som skulle maximera den differensen. Väldigt många fler människor borde enligt min åsikt syssla på heltid med att ta fram friendly AI. Dessa människor måste naturligtvis kunna äta, sova, kommunicera med varandra, få energi till sina datorer, uppvärmning av de lokaler de håller till i, etc., för att kunna ta fram någon friendly AI inom optimalt kort tid, så att risken för att unfriendly AI hinner före minimeras. Men det är sant att det mesta som vi idag tar för givet att människor ska göra går bort, om mänskligheten gör som jag föreslår.

Tidsperspektivet är viktigt. Unfriendly AI kan mycket väl hinna dyka upp innan någon fusionsforskning gett något revolutionerande resultat, om mänskligheten från och med nu/snart satsar stort på fusionsforskning. Hade det funnits mycket goda chanser för fusionsforskning att ge revolutionerande resultat redan inom två tre år hade jag nog varit positivt inställd till storsatsning på fusionsforskning. Då hade sådan nog gynnat friendly-AI-forskningen mer än den hade gynnat unfriendly-AI-forskningen. Rör det sig om tio år eller mer, känns detta mycket mindre säkert. Vad hade du själv tänkt om saken om det hade rört sig om 100 år? Alltså om man hade vetat att de närmaste 100 åren av fusionsforskning (även väldigt intensiv sådan) skulle ha inneburit enbart kostnader, och inga energivinster, för mänskligheten eller för någon samling "goda" människor (men att det i längden skulle visa sig ha lönat sig att ta fram fusion, i de scenarior där mänskligheten överlevt i 100 år från nu)? Skulle du då fortfarande ha varit för fusionsforskning?

Om tv-tävlingen jag gjorde en liknelse till hade varit sådan att du bara hade behövt slå in en tvåsiffrig kod för att få tag på en syl, och om det var nästan garanterat att det fanns en kod som gav dig tillgång till en syl, och om du hade skäl att tro att du efter inknappandet av rätt tvåsiffrig kod skulle få tag på en syl flera minuter (och inte bara ett par sekunder) innan jag får tag på en syl, vore det säkert bäst för dig att försöka slå in rätt kod istället för att försöka knyta upp knutarna på ditt snöre med enbart fingrar och tänder. Då hade tv-tävlingsliknelsen avspeglat ett scenario där fusionskraft skulle gå fort att ta fram (t.ex. på bara två tre år).

Det är inte tillräckligt att fråga om "man" bör satsa på att ta fram fusionsenergi utan att specificera vilka och hur många det är som kommer att rätta sig efter vad man svarar på den frågan. Jag tror att frågor av typen "vad bör man göra?" har väldigt olika svar beroende på hur många och vilka man förutsätter att ordet "man" i frågan syftar på. Om de syftar på precis alla människor, då är väl saken mer eller mindre biff, för då antar jag att svaret blir att alla människor i världen som är intresserade av programmering helt enkelt bör sätta sig och programmera friendly AI medan alla som inte är intresserade av programmering bör serva de förstnämnda på alla de optimala sätten - som bland annat kanske skulle innebära en storsatsning på att ta fram fusionskraft, vad vet jag. Men det förutsätter ju att den som ska svara på frågan är hyfsat säker på att verkligen alla (eller åtminstone nästan alla) människor skulle göra som han svarade, så att ingen med alltför stor sannolikhet skulle ta fram unfriendly AI i ett sådant scenario. Om ordet "man" i frågan "vad bör man göra?" syftar på endast t.ex. västvärldens politiker, eller de flesta västerlänningar, eller filosofiforums medlemmar, eller någon annan grupp som inte tillnärmelsevis utgör hela mänskligheten, ja då bör denna grupp människor ta hänsyn till den med stor sannolikhet stundande AI-kapplöpningen mellan "de onda" och "de goda", och då går fusionsforskning och mycket annat bort, vad jag kan se.

De krav som ställs på oss är således att värna alla variabler av en utvecklingsprocess, så att detta inte kan ske. DVS att inte utveckla fusionskraft under sådana förutsättningar där detta problem kan uppstå. Einstein med kollegor agerade således felaktigt när de tog fram teorier som sedan resulterade i att de onda börade klyva atomer. Alternativt så var de onda själva.


Att Einsteins och hans kollegors forskning skulle komma att i så hög grad främja en snabb utveckling av kärnvapen, var det något Einstein och hans kollegor kunde förutse utifrån den information de hade? Om svaret på den frågan är ja, borde de nog istället ha använt sina skarpa hjärnor till något som skulle ha medfört en bättre balans mellan "goda" och "onda" i världen än vad de insåg att kärntekniken skulle medföra. Det finns en avgörande skillnad mellan AI-kapplöpning och kärnvapenkapplöpning: AI-kapplöpning kan om bara några årtionden sluta med att någondera parten slutgiltigt vinner och kan skapa en fantastiskt lycklig framtid (jämfört med om AI inte hade tagits fram alls). Kärnvapenkapplöpning har bara förlorare (jämfört med om kärnvapen aldrig hade tagits fram).

De som kom på att man kunde jaga med spjut skulle aldrig ha visat det för de andra i lägret, helt enkelt.  :)


Jodå, det är en annan sak, för på den tiden då vi jagade med spjut stod inte mänsklighetens hela framtid och föll med någon teknik som realistiskt kunde förväntas komma inom rimlig tid. AI kommer med mycket stor sannolikhet inom några årtionden att vara ett hot mot hela mänskligheten. Det kunde spjut aldrig ha blivit med någon nämnvärd sannolikhet.

Justin Case
Inlägg: 3559
Blev medlem: 31 mar 2007 17:46

Inläggav Justin Case » 11 sep 2010 22:10

En annan liknelse för att visa att samhället de närmaste årtiondena bör satsa alla sina resurser på att ta fram friendly AI innan det kommer unfriendly AI, istället för att satsa något av sina resurser på fusionskraft och annat som inte optimalt bidrar till att friendly AI tas fram före unfriendly AI:

Anta att du är en stenåldersmänniska i en by på stenåldern, och du har just fått en idé om hur man skulle kunna göra spjut mycket vassare och bättre än tidigare. Men så kommer en av era spejare med andan i halsen och berättar att en främmande stam är på väg mot er by med avsikt att utplåna er. De är tydligen bara några kilometer bort. De är mycket färre än ni, men de är beväpnade med spjut och ni är för tillfället inte förberedda på strid. Vad gör du? Sätter du dig och täljer ett bättre spjut enligt din nya idé och hoppas bli klar innan angriparna når fram, eller springer du in i din hydda och hämtar ditt gamla relativt trubbiga spjut medan du skriker åt dina stamfränder att de också ska beväpna sig?


Återgå till "Tema: Alternativ!"

Vilka är online

Användare som besöker denna kategori: 1 och 0 gäst