Tegnologiese singulariteit
Die tegnologiese singulariteit (ook eenvoudig die singulariteit) is 'n hipotese waarvolgens die ontdekking van kunsmatige hiperintelligensie 'n onmiddellike eksponensiële tegnologiese ontwikkeling tot gevolg sal hê, wat ongekende en fundamentele veranderings in die menslike beskawing teweeg sal bring. Volgens hierdie hipotese sal 'n opgradeerbare intelligente agent (soos 'n rekenaar wat deur sagteware-gebaseerde algemene kunsmatige intelligensie in werking gestel is) 'n wegholreaksie ontketen van 'n kringloop selfverbeterings waarvolgens elke nuwe en meer intelligente generasie vinniger as die vorige sal werk. Dit lei dan tot 'n intelligensie-ontploffing en skep 'n magtige superintelligensie wat kwalitatief by verre alle menslike intelligensie sal oortref. John von Neumann was in die 1950s die eerste om die term "singulariteit" te gebruik in die konteks van tegnologie. Hy verwys na tegnologiese vordering wat versnelde verandering veroorsaak:
“Een van ons gesprekke het gewentel om die immer versnellende vordering van tegnologie en die veranderinge in menslike bestaanswyse, wat naamlik die indruk skep dat 'n sekere onafwendbare singulariteit in die geskiedenis van die menseras (of: spesies) genader word, waarna mensesake, soos ons dit tans ken, nie kan voortbestaan nie.”
Die tegnologiese singulariteit is ook 'n transhumanistiese begrip. Baie transhumaniste ervaar dit vanuit Moore se wet (wat 'n verdubbeling in prosesseringskapasiteit voorspel binne 'n gegewe periode) wat ook van toepassing gemaak word op die tempo van wetenskaplike en tegnologiese ontwikkeling.
Daaropvolgende skrywers het ook die sieninge verder uitgebou. I.J. Good se "intelligensie-ontploffing", voorspel dat 'n toekomstige superintelligensie 'n singulariteit sal laat ontstaan. Amerikaanse wiskundige en wetenskapfiksie-skrywer Vernor Vinge stel in sy 1993 essay, The Coming Technological Singularity, dat 'n singulariteit die einde van die menslike era kan beteken, aangesien die nuwe superintelligensie sal voortgaan om ditself op te gradeer en tegnologie ook teen 'n onverstaanbare vinnige tempo sal laat vooruitgaan.
Gedurende die 2012 Singularity Summit, het Stuart Armstrong in 'n studie van kunsmatige algemene intelligensie voorspellings van kenners onderneem en die gemiddelde voorspelling vir die intree van die singulariteit as 2040 geïdentifiseer.
Inleiding
[wysig | wysig bron]Onder die moontlike eksponensiële verandering tot 'n singulariteit word verstaan:
- 'n Tyd in die toekoms waar die tegnologiese vooruitgang so vinnig is dat mense met hul bestaande intelligensie die gevolglike samelewing nie meer kan begryp nie.
- Die tydstip waarop alle eksponensiële tendense wat sedert die ontstaan van die lewe begin het, almal saamkom en 'deur die plafon gaan'.
- Die tydstip waarop die eerste kunsmatige intelligensies of postmense (verbeterde mense met 'n hoër intelligensie) hul verdere ontwikkeling in eie hand neem en hulself so vinnig gaan 'verbeter' dat die die impak so diepgaande gaan wees dat die mens ingrypend en onomkeerbaar getransformeer gaan word.
In toekomsstudies is 'n tegnologiese singulariteit 'n toekomstige breekpunt wanneer die tegnologiese vooruitgang so vinnig gaan dat mense met hul teenwoordige intelligensie die gevolglike samelewing nie meer kan begryp nie. Die verandering sou aan die gang gesit word deur die eerste kunsmatige intelligensies of postmense wat hulself teen 'n hoë tempo bly verbeter (steeds meer intelligente kunsmatige intelligensie). Hierdie singulariteit is benoem na analogie van die astronomiese punt in die ruimte-tyd waar die natuurwette hul geldigheid afstaan (soos volgens die huidige mees aanvaarde teorie betreffende die oorsprong van die heelal: die oerknal, of die sentrum van 'n swartkolk).
Dergelike veranderinge word in die jare sestig van die 20ste eeu bespreek deur I.J. Good, maar die term singulariteit as beskrywing van tegniese vooruitgang word reeds in die 50er-jare deur John von Neumann gebruik. Die singulariteit word vir die eerste keer uitvoerig beskryf deur die Amerikaanse wiskundige en wetenskapfiksie-skrywer Vernor Vinge in 1993 in sy essay Singularity. Mense debateer nog steeds oor of hierdie singulariteit werklik gaan gebeur, en wanneer (die middel 21ste eeu?).
Sommige outeurs, soos Raymond Kurzweil, het teorieë ontwikkel waarin Moore se wet breër geïnterpreteer word. Moore praat slegs oor die ewolusie van transistors vanaf die jare sestig, Kurzweil begin sy dubbel-eksponensiële kurwe reeds teen die begin van die 20ste eeu by die ponskaartmasjiene. Hy suggereer 'n eksponensiële patroon in die vooruitgang van tegnologie in die loop van die menslike geskiedenis en selfs van voor die begin van lewe op aarde. Die hele ewolusie sedert die oerknal tot nou kan volgens hom gesien word as 'n eksponensiële groei van intelligensie, voortgesit in kunsmatige intelligensie. Volgens Kurzweil kulmineer die patroon in ongebreidelde tegnologiese vooruitgang gedurende die 21ste eeu en lei dan ten slotte tot die singulariteit (die tegnologiese vooruitgang vorder dan baie vinnig na oneindigheid).
Voorwaardes vir 'n tegnologiese singulariteit
[wysig | wysig bron]Vir 'n singulariteit om te kan plaasvind word essensiële voorwaardes benodig, naamlik dat:
- dit vir die mensdom op 'n gegewe tydstip moontlik moet wees om relatief tot menslike intelligensie minstens 'n gelykwaardige kunsmatige intelligensie te skep, of
- dit moontlik moet wees om 'n normaal menslike brein sodanig op te gradeer dat die gevolglike resultaat die tans bestaande menslike brein in intelligensie oortref.
Hieroor bly die menings van ander ondersoekers egter steeds verdeeld.
Oorsprong van die konsep tegnologiese singulariteit
[wysig | wysig bron]Die konsep van 'n tegnologiese singulariteit het reeds in die laat 1950s ontstaan. Stanislaw Ulam het in Mei 1958, verwysend na 'n gesprek met die wiskundige John von Neumann die volgende gestel:
"Eén van die gesprekke is toegespits op die steeds versnellende vooruitgang van tegnologie en veranderings in die aard van mense se lewenswyse, wat sou aandui dat 'n sekere onafwendbare singulariteit in die geskiedenis van ons menseras (of: resies) genader word, by welke punt ons menslike doen en late, soos ons dit tans ken, nie kan voortbestaan nie."
Die aanhaling word dikwels uit konteks gehaal en toegeskryf aan John von Neumann self. In 1965 beskryf die statikus I.J. Good 'n konsep wat nog meer lyk soos ons hedendaagse singulariteitsbegrip omdat hy ook die aspek van bo-menslike intelligensie insluit:
"Laat ons 'n ultra-intelligente masjien definieer as 'n masjien wat baie meer intelligent is as alle intelligente aktiwiteite van enige mens, hoe slim ook al. Aangesien die ontwerp van dié masjien één van die intelligente aktiwiteite is, sou 'n ultra-intelligente masjien 'n veel beter masjien kan ontwerp; daar sou dan ongetwyfeld 'n ontploffing van intelligensie ontstaan, wat die intelligensie van die mens ver agter sou laat. Die eerste ultra-intelligente masjien sou dus die laaste uitvinding wees wat op die mens sal staatmaak."
Die singulariteit van Vernor Vinge
[wysig | wysig bron]Die moderne konsep van die tegnologiese singulariteit is grotendeels afkomstig van die wiskundige en wetenskapfiksie-outeur Vernor Vinge. Vinge begin in die jare tagtig te praat oor die singulariteit, en verwoord sy gedagtes oor die onderwerp in Januarie 1983 in 'n voorwoord vir die (intussen toegemaakte) tydskrif Omni. Die eerste uitgebreide artikel oor die onderwerp publiseer Vinge in 1993, naamlik die essay " tegnologiese singulariteit ". Sederdien is dit 'n onderwerp gewees vir baie wetenskapfiksieskrywers. Die essay van Vinge bevat die gereeld aangehaalde sin:
"Binne dertig jaar sal ons die tegnologiese middele hê om bomenslike intelligensie te skep. Kort daarna sal die menslike tydperk beëindig word."
Die singulariteit van Vinge word gereeld verkeerd verstaan as sou tegnologiese vooruitgang afstewe op oneindigheid, soos in ‘n wiskundige singulariteit. Eintlik bedoel Vinge dat hedendaagse intelligente mense nie meer die gemeenskap van 'na die singulariteit' sal kan begryp nie. In sy wetenskapfisksie roman Marooned in realtime (1986) vergelyk hy dit so:
"'n Platwurm kan vir een miljoen jaar na 'n opera kyk, maar hy sal daarvan nooit iets begryp nie."
Eintlik was die term eerder gekies as 'n metafoor uit die natuurkunde as uit die wiskunde; namate mens die singulariteit nader word die modelle van die toekoms minder betroubaar, net soos die gebruiklike modelle van die natuurkunde verander namate mens 'n swaartekragsingulariteit nader (soos by 'n swartkolk of die oerknal).
Vinge skryf dat bomenslike intelligensie, of dit nou geskep word deur kubernetiese verbetering van die menslike brein (Intelligence Amplification IA) of deur kunsmatige intelligensie (Artificial Intelligence AI), beter in staat sal wees om hul eie intelligensie te vermeerder as die mense wat hulle maak. Vinge skryf:
"Wanneer bomenslike intelligensie vooruitgang bepaal, sal vooruitgang vinniger verloop."
Van hierdie terugvoerkringloop van selfverbetering van intelligensie word verwag dat dit steeds meer tegnologiese vooruitgang bring in 'n steeds korter tydperk. Vir hedendaagse mense sal hierdie nuwe tegnologie en die daarmee gevormde wêreld en gemeenskap vinnig onbegryplik word. In sy roman A Fire Upon the Deep (1992) verwys Vinge hierna. Die helde van die verhaal, wat in die verre toekoms afspeel, kry te maak met baie ver ontwikkelde 'masjiene' wat baie kenmerke van die lewe het. So het hierdie ' masjiene' die uiterlike van 'plantaardige groeisels' wat op molekulêre vlak werk, soos in lewende wesens wat op sellulêre vlak ook as 'n besonderse komplekse molekulêre masjien beskou kan word. Ook 'groei' hierdie' masjiene, as dit nodig is, vanuit 'n saadagtige begin tot grooter eenhede. Hierdie masjiene maak gebruik van atome en molekules uit hul omgewing vir hulle groei en onderhoud en die benodigde energie vir normale gebruik bekom hulle uit sonkrag. Maar as die nodig is haal hulle op 'n onbekende manier energie uit die struktuur van die ruimte-tyd self maar dan op so 'n groot skaal dat as newe effek die son selfs byna uitdoof word deur die enorme hoeveelheid energie wat, hulle op 'n onbegryplike manier, daarvandaan onttrek word.
Raymond Kurzweil se wet van versnellende opbrengste
[wysig | wysig bron]In sy essay uit 2001, 'die wet van die versnellende opbrengste' stel Raymond Kurzweil 'n veralgemening van Moore se wet voor. Die wet van Moore vorm vir die meeste aanhangers van die singulariteitshipotese die basis van hul geloof in die singulariteit en beskryf 'n eksponensiële groeipatroon in die kompleksiteit van geïntegreerde halfgeleier stroombane. Kurzweil brei dit uit en sluit tegnologieë van ver voor die ontwikkeling van geïntegreerde skakeling in tot toekomstige vorme van verwerking. Hy beweer dat 'n nuwe tegnologie op die voorgrond kom telkens as daar 'n hindernis opduik. So sal nanotegnologie volgens hom die wet van Moore staande hou as die huidige produsiemetodes van mikroskyfies 'n plafon bereik. Hy voorspel dat dergelike paradigmaverskuiwings steeds meer dikwels sal voorkom naarmate ons die singulariteit nader. Hy glo dat die eksponensiële groei van Moore se wet sal deurlopend verby die gebruik van geïntegreerde stroombane beweeg na tegnologieë wat vir ons tans nog onbekend is, of wat ons selfs nog nie kan voorstel nie, wat sal lei tot die singulariteit. Dit beskryf hy as 'tegnologiese verandering so vinnig en grondig dat dit dié breekpunt in die menslike geskiedenis aandui'. Baie toekomskundiges gebruik nog steeds die term Moore se wet om ook die idees van Kurzweil te beskryf. Soos Ray Kurzweil in sy boek Kurzweil on the edge - The intelligent universe (2002) dit stel:
"'n Analise van die geskiedenis van die tegnologie toon dat tegnologiese verandering eksponensieel is, in teenstelling met die gebruiklike intuïtiewe linêre visie. Ons sal dus geen 100 jaar van verandering ervaar gedurende die 21ste eeu nie - dit sal dus eerder 20 000 wees (gemeet aan ons huidige denke oor verandering). Die 'opbrengste' soos skyfiespoed en kosteffektiwiteit vermeerder ook eksponensieel. Daar is selfs eksponensiële groei in die eksponensiële groei (dubbel eksponensiële groei,S-kurwe). Binne enkele dekades sal masjien-intelligensie menslike intelligensie oortref en lei tot die singulariteit - tegnologiese veranderinge wat so vinnig en allesomvattend sal wees dat daar sprake is van 'n breekpunt in die menslike geskiedenis. Die gevolge sal onder andere inhou: die samesmelting van biologiese en nie-biologiese intelligensie, onsterflike op sagteware gebaseerde menslike wesens en ultrahoë vlakke van intelligensie wat hulself in die heelal versprei teen die snelheid van die lig."
Kurzweil verduidelik hierdie temas verder in sy boeke soos The age of spiritual machines (2000) en The singularity is near (2005) Sy voorspellings verskil van die van Vinge in soverre dat Kurzweil 'n veel geleideliker oorgang na die singulariteit vir die totale mensdom voorsien terwyl Vinge vinnige selfverbeterende, bomenslike intelligensie vooropstel. Hierdie verskil word dikwels onderskei as die "sagte singulariteit" en die "harde singulariteit".
Evolusie van die samelewing
[wysig | wysig bron]Sommiges beskou die singulariteit as 'n logiese gevolg van die evolusie van die samelewing. Baie sosioloë en antropoloë het sosiale teorieë gekonstrueer wat sosiale en kulturele ewolusie evalueer. Sommiges, soos Lewis H. Morgan, Leslie White en Gerard Lenski beskou tegnologiese vooruitgang as die primêre dryfveer van die selfontwikkelende menslike beskawing.
Morgan stel drie groot fases voorop vir sosiale ewolusie (savagery, barbarism en civilisation). Die fases word onderskei aan die hand van tegnologiese mylpale soos
- vuur, die boog en keramiek in die 'wilde' fase
- Makmaking van diere, landbou en metaalverwerking in die 'barbaarse' fase
- Ten slotte die alfabet en die skrif in die 'beskaafde' fase.
In plaas van spesifieke uitvindings neem White energie as maatstaf om die ewolusie van beskawings te bepaal. Vir White is die verkryging en beheer van energie die vernaamste funksie van kultuur. White onderskei vyf fases in die ontwikkeling van die menslike beskawing;
- in die eerste fase gebruik die mense energie afkomstig van hul eie spiere.
- In die tweede gebruik mense die energie van makgemaakte diere.
- In die derde gebruik se die energie van die plante (landbourewolusie).
- In die vierde fase word geleer om gebruik te maak van natuurlike energiebronne soos steenkool, olie en gas.
- In die vyfde en laatste fase maak mense gebruik van kernenergie.
White skep die formule P=E*T, waarvolgens E 'n maatstaf is van die energie gebruik per capita per jaar, T is 'n maatstaf vir die effektiwiteit van die gebruik van die energie en P verteenwoordig die mate waartoe kulturele ontwikkeling plaasvind in terme van die vervaardigde produk. In sy eie woorde: "kultuur ontwikkel as die hoeveelheid opgewekte energie per capita per jaar vermeerder, of as die effektiwiteit van die instrumentele middele om energie aan te wend toeneem."
Die Russiese astronoom Nikolaj Kardasjev ondersoek hierdie teorie en stel die Kardasjevskaal op, wat die energieverbruik van ontwikkelde beskawings kategoriseer. In sy grondvorm het die skaal drie kategorieë, waarin beskawings op die basis van hul energieprodusie ingedeel word:
Tipe I
Die beskawing is in staat om al die planeet se beskikbare energie te gebruik.
Tipe II
Die beskawing is in staat om alle beskikbare energie wat uitgaan van 'n enkele ster te gebruik.
Tipe III
Die beskawing is in staat om die totale beskikbare energie in 'n melkwegstelsel te gebruik.
Die menslike beskawing bevind homself nog erens onder Tipe I, aangesien ons slegs weet om 'n deel van die beskikbare energie op die Aarde te gebruik. Hierdie status is nie-amptelik "Tipe 0". 'n Dysonsfeer is tipe II op hierdie skaal en die mensdom is op die oomblik ongeveer op vlak 0,7.
Gerhard Lenski gebruik 'n moderne benadering en fokus op informasie. Hoe meer informasie en kennis (veral as dit ons toelaat om die natuurlike omgewing te manipuleer) 'n bepaalde samelewing het, hoe meer ontwikkeld is dit. Hy identifiseer vier fases in die ontwikkeling van beskawing, gebaseerd op mylpale in die geskiedenis van kommunikasie.
- In die eerste fase word inligting deurgegee via die gene.
- In die tweede, wanneer die mensheid sintuiglike bewussyn ontwikkel, kan hy/sy leer en inligting deurgee via ervaring.
- In die derde fase begin die mense tekens te gebruik en ontwikkel logika.
- In die vierde fase word simbole geskep en ontwikkel taal en skrif.
Vooruitgang op die vlak van kommunikasie sorg vir vooruitgang van die ekonomie en politiek, verspreiding van goedere, sosiale ongelykheid en talle van die ander sfere van die menslike samelewing. Hy onderskei samelewings ook op hul vlak van tegnologiese ontwikkeling, kommunikasie en ekonomie;
- jagters-versamelaars
- eenvoudige landbou
- ontwikkelde landbou
- industrie
- spesiale samelewings (soos vissersgemeenskappe)
Ten slotte is daar die sosioloë en antropoloë soos Alvin Toffler (outeur van Future Shock), Daniel Bell en John Nashbitt wie teorieë oor die post-industriële samelewings ontwikkel het. Hulle argumenteer dat die huidige tydperk van die industriële samelewing sy einde nader en dat dienste en informasie belangriker geword het as industrie en goedere. Voorts word transhumanisme voorsien as 'n moontlikheid waarvolgens die mens sy evolusie in eie hande kan neem. Hiervolgens kan die mens homself fisiek verbeter of, na analogie met rekenaars en sagteware, opgradeer met tegnologië soos nanotegnologie, genetiese manipulasie en diepgaande integrasie van rekenaartegnologie in die menslike liggaam. Sommige meer ektreme visies van post-industriële samelewings, veral in fiksie lyk baie soos post-singulariteit samelewings.
Moontlike gevare van die singulariteit
[wysig | wysig bron]Skeptici verwys na verskillende (moontlike selfs dodelike) gevare van die singulariteit vir die mensdom:
- gevaarlike situasies wat voortspruit uit die tegnologie wat uiteindelik 'n kunsmatige intelligensie (KI) moet oplewer.
- gevare voortspruitend uit 'n KI self.
Gevaarlike tegnologie
[wysig | wysig bron]Sommige mense beweer dat die ontwikkelde tegnologieë gewoon te gevaarlik is vir die mens, sodat dit moreel gesien, verbied behoort te word. Daar word veral gevrees vir 'n uiteindelike toekomstige tegnologiese distopie. Baie andere, soos die neo-Luddiete, is teen die singulariteit gekant maar nie teen moderne tegnologie as sodanig nie. Gevaarlike tegnologie waarna dikwels verwys word is molukelêre nanotegnologie en genetiese manipulasie. In 'n vergevorderde stadium kan hierdie tegnologieë moontlik deur 'n superintelligensie aangewend word wat 'n wesentlike gevaar vir die mensdom inhou. Hierdie bedreiging is 'n belangrike aangeleentheid, sowel vir singulariteitsvoorstanders as vir singulariteitskritici, en was die onderwerp van 'n artikel deur Bill Joy gepubliseer in Wired tydskrif, getiteld Why the future doesn't need us. Oxford Universiteit filosoof Nick Bostrom evalueer ook die gevare van die singulariteit vir die oorlewering van die mensdom in sy essay Existential risks. Baie ondersteuners van die singulariteit beskou nanotegnologie as van die belangrikste eksistensiële risikos vir die mensdom. Daarom glo die meeste dat nanotegnologie voorafgegaan sou moet word deur 'n Saad-KI ('n soort basis van kunsmagtige intelligensie) en dat 'n pre-singulariteit gemeenskap dus geen nanotegnologie sou mag besit nie. Ander, soos die Foresight Institute, stimuleer juis inisiatiewe om molekulêre nanotegnologie te skep, omdat hulle glo dat nanotegnologie ook veilig gemaak kan word vir pre-singulariteit gebruik of selfs dat nanotegnologie die koms van 'n gunstige singulariteit kan versnel.
Intelligensie en morele waardes
[wysig | wysig bron]Sommige denkers vermoed dat hiper-intelligensie waarskynlik ander prioriteite as die mensdom sou stel, en 'gewone' intelligente mense sal per definisie nie meer die superintelligensies kan ewenaar nie. Voorts sal die intelligensie van superintelligensies ook steeds vinniger aanwas, wat aan hierdie entiteite die vermoë sal verskaf om alle moontlike teenstand te voorsien, en by voorbaat uit te skakel. Hoewel sommiges argumenteer dat hoë intelligensie ook 'outomaties' met hoë morele waardes sou gepaardgaan, is daar andere wat sodanige verband ontken. Hulle wys op die Nazis wat hulself in die praktyk weens hul rassistiese en totalitêre ideologie nie laat lei het deur enige morele beginsels nie. Baie hoogintelligente mense soos geleerdes, dokters en ingenieurs het vrywillig hul medewerking aan die regime gegee, veral in die jare dertig en die begin van die Tweede Wêreldoorlog toe die stelsel nog suksesvol gelyk het. Blykbaar het hierdie, tog bogemiddeld intelligente mense, geen morele besware teen die Nazis en hulle ideologie gehad nie. KI-navorser Hugo de Garis veronderstel daarom, verwysend na onder andere hierdie historiese voorbeeld, dat bomenslike intelligensies die mensdom bloot gaan elimineer en dat die mensdom dit nie kan stop nie.
Voorstanders van 'Vriendelike kunsmatige intelligensie' sien ook in dat die singulariteit wel 'n groot gevaar vir die mensdom sou kon inhou, en juis om hierdie rede steun hulle pogings om die singulariteit veiliger te maak deur KI te skep wat welwillend teenoor die mens sal wees. Hierdie idee is ook vervat in die "Drie Wette van Robotika" van Isaac Asimov, wat daarop afgestem is om 'n kunsmatige intelligente robot te verhinder, en terselfdetyd nie mense kwaad aan te doen nie. Dit ten spyte daarvan dat in baie storielyne van Asimov se verhale fokus op die mislukking van sy wette. 'n Instituut in die VSA wat hulself besig hou met die veiliger maak van 'n moontlike KI is die Machine Intelligence Research Institute (MIRI) gestig deur singulariteitsondersteuner Elieser Yudkowski en gesteun deur onder andere Ray Kurzweil.
Massale werkloosheid
[wysig | wysig bron]Die oorspronklike Luddiete was gedurende die eerste Industriële Rewolusie (Engeland vanaf 1750) gekant teen die gebruik van masjiene uit vrees dat werk dramaties sou afneem. Sommige teenstanders van die singulariteit beweer dat dieselfde gaan gebeur na 'n singulariteit. Alhoewel die vrees van die Luddiete nie gerealiseer het nie, weens die groei van werkgeleenthede na die industriële rewolusie (landbouwerkers vind nuwe werk as fabrieksarbeiders, technici, kantoorwerkers en bediendes), was daar tog inderdaad 'n vermindering van bepaalde vorme van werk. Daar was veral 'n dramatiese vermindering in werkgeleenthede vir kinders en ouer mense, wat moreel beskou, 'n goeie uitkoms was. 'n Post-singulariteitsgemeenskap kan moontlik veel ryker wees as 'n pre-singulariteitsgemeenskap (danksy die verbeterde manipulasie van materie en energie om aan die menslike behoeftes te voldoen) waarby genoeg welvaart oorbly om die werkloses te onderhou. 'n Moontlike scenario vir die singulariteit is 'n verhoging van die per kapita inkomste en 'n verlaging van die werkgeleenthede waarby iedereen sonder werk 'n soort basisinkomste gewaarborg word. Maar voor die inwerkingstelling van 'n basisinkomste moet daar wel genoeg voorsiening daarvoor gemaak wees deur onder andere die maghebbers en deur die finansiële elite en groot bedrywe wêreldwyd. Hiervoor is die geleenthede nie juis tans gunstig nie omdat die neo-liberalisme nog hoogty vier in die politieke en ekonomiese denke waarvolgens soveel moontlik aan die vrye mark oorgelaat word. Diegene wat nie kan byhou nie, soos siekes, gestremdes, werkloses en bejaardes, word daarby dus gou aan hul eie lot oorgelaat. So ontstaan daar geleidelik 'n verdeling in die samelewing: 'n steeds rykerwordende elite en 'n groeiende, steeds meer verarmde onderklas.
Die vestiging van 'n onaantasbare elite
[wysig | wysig bron]Theodore Kaczynski, 'n heftige teenstander van die singulariteit en 'n neo-luddiet, word berug as die Unabomber. Hy skryf, soos ander sceptici, dat 'n superintelligente entiteit die mensheid onherroepelyk sal uitroei of andersins sal gebruik as 'n willose werktuig vir sy eie doeleindes. Andersyds argumenteer Kacsynski, as KI nie geskep word nie, sal die ontwikkelende tegnologie die vestiging van 'n eliteklas toelaat wat nie meer teengestaan sal kan word nie, weens hul bomenslike intelligensie. Hierdie opperklasse sal ontstaan uit die huidige ekonomiese en politieke elite van die mensdom (the mighty, rich and famous) wat eksklusiewe toegang sal hê tot tegnologiese middele om die ligaam vir 'n onbepaalde tyd biologies gesond te hou en om tot die uitbreiding van hul intelligensie by te dra. Daarmee word die middele aan hulle verskaf om die 'groot massa' eweneens uitgesluit te hou. Die gemiddelde mens sal deur die maghebbers afgegradeer word tot die status van mak diere na voldoende tegnologiese vooruitgang om weerstand vir 'n onbepaalde tyd onder absolute beheer te behou. Sowel Bill Joy as Ray Kurzweil haal Kacsynski aan in hul werk.
Bronne
[wysig | wysig bron]- Kurzweil, Ray (2005). The Singularity is Near. New York, NY: Penguin Group. ISBN 9780715635612.
- William D. Nordhaus, "Why Growth Will Fall" (a review of Robert J. Gordon, The Rise and Fall of American Growth: The U.S. Standard of Living Since the Civil War, Princeton University Press, 2016, ISBN 978-0691147727, 762 pp., $39.95), The New York Review of Books, vol. LXIII, no. 13 (August 18, 2016), pp. 64, 66, 68.
- John R. Searle, “What Your Computer Can’t Know” (review of Luciano Floridi, The Fourth Revolution: How the Infosphere Is Reshaping Human Reality, Oxford University Press, 2014; and Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, 2014), The New York Review of Books, vol. LXI, no. 15 (October 9, 2014), pp. 52–55.
- Good, I. J. (1965), "Speculations Concerning the First Ultraintelligent Machine", in Franz L. Alt; Morris Rubinoff, Advances in Computers Volume 6, Advances in Computers, 6, Academic Press, pp. 31–88, doi:10.1016/S0065-2458(08)60418-0, ISBN 9780120121069, http://www.aeiveos.com/~bradbury/Authors/Computing/Good-IJ/SCtFUM.html, besoek op 2007-08-07
- Hanson, Robin (1998), Some Skepticism, Robin Hanson, http://hanson.gmu.edu/vc.html#hanson, besoek op 2009-06-19
- Berglas, Anthony (2008), Artificial Intelligence will Kill our Grandchildren, http://berglas.org/Articles/AIKillGrandchildren/AIKillGrandchildren.html, besoek op 2008-06-13
- Bostrom, Nick (2002), "Existential Risks", Journal of Evolution and Technology 9, http://www.nickbostrom.com/existential/risks.html, besoek op 2007-08-07
- Hibbard, Bill (5 November 2014). "Ethical Artificial Intelligence". [cs.AI].
Eksterne skakels
[wysig | wysig bron]- Wikimedia Commons het meer media in die kategorie Tegnologiese singulariteit.