Mõtteharjutusi homseks | Eetikaveeb

TÜ üksuste kontaktandmed

humanitaarteaduste ja kunstide valdkond
Faculty phone: 
737 5341
Faculty address: 
Jakobi 2, ruumid 116–121, 51014 Tartu
  • valdkonna dekanaat
    Faculty phone: 
    737 5341
    Faculty address: 
    Jakobi 2, ruumid 116–121, 51005 Tartu
  • ajaloo ja arheoloogia instituut
    Faculty phone: 
    737 5651
    Faculty address: 
    Jakobi 2, 51005 Tartu
  • eesti ja üldkeeleteaduse instituut
    Faculty phone: 
    737 5221
    Faculty address: 
    Jakobi 2, IV korrus, 51005 Tartu
  • filosoofia ja semiootika instituut
    Faculty phone: 
    737 5314
    Faculty address: 
    Jakobi 2, ruumid 309–352, 51005 Tartu
  • kultuuriteaduste instituut
    Faculty phone: 
    737 5223
    Faculty address: 
    Ülikooli 16, 51003 Tartu
  • maailma keelte ja kultuuride kolledž
    Faculty address: 
    Lossi 3, 51003 Tartu
  • usuteaduskond
    Faculty phone: 
    737 5300
    Faculty address: 
    Ülikooli 18-310, 50090 Tartu
  • Viljandi kultuuriakadeemia
    Faculty phone: 
    435 5232
    Faculty address: 
    Posti 1, 71004 Viljandi
sotsiaalteaduste valdkond
Faculty phone: 
737 5957
Faculty address: 
Lossi 36, 51003 Tartu
  • valdkonna dekanaat
    Faculty phone: 
    737 5900
    Faculty address: 
    Lossi 36, 51003 Tartu
  • haridusteaduste instituut
    Faculty phone: 
    737 6440
    Faculty address: 
    Salme 1a–29, 50103 Tartu
  • Johan Skytte poliitikauuringute instituut
    Faculty phone: 
    737 5582
    Faculty address: 
    Lossi 36–301, 51003 Tartu
  • majandusteaduskond
    Faculty phone: 
    737 6310
    Faculty address: 
    J. Liivi 4, 50409 Tartu
  • psühholoogia instituut
    Faculty phone: 
    737 5902
    Faculty address: 
    Näituse 2, 50409 Tartu
  • õigusteaduskond
    Faculty phone: 
    737 5390
    Faculty address: 
    Näituse 20–324, 50409 Tartu
  • ühiskonnateaduste instituut
    Faculty phone: 
    737 5188
    Faculty address: 
    Lossi 36, 51003 Tartu
  • Narva kolledž
    Faculty phone: 
    740 1900
    Faculty address: 
    Raekoja plats 2, 20307 Narva
  • Pärnu kolledž
    Faculty phone: 
    445 0520
    Faculty address: 
    Ringi 35, 80012 Pärnu
meditsiiniteaduste valdkond
Faculty phone: 
737 5326
Faculty address: 
Ravila 19, 50411 Tartu
  • valdkonna dekanaat
    Faculty phone: 
    737 5326
    Faculty address: 
    Ravila 19, 50411 Tartu
  • bio- ja siirdemeditsiini instituut
    Faculty phone: 
    737 4210
    Faculty address: 
    Biomeedikum, Ravila 19, 50411 Tartu
  • farmaatsia instituut
    Faculty phone: 
    737 5286
    Faculty address: 
    Nooruse 1, 50411 Tartu
  • hambaarstiteaduse instituut
    Faculty phone: 
    731 9856
    Faculty address: 
    Raekoja plats 6, 51003 Tartu
  • kliinilise meditsiini instituut
    Faculty phone: 
    737 5323
    Faculty address: 
    L. Puusepa 8, 50406 Tartu
  • peremeditsiini ja rahvatervishoiu instituut
    Faculty phone: 
    737 4190
    Faculty address: 
    Ravila 19, 50411 Tartu
  • sporditeaduste ja füsioteraapia instituut
    Faculty phone: 
    737 5360
    Faculty address: 
    Jakobi 5–205, 51005 Tartu
loodus- ja täppisteaduste valdkond
Faculty phone: 
737 5820
Faculty address: 
Vanemuise 46–208, 51014 Tartu
  • valdkonna dekanaat
    Faculty phone: 
    737 5820
    Faculty address: 
    Vanemuise 46–208, 51005 Tartu
  • arvutiteaduse instituut
    Faculty phone: 
    737 5445
    Faculty address: 
    J. Liivi 2, 50409 Tartu
  • Eesti mereinstituut
    Faculty phone: 
    671 8902
    Faculty address: 
    Mäealuse 14, 12618 Tallinn
  • füüsika instituut
    Faculty address: 
    W. Ostwaldi 1, 50411 Tartu
  • keemia instituut
    Faculty phone: 
    737 5261
    Faculty address: 
    Ravila 14a, 50411 Tartu
  • matemaatika ja statistika instituut
    Faculty phone: 
    737 5860
    Faculty address: 
    J. Liivi 2, 50409 Tartu
  • molekulaar- ja rakubioloogia instituut
    Faculty phone: 
    737 5011
    Faculty address: 
    Riia 23, 23b–134, 51010 Tartu
  • Tartu observatoorium
    Faculty phone: 
    737 4510
    Faculty address: 
    Observatooriumi 1, Tõravere, 61602 Tartumaa
  • tehnoloogiainstituut
    Faculty phone: 
    737 4800
    Faculty address: 
    Nooruse 1, 50411 Tartu
  • ökoloogia ja maateaduste instituut
    Faculty phone: 
    737 5835
    Faculty address: 
    Vanemuise 46, 51003 Tartu
Asutused
  • raamatukogu
    Faculty phone: 
    737 5702
    Faculty address: 
    W. Struve 1, 50091 Tartu
  • teaduskool
    Faculty phone: 
    737 5581
    Faculty address: 
    Uppsala 10, 51003 Tartu
  • genoomika instituut
    Faculty phone: 
    737 4000
    Faculty address: 
    Riia 23b, 51010 Tartu
  • muuseum
    Faculty phone: 
    737 5674
    Faculty address: 
    Lossi 25, 51003 Tartu
  • loodusmuuseum ja botaanikaaed
    Faculty phone: 
    737 6076
    Faculty address: 
    Vanemuise 46, 51003 Tartu
Tugiüksused
  • ettevõtlus- ja innovatsioonikeskus
    Faculty phone: 
    737 6339
    Faculty address: 
    Lossi 3, III korrus, 51003 Tartu
  • grandikeskus
    Faculty phone: 
    737 6215
    Faculty address: 
    Lossi 3, III korrus, 51003 Tartu
  • hankeosakond
    Faculty phone: 
    737 6632
    Faculty address: 
    Ülikooli 18a, 51005 Tartu
  • infotehnoloogia osakond
    Faculty phone: 
    737 6000, arvutiabi: 737 5500
    Faculty address: 
    Ülikooli 18a, 51005 Tartu
  • kantselei
    Faculty phone: 
    737 5606
    Faculty address: 
    Ülikooli 18a, 51005 Tartu
  • kinnisvaraosakond
    Faculty phone: 
    737 5137
    Faculty address: 
    Ülikooli 18a, 51005 Tartu
  • kirjastus
    Faculty phone: 
    +372 737 5945
    Faculty address: 
    W. Struve 1, 50091 Tartu
  • personaliosakond
    Faculty phone: 
    737 5145
    Faculty address: 
    Ülikooli 18, ruumid 302 ja 304, 50090 Tartu
  • rahandusosakond
    Faculty phone: 
    737 5125
    Faculty address: 
    Jakobi 4, 51005 Tartu
  • rektoraadi büroo
    Faculty phone: 
    737 5600
    Faculty address: 
    Ülikooli 18, 51014 Tartu
  • siseauditi büroo
    Faculty address: 
    Ülikooli 17–103, 51005 Tartu
  • Tallinna esindus
    Faculty phone: 
    737 6600
    Faculty address: 
    Teatri väljak 3, 10143 Tallinn
  • turundus- ja kommunikatsiooniosakond
    Faculty phone: 
    737 5687
    Faculty address: 
    Ülikooli 18, ruumid 102, 104, 209, 210, 50090 Tartu
  • õppeosakond
    Faculty phone: 
    737 5620
    Faculty address: 
    Ülikooli 18, 50090 Tartu
  • üliõpilasesindus
    Faculty phone: 
    737 5400
    Faculty address: 
    Ülikooli 18b, 51005 Tartu
Muud üksused
  • MTÜ Tartu Ülikooli Akadeemiline Spordiklubi
    Faculty phone: 
    737 5371
    Faculty address: 
    Ujula 4, 51008 Tartu
  • MTÜ Tartu Üliõpilasküla
    Faculty phone: 
    740 9959
    Faculty address: 
    Narva mnt 25, 51013 Tartu
  • MTÜ Tartu Üliõpilasmaja
    Faculty phone: 
    730 2400
    Faculty address: 
    Kalevi 24, Tartu
  • SA Tartu Ülikooli Kliinikum
    Faculty phone: 
    731 8111
    Faculty address: 
    L. Puusepa 1a, 50406 Tartu
  • Tartu Ülikooli Sihtasutus
    Faculty phone: 
    737 5852
    Faculty address: 
    Ülikooli 18a–106, Tartu

Mõtteharjutusi homseks

28. Veebruar 2013 - 10:31 -- Mats Volberg
Foorumid: 

Tuleviku ennustamine on tavaliselt tänamatu töö. Enamasti üle- või alahinnatakse asju, mistõttu tullakse välja äärmiselt naeruväärsete või hiljem naiivsetena tunduvate mõtetega. Näiteks tuldi veidi rohkem kui 60 aastat tagasi välja mõttega, et tulevikus ei kaalu arvutid rohkem kui 1,5 tonni; kuigi ennustus osutus korrektseks, siis tänapäeval tundub see üsnagi humoorikas. Teiselt poolt, 1960ndate lõpul arvati, et aastaks 2000 oleme rajanud Marsile uurimisjaama, mis võis tunduda Kuule maandumise varjus üsna loogiline järgmine samm, kuid me pole sellele täna väga palju lähemal kui siis, kui mõte välja käidi. Sellegipoolest on tulevikule mõtlemine vajalik, esmalt selleks, et olla valmis tolleks tulevikuks, kui see ükskord kohale jõuab, kuid ka selleks, et see kohale jõuaks.
 

Muutuva maailmaga koos kerkivad esile uued eetikaküsimused ja -probleemid, uued tehnoloogiad ja teaduslikud avastused seavad meie ette pidevalt uusi moraalseid väljakutseid. Siinkohal tahaksingi arutada kolme tulevikustsenaariumit ja nendega seotud eetikaküsimusi.

Punane plastmassist mängurobotOma igapäevaelus puutume kokku järjest intelligentsemate ja võimekamate arvutitega. Arvestades, et filosoofias seostatakse isik (ing person) olemist tavaliselt mingite kognitiivsete võimetega, siis pole just täielik ulme kujutada ette selliseid programme ja masinaid, mis oma toimimiselt on inimestega äärmiselt sarnased või isegi täiesti samasugused. Kui neil programmidel ja masinatel on aga kõik tunnused, mis teevad isikust isiku (nt praktiline arutlusoskus, eneseteadvus jne), siis tekib küsimus, milline peaks olema nende moraalne staatus. Tõenäoliselt teeniksid sellised masinad inimeste huve, näiteks abistades neid, kes muidu üksi elamisega hakkama ei saaks, või teeksid eriti ohtlikke töid. Kuid kas me peaksime neid kohtlema samaväärselt inimestega? Sest kui me arvame, et inimesed väärivad teatud moel kohtlemist, sest nende puhul on tegemist ratsionaalsete agentidega, ning kõnealused masinad on selles osas täiesti eristamatud, siis paistab, et meil ei jää midagi muud üle. Teisalt on tegu siiski kunstlike masinatega, mis on ehitatud tehases ja ei erine selle poolest kuidagi tavalisest arvutist või külmkapist. Siinkohal võib vabalt olla tegu juhtumiga, kus meie arusaamade kohaselt tuleks sellistele masinatele inimestega võrdne staatus anda, kuid meie senine elukogemus lihtsalt blokeerib selle mõtte (sarnane võis olla 19. sajandi meeste kogemus naiste suhtes).

Hiljuti näitas Google maailmale oma uut toodet: autot, mis suudab ilma juhita linnaliikluses sõita. Hetkel on sellise autoga lubatud vaid kolmes Ameerika Ühendriikide osariigis tänavatele minna, kuid 500 000 edukalt läbitud kilomeetrit viitab sellele, et selliste autode laiem tarbimine pole kaugel. Kui see olukord saab reaalsuseks ning juhita Google-auto tõesti suudab sõita perfektselt, siis kas riik võiks nõuda selliste autode kohustuslikuks tegemist ja keelata inimestel ise roolis olla? Antud juhul on väga tugev avalik huvi vältida nii autoõnnetusi kui liiklusummikuid, kuid teisalt ei saa lihtsalt kõrvale jätta üksikisiku eelistust auto roolis olla, sest ta naudib juhtimist (eriti kui ilm on ilus ja autol pole katust). Vahest oleks kompromiss see, et kõik, kes soovivad ise roolis olla, peavad maksma väga suurt riigilõivu ja/või kindlustust, sest nad panevad kõikide teiste inimeste vara ja enda nii suurde ohtu?

Kolmas tuleviku eetikaprobleem puudutab lapsi. Kujutage ette, et tulevikus areneb geneetika ja meditsiin nii kaugele, et võrdlemisi lihtsa ja ohutu protseduuriga on võimalik loote või isegi embrüo DNAd muuta selliselt, et vältida kõiki kaasasündinud haigusi ja puudeid, kuid see peab aset leidma esimese trimestri jooksul. Me ei pea üldsegi mõtlema mingite superinimeste või disainerbeebide peale, kes kehastavad oma vanemate kõige paremate DNA juppide koostist. Lihtsalt seda, et riiklikule tervishoiusüsteemile on lihtsam ja mugavam haigused ja olulised puudujäägid juba varakult eemaldada, muutes embrüo DNAd. Jällegi on avalik huvi tugev, sest tervem rahvas on parem kui mitte terve. Kuid kas see on piisav põhjus sellise protseduuri kohustuslikuks tegemiseks, kuna tegu on siiski üsna jõulise sekkumisega? Rääkimata sellest, et inimeste eraelu – see, kuidas ja millal nad lapsi saavad – oleks range riikliku kontrolli all. Kuid kui see protseduur tehakse garanteerimaks oma lapsele parem ja tervem elu, siis miks ei peaks vanemad tahtma seda läbi teha?

On selge, et enne kui kirjeldatud olukorrad või midagi sarnast tegelikkuseks saavad, ei ole meil suuremat lootust neis eetikaküsimustes selgusele jõuda, kuid väike eeltöö ei ole kunagi halb. Lugejatelt tahaks küsida, kuidas kirjeldatud juhtumeid lahendada ning milline eetikaküsimus võib teie arvates lähitulevikus esile kerkida, mis hetkel on veel alles (vähemalt osaliselt) ulme.

Autor: Mats Volberg

Foto allikas:  www.sxc.hu

Sisestas Birgy Lorenz (verifitseerimata),

Olen kaugel Ameerikamaal ja t2pit2hti meile ei lubata, seega vabandan ette t2ppide puudumise p2rast.

Mulle isiklikult meeldib Smart tehnoloogia ehk tuleviku majad ja linnateenused. Teatavasti on meie metropolid enamuses kaameratega t2idetud, kuid andmetele ei saa ligi mitte k6ik, valitult m6ned saavad. Samamoodi omavad erafirmad (kohvikud ja co) igasuguseid andmeid inimeste kohta, kes m88da liiguvad.

See juba iseenesest paneb mitmel inimesel h2irekella t88le. Kes minu liikumist j2lgib, kaua andmeid hoitakse, mida nende andmetega tehakse - kas haigusel viibides ei saagi enam bussiga s8ita... Lihtne n2ide meie Eesti kohalik Oysterkaart ehk tasuta TLN tasuta linnatransport.

Osalesin 2012 suvel projektis mille eesm2rgiks oli koostada positiivne smart linnateenus m6ne probleemi lahendamiseks. Rahvusvaheline seltskond t66tas v2lja mitmeid ideekavandeid, millest populaarseimaks sai \"otsingum2ng\". M2ngu m6tteks oli igale poole linna peale panna smart objekte ja sisuda sellega 2ra ylesanded. Nt. kui saad kokku 100 inimest Colosseumi, siis etendub 3D video k6ikidele sealviibijatele; kui hakkab Inglismaa linnas x sadama, siis saad lahendada ylesannet kus tuleb saata pildimaterjal linnavalitsuse x e-postile, mille abiga saab linnavalitus analyysida vee 2ravaoolu probleeme ja teha otsuse, kas on moistlik maksta vee kahjukulusid v6i pigem suunata raha veev6rgustiku ringiehitamiseks. Sellised m6tteid on palju kuidas kohvikud n2iteks kinect abiga saavad panna ekraanile menyy, mida k2ega viibates saad lehitseda jne.

Selliste keskkondade kaudu saab inimesi aga suunata kohta x ja teada, et nad seal ka viibivad. N2iteks Luxoris (Egiptus) k2ib l2bi v2ga palju inimesi ja kui sinna mingi missiooniga suunata veel neid juure, siis muutub terrorirynnaku oht ysna reaalseks. Kes on k2inud, see teab palju pyssimehi seda ala valvab..

Tagasi aga smart maha juurde. Smart maja teab sinu sissetulekut, kontrollib sinu kodu kliimat ja 6hku kvaliteet jms. Halval juhul on selline maja kaughalduse kaudu h2kitav - madalam temperatuur voib mojutada meie meeleolu, 6hupuudus samuti. Kui aga smart maja ostustab, vaadates meie pangakontot, et seal pole piisavalt ressurssi, et katta hoolduskulusid, et t2na pole m6tet peremeest koju sisse lasta - ning saata ta n2iteks teise t66koha intervjuule.. siis tekib kysimus: kas meie oleme masinatele v6i masinad on meile. Kardan, et tegemist ei ole varsti enam ulmega:)

Sisestas Nelli (verifitseerimata),

Jäin mõtlema peamiselt selle üle, kas inimeseks olemist - ja ühtlasi põhjust, miks me kohtleme teisi inimesi just nii - tasub taandada kognitiivsetele võimetele. Võib-olla isikuks olemist saab, kuid inimlikkust minu meelest mitte (kui mingid teooriad seda ka teevad, lähevad nad tavaintuitsiooniga tugevalt vastuollu, mida võib pidada nende puudusels). Kui räägitakse inimlikkusest või inimsusest, ei peeta tavaliselt sugugi silmas peamiselt mõistuslikku (pigem siis emotsioone? väärtushoiakuid?). Puhtalt ratsionaalselt
kaalutlevat olendit/inimest nimetatakse seetõttu ebainimlikuks jne. Seetõttu ei tundu mulle usutav tekstis kirjeldatud dilemma - et kui on inimesega kognitiivselt samaväärne arvuti, siis kas peaks temasse suhtuma inimesega samal moel. Kasutatakse klauslit \"kui me arvame, et inimesed väärivad teatud moel kohtlemist, sest nende puhul on tegemist ratsionaalsete agentidega\", aga see arvamus pole minu jaoks piisavalt põhjendatud.

Sisestas Mats (verifitseerimata),

Olen nõus, et inimeseks olemist ei saa taandada vaid kognitiivsetel võimetele. Kuid ma ei tahtnudki väita, et need masinad võiksid olla inimesed. Mina rääkisins isikutest, mis viitab teatud staatusele.

Me ei tohiks öelda, et kohtleme teisi inimesi, nii nagu me kohtleme, sest nad on inimesed, sest see oleks spetsiesism. Seega tavaliselt seotakse inimeste moraalne staatus sellega, et nad on isikud. Ning isikuks olemine on filosoofia ajaloos olnud (ja on siiani) väga tugevalt seotud kognitiivsete võimetega. Ning sellisel juhul võiksid tuleviku masinad vastata neile tingimustele ja olla samuti isikud.

Mis puutub ratsionaalsusesse, siis olen nõus, et seda väidet saab lugeda kitsalt, kus ratsionaalsus = instrumentaalne ratsionaalsus ja siis paistab midagi välja jäävat. Kui lugedes seda vedi laiemalt, nt ratsionaalne = tegutseb põhjendatult, siis sinu mure kaoks, sest me ei pea piirama põhjendusi vaid instrumentaalsetele kaalutlustele. Kui A teeb midagi ja B küsib, miks sa nii käitusid, siis A võib vastata \"Ma kartsin\" või \"Mul oli hea meel\".

Sisestas Nelli (verifitseerimata),

Mats kirjutas: \"Me ei tohiks öelda, et kohtleme teisi inimesi, nii nagu me kohtleme, sest nad on inimesed, sest see oleks spetsiesism.\"

Me ei pruugi öelda, et me kohtleme neid nii, sest nad kuuluvad sellesse bioloogilisse liiki, vaid lihtsalt tuua mängu veel teisi omadusi peale ratsionaalsuse, nt emotsioonid jne. Ilmselgelt ma kohtlen emotsioonidega olendeid teistmoodi kui emotsioonideta olendeid, sest ühel puhul pean ilmselt vajalikuks emotsioonidega arvestada. Siin võiks vast rääkida ka väärtushoiakutest, mis suuresti juba lapsepõlvest kaasa saadud vms.

Muidu ma spetsiesismiga ei ole väga kursis, aga sinu kommentaarist järeldan, et see on põhimõtteliselt hukkamõistetav ja mitte kaitstav. Kas sinna alla käiks ka arusaam, et iga bioloogilist liiki tasub kohelda vastavalt tema omadustele (see ei pruugi tähendada, et inimest peab kohtlema kõige paremini, mida iganes see tähendaks, vaid ka lihtsalt, et vastavalt just talle omasele, samas kui nt mingit tulnukat võiks jälle ideaalis kohelda vastavalt tema eripäradele)?

Sisestas ema (verifitseerimata),

Seoses üleskutsega mõelda, millised küsimused võivad veel seoses teaduse arenguga, meenus mulle veel üks inimlikkuse kadumise teema. Nimelt, kui masinad oleksid suutelised rasedusega hakkama saama (s.t naine ei peaks enam last oma kehas kasvatama), siis minu jaoks tekiks küll küsimus, kas me seda ikka tahame. Ühest küljest saaks lootele siis tagada täpselt õige koguse hapnikku (paljud rasedad kindlasti ei liigu piisavalt), õigeid toitaineid, oluliselt vähendada saasteainete ja ema tervistkahjustava käitumise mõju jne. Teisalt - kas masinas
kasvanud beebi ikka on samavõrd inimene - minus tekitab see piisavalt võõristust, et kahelda, kas me peaksime sel suunal üldse katsetama.

Siit ka üldisem küsimus - kas on nii, et eetikaküsimused muutuvad tegelikeks ja olulisteks alles peale teaduse avastusi või peaks mõningaid teaduse arenguid hoopis eetikamuredest lähtuvalt tagasi hoidma, sest pärast pole neid protsesse enam võimalik niisama lihtsalt peatada/piirata.

Sisestas Mats (verifitseerimata),

Spetsiesism on olemuselt sama, mis rassissm. Lihtsalt eristus käib liigi ja mitte rassi alusel.

Olgu, inimesel on emotsioonid. Aga mis tüüpi asjad need emotsioonid on? Kas selleks et omada emotsioone on vajalik teatud kognitiivne võimekus? Mulle tundub, et on. Seegatahaksin mina öelda, et näiteks ahvenal võivad olla reaktsioonid ja instinktid, kuid mitte emotsioonid. Juhul kui nii, siis piisava keerukusega programm võiks olla suuteline emotsioonideks.

Sisestas Age (verifitseerimata),

Tehnoloogia areng peaks aitama muuta meie elu efektiivsemaks, paremaks, kergemaks jne, et saaksime tehnoloogia kasutuselevõtu arvelt säästetud aega ja energiat ja ressursse kasutada n-ö intellektuaalsemate ja elukvaliteeti tõstvate tegevuste jaoks. Et siis teleoloogiliselt oleks üks eesmärkidest ressursikulu ja kaasnevate kahjude vähendamine ning teine heaolu tõus.

Mõlemast punktist. Nagu on näidanud paljud uurimused, on tehnoloogia arenguga kaasnev ressursitarbe vähenemine vaid piiratud kehtivusega. Sest kui sisendkulud (ressursile) vähenevad, saab vabanenud vahendeid kasutada kas veel rohkem sama ressursi tarbimiseks või teiste ressursside tarbimiseks. Ehk et tegemist on pöördefektiga.

Esimesena näitas tehnoloogia arenguga kaasnevat ressursikasutuse tõusu 19. sajandi keskel William Stanley Jevon. Söekasutuse efektiivsuse paranemine andis võimaluse kasutada sütt laialdasemalt ja teistes majandusharudes, mis kokkuvõttes tõstis söekasutuse määra. Nii kutsutakse seda tehnoloogia arenguga kaasnevat kavatsetule vastupidist ilmingut Jevoni paradoksiks.

Kodumajapidamises võime kokku puutuda Jevoni paradoksiga nt säästupirnide vm arvatavalt energiaefektiivsete lahenduste puhul. Säästupirni väiksem elektritarve lubab meil hoida lampi sees kauem ja nii oleme vähem hoolikad tulesid kustutama (liiatigi pidi siis lamp kiiremini läbi põlema). Elektritarve aga kokkuvõttes sel moel ei vähene.

Jevoni paradoksi saab selgitada ka ajakasutuse kaudu. Aega on meil 24/7. Vabanemine tehnoloogia abil füüsilistest kohustustest (nt käsitsi pesupesemine tänu pesumasinale või sõit tööle tänu kaugtöö võimalustele) annab meile aega tegeleda teiste tegevustega (ehk täita eelpool nimetatud teist eesmärki). Kõigepealt, kas asendav tegevus on ressursisäästlikum kui senine? Võib olla nii ja naa, mugavus maksab midagi. Teiseks, kas need vabanenud aja arvelt tehtavad teised tegevused, sh võimalikud uued tarbimisharjumused, on oma olemuselt ressursisäästlikumad kui senine tegevus? Küllap on siingi mõlemapidiseid näiteid. Üheselt väita, et tehnoloogia kasutamine muudab meie elu säästlikumaks või efektiivsemaks, ei saa, kuid tarbimis- ja käitumisharjumusi muudab tehnoloogia küll. Seega võivad eelpool nimetatud eesmärgid – ressursikulu vähendamine ja heaolu tõstmine – olla omavahel vastuolus.

Näiteks kui inimene pääseb tänu tehnoloogia arengule kiiremini liikuma (võrdle nt hobuvankreid lennukitega), pikenevad samas ajavahemikus läbitavad vahemaad. Nii muutuvad kaugemad kohad paremini kättesaadavamaks ja reisimine muutub aktiivsemaks. Ressursikulu aga sama aja jooksul läbitud vahemaade kohta on suurenenud. Ka lennusõidu enda efektiivsus (nt vähem kütust tarbivad lennukid) on viimaste kümnendite jooksul parandanud selle kättesaadavust massidele, mis muudab lennundust veelgi efektiivsemaks, kuid tulemusena on lennunduses kasutatav energiakogus oluliselt suurem kui mõni aastakümme tagasi. Toome siia juurde IKT kasutuse kui uue tehnoloogia abil võimaldatud tarbimisvaldkonna ja näeme oma koguressursikulu suurenemist (mobiilid-arvutid ja IKT-aksessuaarkaubad, pidev juhtme otsas olek ja akude laadimine, serveripargid jne). Kvalitatiivselt muidugi on toimunud oluline nihe, küll võiks aga olla eetika üks küsimusi selle nihke kõikide aspektide headuse hindamine.

Sisestas Taavi (verifitseerimata),

Kas peaksime masinad, kellel on arutlusvõime, mingit laadi eneseteadvus, kohtlema võrdväärselt inimestega?
Ühiskonna- ning ka eetikareeglid ei ole absoluutsed kivisse raiutud seisukohad-reeglid! Nende rakendamine paratamatult varieerub vastavalt inimgruppidele (siinkohal ei pea ma silmas inimeste põhiõigusi). Võtame kas või aborigeenid või Ameerika pärisrahvad ja teiste maade hõimurahvad. Me ei saa nö valge inimese eetikakoodeksit muuta neile kohustuslikuks, dikteerida neile, mis on ja mis ei ole eetiline ja moraalne. Neil on omad väljakujunenud traditsioonid ja moraalne arusaam, mida peame austama. Kui tahame mõista nende teguviise, peaksime samastuma nende mõttemaailmaga. Eetika ja moraalsus tugineb suuresti tajudel-tundmustel, mida peame õigeks ja mida valeks. Ühiskonnagruppide päritolu, traditsioonid erinevad paratamatult, mis eeldab ka erinevaid kaalutlusi nende käitumiste hindamisel.
Selles tähenduses ei sunni see meid tulevikku silmas pidades võimalikele tehisintellekti gruppidele samu seaduslikke, eetilisi klausleid rakendama! Vastasel juhul peaks neile langema ametlik ühiskondlik staatus; kaasamine üldrahvastikku; kõikide hüvede võimaldamine jms. Samas, mis hüvesid nad vajavad? Mõeldes ka rahvastiku arvu peale - kui sinna ka humanoidid, robotid lisada…kõlab mõtlematult.
Mehed vs naine = tänapäevane ühiskond vs tehisintellekt. Tundub natuke liiga üldistatud. Tõsi, naiste õigused ja vabaduses olid vanema aja "meeste ühiskonnas" piiratud, kuid neid ei koheldud kui masinaid ega mõeldud nendest kui objektidest meeste elu lihtsustamiseks. Üks külg on see, kuidas neid ühiskondlikus staatuses nähti, teine, kuidas pereeluliselt läheneti. Pereelus valitses ikka hoolivus, armastus ning perekondlikud väärtused, järglaste saamise huvi. Aeg millal inimene humanoidiga ühte astuma peaks ning järglastele mõtlema – jätaksin selle ülimalt spekulatiivse seisukoha hetkel pikema arutelu alt välja.
Tehnoloogia ülesanne on jätkuvalt toetada inimese tegevust, mitte likvideerida seda. Ma ei läheks nii kaugele, et väidaks – sõitmine tuleks inimestel ära keelata. Olen veendunud, et inimlik faktor ka vägagi tehnoloogiapõhises maailmas on ülimalt oluline. Arvutid teevad otsuseid kindlate programmijuppide ning valemitest tuletatud seoste jm toel. Inimene lähtub nö inimlikust faktorist, mis võib sageli loogikaga ja ratsionaalsusega vastuolus olla. Arvutile ei saa õpetada eetikat ja moraalsust samas tähenduses. Tegemist on tajude ja maailma omamoodi tunnetamisega. Moraalsus varieerub subjektiti ning siin mingit standardvalemit minu seisukohalt luua ei saa. Autotööstus liigub tõesti turvalisemate ning intelligentsemate masinate tootmise suunas. Võtame siinkohal hoopis lihtsama lahenduse. Autole saab luua täiendavad kontrollfaktorid – pikivahe hoidmine, ohtude tuvastamine, aeglustamine ohu olukorras jne. Me ei pea inimfaktorit välja võtma, vaid lähtume ikkagi "mainstream" suunast, milleks on tehnoloogia arendamine inimese abistamiseks. Aidata juhil liikluses paremini toime tulla ning turvalisemalt liigelda, kuid säilitades inimliku kontrolli, tema inimfaktori.
Tehnoloogiat ei saaks võrdsustada inimesega, inimlikkusega. Sellele ei ole õige omistada samu nõudeid ning tunnusjooni, mis käivad koos inimestega ja inimeste käitumismallidega. Eetika küsimus kerkib üles pigem tehnoloogia loojate osas – mis eesmärgil ning kuidas on "loojad" vastava "seadeldise" valmistanud. Ülekantud tähenduses saaks öelda, et iga laps on oma vanema nägu.

Sisestas Margus (verifitseerimata),

Kohati võib tõesti tunduda, et ulmejuttudest tuttavad stsenaariumid mõtlevaist roboteist ja muust "hüpertehnoloogiast" liiguvad meie reaalsusele üha lähemale, ja sellega kaasnevalt ka vastavad eetikaprobleemid. Tehnoloogia areng on minu meelest üldse väga tugevalt eetikaga seotud teema, siis liigub sageli mööda ohtlikku piiri teha loodust paremaks kui see on, hoomamata tervikut, milles üks näiliselt progressiivne muutus võib pikas perspektiivis vallandada märksa ulatuslikuma kaose ja kadu. Nõnda näiteks võib teatud kõrge toiteväärtusega põllukultuuride (nt soja) massviljelemine, või ka Gmo-eksperimendid, olla ühtpidi küll leevendus toiduprobleemidele, ent samas on ulatuslikud monokultuursed ja muundatud massiivid looduses ebaloomulikud ja seavad ohtu mitmeid laiemas plaanis vajalikke kooslusi. Siin tõstatud probleemid on siiski hüpoteetilised ja ma isiklikult kahtleksin nende rakendatavuses. Ent eetika plaanis kerkib siin esile hulk huvitavaid probleeme – kõige laiemalt võiks selle sõnastada mu meelest nii, et kas masinad, mida me kasutame, ei osutu ühel hetkel hoopis meie kasutajateks.
Esmane ohumärk võiks mu meelest olla see, et kui me kaotame tänu masinatele teatud oma oskuse. Võimalus kirjutada seda kirja klaviaaturi abil arvutisse ja mitte pliiatsiga paberile, annab küll hulga uusi võimalusi, ent kui keegi selletõttu unustab, kuidas oma aega kirjutada, oleks seda mu meelest naiivne nimetada progressiks. Või kui kasutada loo näidet, siis kas pikas perspektiivis ei tekita iseliikuv sõiduk inimestes oskamatust ise sõidukeid juhtida, mis tähendab, et sõiduki rikke korral (eksimatut ja igavest tehnoloogiat ei ole ma seni kusagil näinud) puudub inimesel võime ja vabadus vähegi pikemaid vahemaid ületada. Teisisõnu loob see suurepärase pinnase oma elu ohjade loovutamiseks; pealegi ei ole paari sõiduki poolt läbitud 500 000 kilomeetrit ju tagatiseks, et juhita autod ei teegi kunagi avariisid, seda ka siis, kui kõik transpordivahendid on automaatjuhitud. Ning kui õnnetus juhtuks, ja selle läbi hukkuks inimene, kellele langeks siis vastutus? Põnevaima inimlähedaste robotite kasutamisega seotud moraaliküsimuste käsitluse on mu meelest aga esitanud Isaac Asimov oma loos "Mina, robot", kus üks robotite juhtklausleist on see, et ta nad peavad kaitsma inimest; robotid otsustavad aga ühel hetkel, et inimene ise on oma suurim vaenlane ning võtavad otsustamise maailma tuleviku üle seetõttu endi kätesse. Vaadates seda üüratut ökoloogilist kahju, mida inimene oma keskkonnale on viimase aastasaja, ennekõike aga mõne viimase aastakümnega, ei ole raske mõista seda tunnet, et inimene võib oma lühinägelikkuses tõesti omaenda vaenlaseks saada. Mis puudutab aga meditsiini, siis on mul väga raske uskuda, et maailma üks suurimaid tööstusi, nimelt ravimitööstus, oleks väga huvitatud enese sulgemisest. Teiseks on mul aga kahtlus, et negatiivsete anomaaliate kõrvaldamisega suureneb oluliselt risk kõrvaldada ka nii-öelda positiivsed anomaaliad. Tulemuseks on piltlikult öeldes maailm ilma hulludeta – ja geeniusteta. Kokkuvõttes on siin mu meelest aga tegu ka üksjagu religioosse küsimusega: kuivõrd võib inimene võtta endale jumala (või üldisemalt looja – looduslikus mõttes) rolli?

Sisestas Rasmus (verifitseerimata),

Masinate kasutamine eeldab eelkõige väga deterministlikku keskkonda s.t. et süsteem (nt. linnaliiklus või vana inimese kodu) on mingi piirini masinale lihtsalt käsitletav. Sündmus, mis väljub programmi ulatusest tekitab tõrke. Eetiline küsimus tekib vahest just siis kui masin peab sündmusele reageerima (seejuures ka reageerimata jätmine on reageering), et kui palju otsustusvõimet võib ja samas ka peab programmile sisendama, et ta üleüldse funktsioneeriks. Ilmselt ohtlikemaks on inimeste ettearvamatus, mis tekitab olukordi, millega masinasse sistatud programm ei suuda hakkama saada ning tekib tõrge, mis võib tekitada (nt liikluses) kordades ohtlikuma olukorra kui inimlik eksimine. Lisaks kui inimeste eksimusi peetakse ju alati (mingi piirini) normaalseks siis masinatelt eeldatakse täiuslikkust. Kuid kui masin/programm on inimese (kes ju eksib aega-ajalt) loodud siis kas üleüldse saab robot olla täiuslik?
Tundeid neile tõenäoliselt omistada oleks rumal, kuid kui nende mõistuslik käitumine suudab ületada inimeste oma siis justkui on tõepoolest ju laua kohustulik neid kasutada inimese asemel eluohtlikel töödel.

Sisestas Lauri (verifitseerimata),

Masinale on muidugi võimalik sisse programmeerida enesesäilitusinstinkti, kuid tehisolend jääb siiski inimese loodud artifaktiks ning on kellegi omand. Keeruliseks muutub asi siis, kui piir tehnoloogilise ja bioloogilise olendi vahel muutub ähmaseks, sest kunagi võime näha ka \"bioandroide\", mis on osalt masinad, osalt inimesed.

Bioloogilised olendid on võimelised tundma valu ja seega kannatama. Kas on aga võimalik luua masinat, mis on enesest sel viisil teadlik, et on võimeline kannatama ja muretsema enda kaduvuse pärast? Kindlasti on võimalik luua tehislikku olendit, mis suudab jätta mulje inimlikust kannatusest ning mingil määral kopeerima ka inimese närvisüsteemi funktsioone. Vahest ongi siis küsimus pigem selles, kas sedasorti tehislikku olendit oleks eetiline luua? Tehisintellekti arenemisel saavad need küsimused aina olulisemaks ning lodoetavasti jääb püsima mingi \"moraalne barjäär\", mis ei lase teadlikult luua masinat, kes oleks võimeline inimese kombel kannatama. Pigem peaks tehisintellekt piirduma teatud funktsioonide täitmisega, mis ei vaja täielikku eneseteadvustamisvõimet.

Kuigi välistada ei saa võimalust, et säärane tehislik eneseteadvustamisvõime võib tekkida juhuslikult ja isegi märkamatult. Seda tuntakse tehisintellekti-alastest aruteludes \"singulaarsusena\" - hetkena, kui edasised sündmused väljuvad inimese kontrolli alt, sest masin või programm või tehismõistuste kogum saavutab sõltumatu eneseteadvuse. Ning siis võib see muidugi ise anda teada ka oma soovidest ja väärtushinnangutest. Mis ei pruugi inimkonna omadega sugugi kokku minna ega meile mõistetavad olla.

Sisestas E. (verifitseerimata),

Robotitele moraalse staatuse andmisest -- see sõltuks kindlasti mitmetest faktidest, mida pole mõtteharjutuses täpsustatud; eelkõige sellest, missugused isikutega sarnased omadused neil robotitel olema saavad. Teiseks tuleks täpsustada, mis omaduste alusel me praegu inimestele moraalset staatust omistame ja mida see staatus endaga kaasa toob.
Kõigest sisendite-väljundite ratsionaalsust ilmutavast töötlemisest ei tohiks moraalse staatuse jaoks piisata, kuna muidu peaksime sellise staatuse andma näiteks taskuarvutile. Eneseteadvus oleks juba midagi märksa enamat ning sellisel juhul võiksime juba hakata mõtlema, et robotid on tõesti vaid teistsugustest koostisosadest ehitatud isikud ning \"materjal\" ei peaks moraalsetes küsimustes rolli mängima samuti kui muud juhuslikud ja asjassepuutumatud omadused, nagu nahavärv või rahvuslik päritolu. Ometi ei pruugi eneseteadvusest ka veel piisata. Mis arvata olukorrast, kus robotitel on küll eneseteadvus (nad on oma vaimuseisunditest teadlikud), aga nende vaimuelu on nagu ekstreemsel psühhopaadil, s.t täielikult empaatiata, ja lisaks sellele veel ka emotsioonideta -- robotid oleks lihtsalt eneseteadlikud arvutusmasinad.
Isikuks määratlemisel relevantseid omadusi (eneseteadvus, empaatia, emotsioonid või miski muu?) on muidugi raske määratleda, kui me ei tea, mille jaoks nad siiski täpsemalt peaksid relevantsed olema. \"Moraalne staatus\" või \"isik\"-olemine -- mis see on? Ühest küljest tähendab moraalse staatuse omistamine, et meil on selle subjekti ees mingid kohustused ja tal on mingid õigused -- see subjekt tuleb meie käitumise piirajana arvesse, sest peame jälgima, et kohustused tema vastu oleks täidetud ja ta õigusi ei rikutaks. Teiselt poolt tähendab moraalne staatus, et subjekt vastutab oma käitumise eest, et tema peab samuti oma tegevuses arvestama teiste õigusi ja oma kohustusi nende ees. Siit lähtuvalt saab eristada mitmeid erinevaid moraalseid staatusi, tegemata binaarset eristust moraalse staatusega ja ilma selleta subjektide vahel: subjektil võivad olla mõnesugused kohustused ja õigused ning teistsugused võivad puududa; samuti võib tal olla vaid piiratud vastutus oma käitumise eest. Näiteks lastele omistatud moraalne staatus erineb meie ühiskonnas sel viisil täiskasvanute omast -- on erinevad õigused ja kohustused nende ees, neil on erinev vastutusemäär; samuti on mõneti erinev moraalne staatus vaimse puudega inimestel (eelkõige vastutuse osas). Robotite küsimuste lahendamiseks tulekski leida, missuguste relevantsete omaduste alusel me mingeid konkreetseid õigusi-kohustusi-vastutusi jagame (või missuguste omaduste alusel neid peaks jagama, kui me juhtumisi praegu ses osas eksime). Seejärel tuleks kindlaks teha, missugused neist omadustest robotitel on, et saada teada, mis on robotite õigused, millised on meie kohustused nende ees ja mil määral nad oma käitumise eest vastutavad.
Näiteks valu tundmise võime on kindlasti relevantne kaalumisel, kas anda robotitele õigust kehalisele puutumatusele, ning solvumise võime on relevantne, kui otsustame, kas peaks keelama robotite laimamise. Keeruliseks läheb asi siis, kui hakkame mõtlema, missugused võimed või omadused peaksid andma robotitele õiguse oma elu ise suunata ja korraldada, vabalt oma valikuid teha, niivõrd kui need teisi ei ohusta. Keeruline on see sellepärast, et kerkib üles vaba tahte problemaatika: võib-olla tahaksime öelda, et see on mingisugune ise otsustamise võime, vaimne autonoomia, mis peaks andma õiguse tegutsemisvabadusele ja oma elu määramisele. Samas on füsikalistliku maailmapildi puhul kaheldav, et inimestel mingit seesugust autonoomiat on. On isegi arusaamatu, milles see autonoomia seisnema peaks, kui käitumine tuleneb kausaalselt ajuseisunditest. Kuna me ei saa aru, milles see omadus (vaimne autonoomia) inimeste puhul seisneb või kas see omadus inimestel üldse on, jääme muidugi nõutuks, kui küsitakse, kas mõnel hüpoteetilisel robotil võiks seesama omadus olla. Ja probleeme relevantsete omaduste määratlemisel kerkiks kindlasti veel.

Sisestas Marten (verifitseerimata),

Oluline on eristada robotitele õiguste andmist ja inimesega võrde staatuse andmist. Kui meil tekib eetilises mõttes robotite ees teatud kohustus ainult selles, kes robot on, mitte kelle oma see on või mis funktsiooni see täidab, siis on tegemist iseenesest tohutu sammuga teadmatus suunas. Teatud õiguste andmine ei pea aga koheselt tähendama inimesega võrdset staatust.

Analoogne probleem on olemas robotitest palju lähemal. Loomade osas kerkib esile sama küsimus inimese ja looma staatuse erinevusest. Üldiselt on kombeks piir tõmmata kas valu tundmise järgi või teatud eneseteadvuse ja mõtlemise järgi. Valu tundmise dimensioon seab piirangud kahjustamisele: sealt tuleneb kas või piinamise keeld. Teatud eneseteadvuse või mõtlemisvõime kaudu tuleneb teatud sisemine väärtus, mis inimesele omistatakse. Sellest inimese sisemisest väärtusest omakorda tuletub tema staatus: võrdne kõigi inimestega.

Eetika reguleerib edukalt teatud horisontaalseid suhteid, ent vertikaalne mõõde on probleemne. Looma ja inimese staatuse erinevuse osas on hetkel, ma julgeks öelda, üldkehtiv veel suhtumine, et inimene on midagi enamat kui loom. Ja ¨impans on enamat kui kass, kes on enamat kui sipelgas. Mille alusel selliseid staatuseid jagada?

Kuigi valu tundmine on oluline tunnus teatud keeldude seadmisel, siis ei ole see minu hinnangul staatuse määramise aluseks rohkem, kui et eristab valu tundvaid ja mittetundvaid liike. Valu alusel üksi ei saa valutundvaid liike kuidagi omavahel eristada - nad kõik tunnevad valu ja on seega võrdsed. Hierarhia moodustub ming muu omaduse põhjal, selleks peavad olema mingid muud sisemised väärtused.

Kui mõtlemist pidada selliseks väärtuseks, siis intelligentne ja mõtlev tehissüsteem suudab ehk selles osas ületada teatud loomade kognitiivse võimekuse. Võib-olla suudab ta arvutuskiiruse, mälu mahu ja muude mõõdetavate tunnuste abil ületada isegi inimese kognitiivse võimekuse. Ent ainult võimekus pole piisav.

Lisanduvad muud omadused, näiteks mainitud eneseteadvus. Kui eneseteadvus on tõepoolest programmeeritav, siis selle käigus luuakse robot kui autonoomselt arutlev subjekt. Ühtlasi tekib selles momendis teatud staatuste nihe: arvutist saab eneseteadvuslik süsteem, inimesest saab eneseteadvuse looja.

Ma toon nüüd võib-olla veidi kohatu võrdluse, aga vaadakem loomisakti kui sellist. Inimene on looja kui sellise vastu alati teatud austust välja näidanud, olgu see siis jumal kui inimkonna looja (kas või metafoorselt) või kunstnik kui teatud taiese, helitüki looja. Loomises näib olevat mingi sisemine väärtus. Kui inimene loob roboti - eneseteadvusliku mõtleva süsteemi - siis on see tohutu loominguline saavutus, mis vähemalt mingil määral mõjutab ka inimese kui sellise staatust. Võib-olla mitte, aga see on oluline koht mõtlemiseks.

Ent lisaks eneseteadvuslikule mõtlemisele on ka teine suur loominguline väljakutse, millega inimene viimasel ajal tegelema on hakanud: see on elu loomine. Mitte tüvirakkudest uue organismi aretamine, vaid päris algne loomine. Kui eeldada, et inimene suudab luua elu - võib-olla isegi teistsuguste keemilist ühendite baasil - siis on see samuti tohutu saavutus. Sellisel juhul tekib samuti küsimus inimese staatuse osas: eelkõige võiks küsida, kas inimene seeläbi ei nihku oma staatuselt lähemale mingile jumalikule loojaideaalile.

Ehk kokkuvõtvalt: kui inimene tõepoolest loob roboti mõtlevana, siis ta ühtlasi loob eneseteadvuse. Selle juures on mitu olulist aspekti. Esiteks, tekib täiesti uus staatus roboti näol, mis vajab teatud paigutust üldisemas staatuste hierarhias (nt. robot vs ¨impans). Teiseks tekib küsimus inimese staatuse osas: ta pole enam vaid instrumentaalse tehnoloogia valdaja, vaid eneseteadvuse looja - oluline samm lähemale loodusliku maailma valitsemisele, kui see peaks muidugi eesmärk olema. Kolmandaks kujuneb roboti ja inimese vahel teatud looja ja loodava suhe, mis on segu vanema-lapse, leiutaja-leiutise, omaniku-omandi ja looja-loodava suhtest. Sellist suhet praegu maailmas ei eksisteeri, mistõttu oleks tegemist millegi unikaalselt uuega.

Sellest viimasest tuletaksin aga ühe olulise tunnuse, mille alusel saab roboti staatust määrata: kui ka robot on võimeline looma - näiteks kunsti või järglasi - siis on ta olulise sammu võrra inimese staatusele lähemal. Kui robot piirdub vaid instrumentaalse mõtlemisega, milles pole ruumi loovusele, siis ei ole ta inimesega võrdne. Või vähemalt on võimalik leida teatud sisemisi väärtusi, mis robotil jäävad võrdse staatuse saavutamisest puudu.

Sisestas TL (verifitseerimata),

Tuleb välja, et olen vist spetsietsist (mis ei ole tegelikult ju sugugi kaitstamatu hoiak ja üleüldse mõjub tolle rassismi-analoogial põhineva sildi kasutamine eelkõige retoorilise võttena) - nimelt tundub pelgalt võimalike inimese-sarnaste tehisolendite moraalse staatuse üle arutamisest palju põletavam (ja põnevam) probleem see, milliseid riske kätkeb endas tehisintellekti, biotehnoloogia jms tormiline areng just inimkonna jaoks. Sellel teemal - hiljuti avasid filosoof Huw Price, astrofüüsik Martin Rees ning Skype’i looja Jaan Tallinn Cambridge’i ülikooli juures sedalaadi küsimuste uurimiseks tippkeskuse: Centre for Studies of Existential Risk (http://cser.org/). Täiesti tõsimeeli tunnevad need esinduslikud mõtlejad (ja ilmselt siis ka nende helded rahastajad, viimaste näol ehk laiem avalikkuski) muret mitte selle pärast, kas inimõigused peaks laienema tuleviku keerulistele robotitele või mismoodi senileiutamata meditsiinilisi lahendusi õiguslikult reguleerida, aga hoopis: kui tõenäolised on stsenaariumid, mis on hollivuudilikus võtmes meile tuttavad sellistest ulmekatest nagu \"Terminator\", \"Matrix\" jne? Kuidas neid riske vähendada? Ja viimaks - mis tähenduses on tegu üldse riskidega: kui bioloogilise ja tehnoloogilise olendi piir järk-järgult aina hägustub, siis mis hetkest võime rääkida inimese väljasuremisest ning miks pidada eelviidatud stsenaariume üldse düstoopiateks? Kindlasti ei taandu need küsimused debatile, kas arvutite täiustumine ja muu sedalaadi tehnoloogiline areng on iseenesest hea või halb. Samuti näib, et siin pole suuremat peale hakata traditsiooniliste eetiliste kategooriatega nagu nt inimese-laadne moraalisubjekt. On ju kõne all just see, et oleme olukorra lävel, kus inimeseks-olemine täiesti fundamentaalselt ning ettearvamatus suunas teiseneda võib. Igatahes on tegu sedalaadi mõtteharjutustega, mis mitte ainult ei vääri täiesti reaalsete \"eksistentsiaalsete riskide\" tõttu täit tähelepanu, vaid heidavad ehk uut ja üllatavat valgust ka pigem ajatutele küsimustele.

Lisa kommentaar

Plain text

  • HTML elemendid keelatud.
  • Each email address will be obfuscated in a human readable fashion or, if JavaScript is enabled, replaced with a spam resistent clickable link. Email addresses will get the default web form unless specified. If replacement text (a persons name) is required a webform is also required. Separate each part with the "|" pipe symbol. Replace spaces in names with "_".
  • Veebiaadressid ja e-maili aadressid muutuvad automaatselt linkideks.
  • Automaatne rea- ja lõiguvahetus
5 + 5 =
Lahenda lihtne matemaatiline tehe näitamaks, et sa ei ole spämmirobot.