Kas pakirobotit tohib jalaga lüüa? | Eetikaveeb

TÜ üksuste kontaktandmed

humanitaarteaduste ja kunstide valdkond
Faculty phone: 
737 5341
Faculty address: 
Jakobi 2, ruumid 116–121, 51014 Tartu
  • valdkonna dekanaat
    Faculty phone: 
    737 5341
    Faculty address: 
    Jakobi 2, ruumid 116–121, 51005 Tartu
  • ajaloo ja arheoloogia instituut
    Faculty phone: 
    737 5651
    Faculty address: 
    Jakobi 2, 51005 Tartu
  • eesti ja üldkeeleteaduse instituut
    Faculty phone: 
    737 5221
    Faculty address: 
    Jakobi 2, IV korrus, 51005 Tartu
  • filosoofia ja semiootika instituut
    Faculty phone: 
    737 5314
    Faculty address: 
    Jakobi 2, ruumid 309–352, 51005 Tartu
  • kultuuriteaduste instituut
    Faculty phone: 
    737 5223
    Faculty address: 
    Ülikooli 16, 51003 Tartu
  • maailma keelte ja kultuuride kolledž
    Faculty address: 
    Lossi 3, 51003 Tartu
  • usuteaduskond
    Faculty phone: 
    737 5300
    Faculty address: 
    Ülikooli 18-310, 50090 Tartu
  • Viljandi kultuuriakadeemia
    Faculty phone: 
    435 5232
    Faculty address: 
    Posti 1, 71004 Viljandi
sotsiaalteaduste valdkond
Faculty phone: 
737 5957
Faculty address: 
Lossi 36, 51003 Tartu
  • valdkonna dekanaat
    Faculty phone: 
    737 5900
    Faculty address: 
    Lossi 36, 51003 Tartu
  • haridusteaduste instituut
    Faculty phone: 
    737 6440
    Faculty address: 
    Salme 1a–29, 50103 Tartu
  • Johan Skytte poliitikauuringute instituut
    Faculty phone: 
    737 5582
    Faculty address: 
    Lossi 36–301, 51003 Tartu
  • majandusteaduskond
    Faculty phone: 
    737 6310
    Faculty address: 
    J. Liivi 4, 50409 Tartu
  • psühholoogia instituut
    Faculty phone: 
    737 5902
    Faculty address: 
    Näituse 2, 50409 Tartu
  • õigusteaduskond
    Faculty phone: 
    737 5390
    Faculty address: 
    Näituse 20–324, 50409 Tartu
  • ühiskonnateaduste instituut
    Faculty phone: 
    737 5188
    Faculty address: 
    Lossi 36, 51003 Tartu
  • Narva kolledž
    Faculty phone: 
    740 1900
    Faculty address: 
    Raekoja plats 2, 20307 Narva
  • Pärnu kolledž
    Faculty phone: 
    445 0520
    Faculty address: 
    Ringi 35, 80012 Pärnu
meditsiiniteaduste valdkond
Faculty phone: 
737 5326
Faculty address: 
Ravila 19, 50411 Tartu
  • valdkonna dekanaat
    Faculty phone: 
    737 5326
    Faculty address: 
    Ravila 19, 50411 Tartu
  • bio- ja siirdemeditsiini instituut
    Faculty phone: 
    737 4210
    Faculty address: 
    Biomeedikum, Ravila 19, 50411 Tartu
  • farmaatsia instituut
    Faculty phone: 
    737 5286
    Faculty address: 
    Nooruse 1, 50411 Tartu
  • hambaarstiteaduse instituut
    Faculty phone: 
    731 9856
    Faculty address: 
    Raekoja plats 6, 51003 Tartu
  • kliinilise meditsiini instituut
    Faculty phone: 
    737 5323
    Faculty address: 
    L. Puusepa 8, 50406 Tartu
  • peremeditsiini ja rahvatervishoiu instituut
    Faculty phone: 
    737 4190
    Faculty address: 
    Ravila 19, 50411 Tartu
  • sporditeaduste ja füsioteraapia instituut
    Faculty phone: 
    737 5360
    Faculty address: 
    Jakobi 5–205, 51005 Tartu
loodus- ja täppisteaduste valdkond
Faculty phone: 
737 5820
Faculty address: 
Vanemuise 46–208, 51014 Tartu
  • valdkonna dekanaat
    Faculty phone: 
    737 5820
    Faculty address: 
    Vanemuise 46–208, 51005 Tartu
  • arvutiteaduse instituut
    Faculty phone: 
    737 5445
    Faculty address: 
    J. Liivi 2, 50409 Tartu
  • Eesti mereinstituut
    Faculty phone: 
    671 8902
    Faculty address: 
    Mäealuse 14, 12618 Tallinn
  • füüsika instituut
    Faculty address: 
    W. Ostwaldi 1, 50411 Tartu
  • keemia instituut
    Faculty phone: 
    737 5261
    Faculty address: 
    Ravila 14a, 50411 Tartu
  • matemaatika ja statistika instituut
    Faculty phone: 
    737 5860
    Faculty address: 
    J. Liivi 2, 50409 Tartu
  • molekulaar- ja rakubioloogia instituut
    Faculty phone: 
    737 5011
    Faculty address: 
    Riia 23, 23b–134, 51010 Tartu
  • Tartu observatoorium
    Faculty phone: 
    737 4510
    Faculty address: 
    Observatooriumi 1, Tõravere, 61602 Tartumaa
  • tehnoloogiainstituut
    Faculty phone: 
    737 4800
    Faculty address: 
    Nooruse 1, 50411 Tartu
  • ökoloogia ja maateaduste instituut
    Faculty phone: 
    737 5835
    Faculty address: 
    Vanemuise 46, 51003 Tartu
Asutused
  • raamatukogu
    Faculty phone: 
    737 5702
    Faculty address: 
    W. Struve 1, 50091 Tartu
  • teaduskool
    Faculty phone: 
    737 5581
    Faculty address: 
    Uppsala 10, 51003 Tartu
  • genoomika instituut
    Faculty phone: 
    737 4000
    Faculty address: 
    Riia 23b, 51010 Tartu
  • muuseum
    Faculty phone: 
    737 5674
    Faculty address: 
    Lossi 25, 51003 Tartu
  • loodusmuuseum ja botaanikaaed
    Faculty phone: 
    737 6076
    Faculty address: 
    Vanemuise 46, 51003 Tartu
Tugiüksused
  • ettevõtlus- ja innovatsioonikeskus
    Faculty phone: 
    737 6339
    Faculty address: 
    Lossi 3, III korrus, 51003 Tartu
  • grandikeskus
    Faculty phone: 
    737 6215
    Faculty address: 
    Lossi 3, III korrus, 51003 Tartu
  • hankeosakond
    Faculty phone: 
    737 6632
    Faculty address: 
    Ülikooli 18a, 51005 Tartu
  • infotehnoloogia osakond
    Faculty phone: 
    737 6000, arvutiabi: 737 5500
    Faculty address: 
    Ülikooli 18a, 51005 Tartu
  • kantselei
    Faculty phone: 
    737 5606
    Faculty address: 
    Ülikooli 18a, 51005 Tartu
  • kinnisvaraosakond
    Faculty phone: 
    737 5137
    Faculty address: 
    Ülikooli 18a, 51005 Tartu
  • kirjastus
    Faculty phone: 
    +372 737 5945
    Faculty address: 
    W. Struve 1, 50091 Tartu
  • personaliosakond
    Faculty phone: 
    737 5145
    Faculty address: 
    Ülikooli 18, ruumid 302 ja 304, 50090 Tartu
  • rahandusosakond
    Faculty phone: 
    737 5125
    Faculty address: 
    Jakobi 4, 51005 Tartu
  • rektoraadi büroo
    Faculty phone: 
    737 5600
    Faculty address: 
    Ülikooli 18, 51014 Tartu
  • siseauditi büroo
    Faculty address: 
    Ülikooli 17–103, 51005 Tartu
  • Tallinna esindus
    Faculty phone: 
    737 6600
    Faculty address: 
    Teatri väljak 3, 10143 Tallinn
  • turundus- ja kommunikatsiooniosakond
    Faculty phone: 
    737 5687
    Faculty address: 
    Ülikooli 18, ruumid 102, 104, 209, 210, 50090 Tartu
  • õppeosakond
    Faculty phone: 
    737 5620
    Faculty address: 
    Ülikooli 18, 50090 Tartu
  • üliõpilasesindus
    Faculty phone: 
    737 5400
    Faculty address: 
    Ülikooli 18b, 51005 Tartu
Muud üksused
  • MTÜ Tartu Ülikooli Akadeemiline Spordiklubi
    Faculty phone: 
    737 5371
    Faculty address: 
    Ujula 4, 51008 Tartu
  • MTÜ Tartu Üliõpilasküla
    Faculty phone: 
    740 9959
    Faculty address: 
    Narva mnt 25, 51013 Tartu
  • MTÜ Tartu Üliõpilasmaja
    Faculty phone: 
    730 2400
    Faculty address: 
    Kalevi 24, Tartu
  • SA Tartu Ülikooli Kliinikum
    Faculty phone: 
    731 8111
    Faculty address: 
    L. Puusepa 1a, 50406 Tartu
  • Tartu Ülikooli Sihtasutus
    Faculty phone: 
    737 5852
    Faculty address: 
    Ülikooli 18a–106, Tartu

Kas pakirobotit tohib jalaga lüüa?

Arutelu arvamusfestivalil Paide Vallimäel 09.08.2019

Vaata arutelu UTTVst!

Tehisintellekt on juba praegu inimeste igapäevaelu osa, isegi kui me seda tihti ei märka. See on aga toonud kaasa juriidilisi ja eetilisi küsimusi, mis vajavad tähelepanu juba täna. Milliseid muutusi vajab õigusruum tehisintellekti kasutamiseks? Kas tehisintellekt tohib ise otsuseid vastu võtta? Kes vastutab tehisintellekti otsuste ja kes algoritmide eest? Milline peaks olema eetiline ja õiguslik raamistik, et tagada, et tehisintellekti ei kuritarvitataks? Kas tehisintellekti kasutamiseks peab üldse teistmoodi või erineva õigusliku raamistiku looma, kui see on meie igapäeva elu osa?

Arvamusfestivali paneeldiskussioonis osalesid:

professor Margit Sutrop, Tartu Ülikooli eetikakeskuse juhataja, Tartu Ülikooli filosoofia osakonna praktilise filosoofia professor, kes on aastaid tegelenud teaduse ja tehnoloogia eetika küsimustega;

professor Mart Noorma, kosmoseteadlane ja robotiehitaja; AS Milrem teadus-arendusdirektor;

Kai Härmand, Justiitsministeeriumi õiguspoliitika asekantsler, kelle igapäevatööks on ühiselu reeglite, sealhulgas eetiliste tõekspidamiste seadusteks kirjutamine ja põhiseaduses väljendatud põhiõiguste ja põhiväärtustega vastavuse kontrollimine, ehk teiste sõnadega: õigusloome ja selle kvaliteedi kontrollimine;

Madis Vasser, Tartu Ülikooli psühholoogiamagister, arvutiteaduse instituudi neuroteaduse uurimisrühma doktorant, virtuaalkeskuse Futuruum kaasasutaja, Eesti Rohelise Liikumise huvikaitse ekspert.

Vestlust juhib Mats Volberg, Tartu Ülikooli filosoofia osakonna teadur.

Mats Volberg: Palun teil kõigil mõelda, mis on need probleemid ja väärtused, mis tehisintellektiga seoses esile kerkivad. Mis võiks olla üks probleem, mida esile tooksite, ja võimalik lahendus sellele probleemile?

Mart Noorma: Mina olen oma karjääri jooksul tegelenud kosmosetehnoloogiaga, mis tegelikult on seesama robootika. Eetikaküsimused ei ole olnud päevakorras: senikaua, kuni kosmoselaev teeb inimkonna jaoks olulisi asju ja kellelegi pähe ei potsata, on ta eetiline robot. Aga viimasel ajal, olles aktsiaselts Milremi ehk siis sõjarobotit ehitava firma teadus-arendusdirektor, puutun ma eetika küsimustega hommikust õhtuni kokku. Probleem, mille ma sõnastan, on järgmine: kuidas inimesed saaksid aru, kuidas roboti ja tehisintellektiga toime tulla, kui ta juba on meie ümber? Lahendus on minu arust selge, tuleks teha nii, nagu peaaegu kõigi probleemidega teaduses: luua mudel, mis võimaldab meil olukordi lihtsustada ning on kergesti hoomatav ja arusaadav. Ma olen enda jaoks sellise mudeli välja töötanud ja see on väga lihtne: robotid on nagu lapsed. Kuidas see mudel toimib? Võtame põhimõtteliselt kaks eeldust. Esiteks, inimese aju on bioloogiline kompuuter, seega taasloodav, arenev süsteem. Ka robotid arenevad ja ei ole mingit teaduslikku põhjendust, miks nad ei võiks tulevikus areneda sama tarkadeks kui inimesed, või veelgi targemateks. Ma näen oma igapäevatöös, et tänased robotid ongi nagu paarikuused beebid, kes õpivad kõndima või objekte ära tundma, näiteks et see on laud, ära sinna otsa sõida. Võib prognoosida, et tehisintellekt areneb mingis kategoorias aastase lapse tasemele, näiteks objekti tuvastamisel. Eetikaküsimuste juurde tulles, kas väikest last, keda ei ole õigesti kasvatatud, saab süüdistada, kui ta on ebaeetiline? Kes vastutab, kui kümneaastane laps teeb pättuse? Kas ta ise või tema eest vastutav vanem? Kaheksateist-aastasena vastutab ta muidugi ise. Robotiga on samamoodi: senikaua kuni tema intellekt ei võimalda veel vastutada, peab olema keegi teine, kes vastutab, ja see on tema looja. Seega minu lööklause oleks: robotid on nagu lapsed.

Margit Sutrop: Minu küsimus oleks: millised eetilised probleemid vajavad tehisintellekti puhul tähelepanu juba täna? Mu vastus oleks, et kõige rohkem vajab tähelepanu, uurimist ja arutamist see, milliseks me neid roboteid - kui lapsi, nagu Mart ütleb - arendada tahame. Teatavasti ju lapsed kasvavad - millised on robotid nö täiskasvanuks saades? Me teame, et definitsiooni mõttes räägitakse täna kitsast tehisintellektist ja laiast tehisintellektist. Kitsas tehisintellekt teeb inimese poolt programmeeritud otsuseid: ta ilmutab küll intelligentset käitumist ja analüüsib ümbritsevat keskkonda, aga teeb otsuseid selleks, et saavutada kindlat eesmärki ja on enam-vähem inimese juhtimise all. Nn lai tehisintellekt oskab teha kõike, mida inimenegi. Teoreetikud ja unistajad räägivad ka superintellektist, kes on isegi parem kui inimene. Sellega on aga seotud suured eetikaga seotud ohud. Kui tehisintellektist saab autonoomne otsustaja, kas ta on inimesega sarnases positsioonis olles samaväärne, või on ta parem? Tehnoloogid unistavad robotitele väärtuste omistamisest, see tähendab nende nö joondamist eetiliste väärtuste järgi. Aga mis need väärtused on, kas inimestel on üldse olemas universaalseid väärtusi või on need kultuuriliselt relevantsed? Me teame, et maailmas on rohkem demokraatlikke kui mittedemokraatlikke riike. See tähendab, et neis riikides, kus inimõigusi ei austata ja väärtused on väga erinevad, võivad ka robotid tulevikus olla hoopis teistmoodi joondatud. Näiteks liikluses: võib tekkida küsimus, kas isesõitev auto ei ole mitte nn tapja-auto, kelle eesmärk on võimalikult kiiresti kohale jõuda, kuid kes ei arvesta elu hoidmise kui väärtusega. Kas te tahaksite olla sellises autos, mis kaitseb seda inimest, kes sees istub, või sellises, mis austab ka neid, kes on väljas ja püüab tekitada võimalikult vähe kahju? On tehtud eetiline eksperiment ja inimestelt seda küsitud. Seepeale arvasid eksperimendis osalejad, et peab ikkagi vaatama, et see auto ei sõidaks lastest üle, ta peab ka rebase üle tee laskma, ja ta peab vaatama, et ka autos sees olev inimene surma ei saaks. Siis küsitakse teine küsimus: öelge nüüd ausalt, kas te ostaksite sellise auto, mis kaitseb autos esmalt teid või jälgib seda, et tänaval võimalikult vähesed surma saaksid? Valdav enamik ütles, et tegelikult nad ostaksid selle auto, kes igal juhul autos sõitjat kaitseb. Siin me nüüd oleme - kuhu see n-ö disain meid eetilistes kokkulepetes viib ja kas neid eetilisi kokkuleppeid tegelikult on nii kerge või võimalik üldse ellu viia? Minu loosung oleks seega: „Robotid kui eetilised otsustajad?“ Paneksin küsimärgi taha, sest siis on meil võimalik ka vastust otsida.

Madis Vasser: Ma nüüd vürtsitan seda reede keskpäevast arutelu: ma arvan, et on väga ohtlik käsitleda roboteid kui lapsi. Kui me mõtleme laste peale, siis lapsed on süütud, armsad, nunnud ja ei tee kunagi midagi halba. Margiti öeldut toetades, väärtuste joondamine nii, et inimestel ja robotitel oleks samad väärtused, on väga keeruline, kui mitte lahendamatu probleem - me ei tea inimestena ka ise täpselt, mis on meie ühisväärtused. Lisaks tehniline probleem: robotite mõned sensorid on inimese sensoorikast paremad, nad näevad kaugemale ja täpsemalt. Aga mõned teised sensorid on üldse puudu, robotid ei taju maailma nii nagu inimesed.

Teiseks, algoritme arendavad ikkagi lihast ja luust arendajad. Ja arendajad on ka matemaatiliste probleemide ees, mida nad peavad lahendama, ja lahendusi on erinevaid, igaühel oma plussid ja miinused. Ka need otsused, mis masina sees toimuvad, on inimese valitud. Lõpuks saame sellise tehisintellekti, mis on väga oma looja nägu. Kui me näeme, et praegu liiguvad suuremad rahasummad selles valdkonnas Põhja-Ameerikas ja Hiinas, siis võib-olla saame normaalse Ameerika tehisintellekti, aga võibolla kavala Hiina spioon-tehisintellekti. Päriselu näide: Tartus on Vanemuise teatri ees ilus rohuplats, seal on mõnus pikutada. Aga sel suvel ilmus sinna üks robotniiduk. Inimestele pandi silt, et ära roni siia - siin on robot. Robot väärtustab ühtlaselt pügatud muru ja see on väga ilus muru, aga inimeste puhkeplats on nüüd ära võetud, sest seal on robot. Kas sa võid usaldada, et robotniiduk jääb seisma, kui sinu laps seal muru peal mängib?

Küsimus ongi selles, kuidas me seda olukorda klapitame. Üks variant on, et teeme robotid rohkem inimeste sarnaseks, aga see on hästi keeruline. Teine variant, muudame inimesed roboti-sarnaseks, ütlemegi, et muru pole käimiseks, vaid ainult niitmiseks. Kuna ma olen väga mässumeelne, on minu lahendus see, et juurutada ka vastupanuliikumist, olla uute tehnoloogiate suhtes skeptiline. Räägitakse, et on hästi palju positiivseid külgi, aga alati on ka mingisugused oodatavad negatiivsed ja ootamatud negatiivsed mõjud. Millega siis tasuks juba varakult hakata rinda pistma? Peame täpselt küsima, kuidas need tehnoloogiad töötavad, milline algoritm seal taga on. Ja võib-olla, kui me hakkame õigustest rääkima, ka piirata neid õigusi, et robotpakiautomaat ei saaks ülemaks jalakäija ees, kes tahab lihtsalt üle tee minna. Ma olen rohelisest liikumisest ja keskkonnateemadega väga kursis ja need teemad ei ole väga meeldivad, mis seal praegu toimuvad. Ma näen, et tulevik ootab pigem robustsed, lihtsaid ja arusaadavaid lahendusi.

Kai Härmand: Hea seadus on universaalne. Ja kõige parem näide heast seadusest on ühest toredast raamatust nimega „Corpus Iure Civilis“, mis on kodifitseeritud Rooma õiguse seadustik. See on loodud aastal 536 ja seal sisalduv müügiõiguse või müügilepingu definitsioon on täpselt samasugune nagu meie võlaõigusseaduses. See on küll natukene pikem ja ladina keeles ja seal on mõned kummalised sõnastusvormelid ka, aga põhimõtteliselt on see täpselt üks ja seesama asi.

Päris kaua aega on vastu pidanud selline ilus universaalne õiguse põhimõte. Kui me räägime tehisintellekti ja õigusruumi suhestumisest, siis minu küsimus oleks: kas meil on tehisintellektiga seoses üldse vaja uusi seadusi või mitte?

Kui me tahame, et tehisintellekt meie ühiskonnas toimiks, peab ta alluma samadele õigusreeglitele, nagu siin ühiskonnas praegu kehtivad. Et kui liiklusseaduse kohaselt on jalakäija see nii-öelda kõige nõrgem ühik liikluses, siis ta ka on - olenemata sellest, kas seal on ka isesõitev auto, pakirobot või jalgrattur, kes jalakäijast üle ei tohiks sõita. Miks me ütleme, et jalakäija on kõige nõrgem – sellepärast, et ta tunneb valu, kui talle otsa sõita. Pakirobot ei tunne valu, ta läheb lihtsalt katki.

Täpselt samamoodi on ka keerulisemate funktsioonidega. Kui me tahame, et tehisintellekt teeks avalikus või ärisektoris otsustusi, siis saame selle tegevuse lõpuks ikkagi inimesele taandada. Tehisintellekt ei saa teha teistsugust otsust kui inimene, kes peaks selle otsuse tegema. Kui me ütleme, et pensioni saavad need inimesed, kes on kuuskümmend viis aastat vanad ja pensionisambaga liitunud (ja veel mingid kriteeriumid), siis inimene vaatab, kas need viis kriteeriumit on olemas ja teeb otsuse. Ka tehisintellekt peab olema samamoodi üles ehitatud, et ta kontrollib, kas need viis kriteeriumit on olemas ja kui on, siis ta teeb otsuse, ja kui ei ole, siis ta teeb teistsuguse otsuse. Minu nii-öelda loosung oleks, et jätkem tehisintellektiga seotud eriseadused kirjutamata.

Mats Volberg: Ma olen selles mõttes Mart Noormaga nõus, et mudel on alati mingisugune lihtsustus. See on paratamatu, ja samas mudeli mõte ongi see, et aidata keerulist asja selgemaks teha. Aga kas sa ei karda, et võib tekkida moment, kus me roboteid kui „lapsi“ alahindame? Tänased masinad ei ole sellised nagu ulmefilmidest on näha: lähevad ja tegutsevad, võtavad ise otsuseid vastu. Aga sellegipoolest on nende arvutusvõime oluliselt kiirem, isegi siis, kui nad oskavad seda ühte asja teha, nad oskavad seda teha palju-palju kiiremini.

Mart Noorma: See /minu pakutu – toim/ on väga lihtsustatud mudel. Võib-olla täpsem oleks öelda, et robotid on nagu inimesed, nad on lihtsalt teatud arengujärgus, see oleks täpsem. „Robotid on nagu lapsed“ kõlab loosungina hästi Facebookis, see särab seal kaugemale. Ma vaatan neid rauast ja plastmassist roboteid, kes meil õue peal ringi vuravad ja libedast nõlvast hästi üles lähevad, sest neil on roomikud - nende arenguastmed on sarnased. Kui sul aga ohvitserina tuleb selgitada, mis võimekusega sinu robotrühm on, siis ka näiteks ajateenijad on seinast seina intelligentsi, arusaamise ja iseotsustusvõimega, ja needsamad põhimõtted tuleb ka robotitele üle kanda. Sa ei tea, kuidas täpselt just seda tüüpi robot saab olla sulle toeks operatsiooni elluviimisel.

Margit Sutrop: Ma arvan, et kõige olulisem on, kuidas otsustamine robotite puhul toimub ja kuidas see edaspidi toimuma hakkab. Iseõppimisvõime on neil juba olemas ja kirjandust lugedes tundub, et on ka mure, et nad õpivad juba ka ise nii, et robotite tegija ei näe seda enam päriselt ette. Otsustamiseks ei piisa ainult väärtustest ega printsiipidest. Mis on veel need elemendid, mis näiteks moraalselt hea eetilise otsustamise puhul peaks sellel olendil või masinal olema? See on rohkem psühholoogia küsimus: kuidas üleüldse otsustamine toimub, kuidas mõtlemine toimub ja areneb? Teadus areneb väga kiiresti, aga eetikud küll täna väga täpselt ei ole eetilist otsustamist suutnud ära kirjeldada. Mismoodi näiteks tapjadroonidele tuleks eetilised elemendid ette anda, et me oleksime kindlad, et ta ei toimiks inimesi kahjustavalt?

Mina küsiksin juurde, kas väärtustest piisab. Kuidas emotsioonidega lugu on? Eetilise otsustamise jaoks võivad emotsioonid olla väga olulised. Me teame, et inimestel näiteks on süütunne, südametunnistuse piin ja häbi need asjad, mis meid väga paljuski hoiavad halbu asju tegemast. Hirm sanktsioonide ees - kui robotil neid tundeid ei ole, kas ta ainult printsiipide ja väärtuste järgi toimides suudab eetiliselt toimida? Euroopa Komisjon andis hiljuti oma juhtnöörid ja pigem on üldine konsensus, et ärme lase tehisintellektil autonoomseks muutuda.

Ma saan aru, et juristid on väga paljuski seda meelt, et küll me siis reguleerime, kui asi on käes, aga kui see asi on siin, siis ei taha keegi enam reguleerida, sest see on väga raske. Eetikute ülesanne on juhtida ohtudele tähelepanu, enne kui hilja.

Mats Volberg: Kai rääkis enne, et ega robot ei ole ju üksi, isoleerituna, inimene on ikka ka sealjuures kuskil tagaplaanil. Kuidas te spekuleeriksite, kas masinat võib õpetada ka niimoodi, et ta suudaks eristada „ära tee seda“ vs „ära jää vahele“?

Mart Noorma: See on hästi praktiline küsimus, kui kaitseväed võtavad robotrelvasüsteemid kasutusse. Üks lahendus, mida me Milremis oleme tuleviku jaoks näinud, on selline, et peab olema tagatud nii-öelda must kast või logi, mis algab sellest, kui ülem annab käsu, edasi, mingil hetkel läheb inimkäsuahelast asi elektroonikasse ja lõpeb selle hetkega, kui kuul rauast välja lendab. Selles logis peavad kõik sammud olema taasesitatavalt salvestatud. Nii et peale konfliktiolukorda on võimalik see logi ette võtta ja mitte keegi ei saa öelda, et oi, mina, operaator, ei teinud midagi, tehisintellekt läks lolliks. Selles ahelas peavad kõik teadma, et see info salvestatakse: see tugevdab vastutustunnet. Teisest küljest, kui meil on roboti tootja, roboti hankeosakond kaitseväes ja kasutaja lahinguväljal, siis on hästi oluline, et kui midagi läheb valesti, oleks võimalik selgeks teha, kas kasutaja kasutas valesti, kas hankes tehti valed otsused või tootmises olid valed otsused. Kui kõik teavad, et seda on võimalik välja selgitada, on ka vastutustunne kõigil tugevam.

Kai Härmand: Kui robot käitub nagu inimene, on kasulik kohaldada talle inimese reegleid, ja kui ta käitub pigem nagu masin, siis masina reegleid. Kui masinal ei ole süütundeid, siis ei saa talle õpetada, et ära jää vahele – tal ongi oma etteantud kriteeriumid. Kui ta järgib neid kriteeriume, siis ta tegutseb, ja kui midagi on puudu, siis ta nii-öelda jääb seisma. Lõppkokkuvõttes on vastutaja ikkagi inimene. Iseasi muidugi, mida me selle vastutuse all mõtleme.

Mis oleks see ähvardus masina puhul? Et eksimuse puhul võtame su tükkideks, ja selle alusel peaks robot siis kuidagi oma käitumist kohandama? Mina ei arva, et masin peaks nii-öelda vastutama. Sul peab olema võimalus masin kinni panna, kui ta enam ei allu nendele reeglitele, mis inimühiskonnas toimivad – ta kas teeb seda ise või on inimesel selleks olemas punane nupp.
Mats Volberg: Vastuseks Kaile, mulle tundub, et masinat või robotit on võimalik „karistada“ sellega, et annad juhise, et kui sa teed niimoodi, siis me takistame sul sinu peaeesmärki ellu viimast. Roboti programmis peaks tekkima mõte, et „ma olen programmeeritud ellu viima oma peaeesmärki. Aga kui ma teen mingit teist asja, siis mul takistatakse peaeesmärki täitmast.“ See peaks olema piisav stiimul seda asja mitte teha.

Margit Sutrop: See, mille pärast robotid võivad teha isegi paremaid otsuseid kui inimesed, on see, et nad suudavad kiiremini ja rohkemaid tegureid analüüsida. Minnes selle Mardi näite juurde, ütleme, et sul on näiteks tapjarobot, kes on programmeeritud otsust niimoodi tegema, et tal on kirjas küsimused, mida ta täpselt peaks analüüsima. Küsime, mida on tal vaja selleks, et ta saaks head otsust teha. Nagu me eelnevalt rääkisime, mitte ainult et tal on õiged väärtused, aga on eraldi öeldud, mida ta peab tegema. Võib-olla üks selline huvitav asi emotsioonidega seotuna on see, et võib-olla teeb robot paremaid otsuseid, kui tal emotsioone pole. Enne me rääkisime, et moraalne häbi, süütunne ja hirm võivad hoida ära osasid asju tegemast, aga teistpidi tehakse ka eetiliselt halbu asju sellepärast, et sul on hirm, näiteks kui inimene hakkab enesekaitseks tapma. Kaitseväes räägitakse, et on antud sellised dilemmad: sulle tuleb vastu naine, kes on moslem ja rase. Sul on tunne, et ta on terrorist. Inimesel on väga raske teha otsust, et ta tapab raseda naise, tal on käsk hoida elu ja lapseootel naine on tegelikult see, kes vajab eriti respekti. Inimesel võib olla väga raske, kuigi tal on käsk tappa igaks juhuks. Teiseks, inimesel võib hirm olla, ja ta tapab ainult hirmu pärast. Me teame, et ka liikluses teevad tavalised juhid väga hulle asju, näiteks tabab sind liiklusraev, sind ajab jubedalt vihale, et ta sinust mööda sõitis, hakkad ka ise kihutama. Isesõitval autol ei tohiks seda raevu tekkida, ta ei tee midagi sellepärast, et tal on emotsioonid. Võib-olla see on jällegi lootusrikas, võib-olla ei pea robotile neid emotsioone andma? See on  küsimus vajab vastamist, aga lahendust sellele täna ei ole. Vaja on analüüsida, kuidas inimesed täna otsuseid teevad ja teine on, missuguse disaini me tegelikult  robotitele anname.

Madis Vasser: Mart, sa kirjeldasid seda pikka ahelat alates hetkest, kui tuleb käsk, ja lõpuks lendab kuul välja. Et tuleb meeles pidada, et kõigis neis etappides on inimene tehisintellekti kõrval. Aga inimesed on väga leidlikud, leidmaks põhjendusi ükskõik millele, mida nad teevad. Võib-olla ka see ei lahenda probleemi, kui masin on täiesti tundetu ja on antud eesmärk tappa terroriste: siis on küsimus, kes kirjutas sinna koodiritta, kes on terrorist? Kui vaadata minu tegevuskeskkonna liikumisi, siis ma arvan, et põlevkivisektori arvates ma olen terrorist Eestis.

Kommentaar ka selle kohta, et roboteid peaks saama lihtsalt välja lülitada. Ma arvan, et see ei ole nii lihtne, robot ei tunne küll valu, aga kindlasti tunnevad omanikud majanduslikku valu ja siis ei saa robotit nii lihtsalt välja lülitada.

Mats Volberg: Kai, kui sa oma avangu tegid, siis sa rõhutasid, et roboti toimimine taandub lõpuks ikkagi inimeseni ja et kui meil on kahtlus, et võib-olla masin ei ole võimeline eetilisi otsuseid vastu võtma, võib-olla peakski korraldama niimoodi, et masin teeb ainult neid otsuseid, millel puudub eetiline dimensioon. Näiteks pensioni määramisel kontrollib tehisintellekt, kas kõik tingimused on täidetud.

Mind huvitab  paneeli arvamus selles osas: kuivõrd te arvate, et me peaksime tehisintellekti kasutusala piirama? Teiseks, kas peaksime katsuma inimest lõpuni juures või seotuna hoida? Mingis mõttes teeb see asjad lihtsamaks: pärast on kergem öelda, kes vastutab, või halbu situatsioone vältida. Teiselt poolt, võib-olla see ei võimalda meil rakendada tehisintellekti täit potentsiaali?

Mart Noorma: Võin tuua hästi kiire konkreetse näite. Kaitsetööstuse vaates - mis asi on robot-tapja? Robot on see, kus päästikule vajutamise otsuse teeb masin, mitte inimene. Euroopa Parlamendi ja  ÜRO tasemel arutatakse just selle punkti üle. Ma võin nimetada mõned riigid, näiteks Ameerika Ühendriigid, Iisrael, mittedemokraatlikest riikidest ei räägi siin üldse, kus eetiline arusaam võib-olla hoopis teistsugune, näiteks rakettide või hävituslennukite allatulistamine täisautomaatselt, ilma inimese sekkumiseta. See on mõne riigi jaoks okei. Mina viiksin selle asja veel kaugemale: järgmine tase on siis see, kui relvasüsteem laseb inimest, nö kuulipilduja inimese vastu. Ma ei tahaks mitte kunagi näha arvutit päästikule vajutamas. Samas, kui punase viisnurgaga tank on keset Paide Vallimäge, siis ta ei ole siin rahumeelsel eesmärgil ja mul ei oleks tõrget lasta robotil otsustada.

Margit Sutrop: Me oleme nii emotsionaalselt laetud sellest viimasest näitest, et meenutan, et küsimus oli, kas me peaksime piirama robotite otsustusõigust.

Kai Härmand: Kui me vaatame kogu Eesti õigussüsteemi või üldse õigussüsteemi laiemalt, siis reeglistik on ju selline, et alati on kas eelkontrollisüsteem või järelkontrolli süsteem. Kasutatakse ka n-ö neljasilmaprintsiipi: otsuse tegemisel peab osalema vähemalt kaks inimest, või on järelkontrolli süsteem, näiteks vaidemenetlus või kohtumenetlus, kus inimese jaoks olulisi otsustusi kontrollitakse. Kui me laseme tehisintellektil inimühiskonnas toimida, peab samamoodi olema sinna sisse ehitatud eelkontrolli või järelkontrolli süsteem. Teatud küsimuste puhul me saame ka öelda, et neid küsimusi ei saa ei inimene ise ega ka mingisugune tehniline süsteem otsustada. Eutanaasia on hea näide - Eestis ei saa inimene praegu selle üle otsustada, kas ta saab nõuda assisteeritud suitsiidi.

Margit Sutrop:  Samas on ka näiteid nendest maadest, kus see on lubatud Näiteks Hollandis ei saa seda otsust teha üks arst, vaid peab olema n-ö neli silma, vähemalt kaks inimest. Nüüd ma küsiksin provotseerivalt, kas aitaks, kui neli silma, see tähendab kaks robotit, teeksid keerulise otsuse?

Kai Härmand: Tehisintellekti süsteem pakub mingid variandid välja või selekteerib välja nii-öelda selged juhtumid ja jätab ebaselged ikkagi inimesele otsustada.

Margit Sutrop: Me räägime siin praegu ikkagi kitsast tehisintellektist ja oleme võtnud normatiivselt ette otsuse, et inimene peab suutma säilitada kontrolli ja inimene teeb otsuseid paremini. Minu meelest on Matsi küsimus hea: kui me niisuguse klausliga tehnoloogias põhimõtteliselt keelame edasise arengu, mitte lubades, et robot muutub autonoomseks, iseotsustavaks tehisintellektiks, kas meil jääb ka mingi hüve saamata? Küsime põhimõtteliselt, miks me üldse tehisintellekti arendame. Me arendame seda selleks, et inimese heaolu suureneks, paljud funktsioonid saaksid paremini täidetud, meie elu läheks järjest paremaks. Teiselt poolt tuleb sisse eetika: võib tekkida oht, et me hävitame elu, võib-olla me hävitame iseenda. Eetilises mõttes me küsime mitte ainult seda, mida me suudame, vaid me küsime, kui kaugele me tohime minna, kuhu tuleks need piirangud panna. Praegu on Euroopas jõutud konsensusele, et täisautonoomiat me tehisintellektile üle ei anna. Samas, mida kusagil teises maailma nurgas on võimalik teha, seda ka tehakse, mõtleme kasvõi kloonimisele. Kusagil keegi ikka püüab autonoomselt otsustava tehisintellekti valmis teha. Nüüd on juriidiline küsimus, kui kaugele me lubame sellel minna, millised regulatsioonid kogu maailmas sellist tegevust piiravad. Eetikud on üldiselt pigem ettevaatlikud, aga mina küsiksin: miks mitte autonoomne tehisintellekt? Miks ma seda ütlen: sellepärast, et ma olen inimesest väga halval arvamusel. Inimene teeb väga palju ebaeetilisi otsuseid ja kontrollib väga halvasti, äkki see superintellekt teeb seda paremini, äkki ta ikkagi ongi parem eetiline otsustaja kui inimene?

Madis Vasser: Ma pean sekkuma, sest mina olen siin ju see vastupanuliikumine, kes ütleb: oot-oot, see asi trügib meie õue peale - kas me tahame seda siia, nagu oli see lõputu muruniiduki näide. Selle kasuks öeldakse, et tõesti, et see on automatiseerinud tüütu kohustuse niita kogu aeg muru. Aga siin on ka laiem küsimus: miks me seda muru üldse niidame? Kui meil on elurikkuse kriis, siis oleks väga hea, kui muru kasvaks. Ma saan aru, et kui postkontoris on automaat, mis sorteerib posti, siis see on väga hea robot. Aga kui sul on füüsiliselt inimeste igapäevaellu tungiv ja probleeme tekitav tehnoloogia, kas meil on kuidagi võimalik seda piirata - juriidiliselt, legaalselt, ja kui ei ole, kas me saame seda teha sotsiaalselt? On olemas näiteid, et mingid algoritmid toodavad võltspornot nii, et sinu pea on kellegi teise pea asemel - seda on aktiivselt ka pornosaitidel hakatud ära keelama.

Margit Sutrop: Ma igaks juhuks täpsustan - kui ma ütlen, et /autonoomne tehisintellekt - toim/ tehakse valmis niikuinii, ei tähenda see veel, et laseme teha, mida iganes tahetakse. Ma lihtsalt ütlen realistina, et ma usun, et kusagil maailma nurgas tehakse see ära. Aga ma usun ka, et kusagil maailma nurgas seda ka keelatakse. Küsimus on, kui kaugele meie keelud ulatuvad, millised on meie kokkulepped, kui kaugele me iseenda kaitseks neid barjääre suudame ehitada.

Kai Härmand: Meil on ka reegel, et inimese elu on püha – need keelud on olemas, aga ikka tehakse. Mida me ühiskonnana tolereerime: kas me tolereerime seda, et tehisintellekt surub meile peale ainult ratsionaalsed otsused, või vastupidi, meil on eetilised tõekspidamised, kasvõi needsamad Euroopa Liidu eetikareeglid, millele me allutame oma tehisintellekti arendamise?

Mart Noorma: Tahaksin tegelikult tagasi tulla ühe asja juurde, mida Kai ütles. Robotid on nagu lapsed - ja kui me niimoodi mõtleme, siis selles arenguloogikas jõuame ikkagi sinna, et mingil hetkel nad on võimelised võtma vastutust. Karistamisel on mõtet ainult siis, kui see tema jaoks midagi tähendab – pole mõtet karistada enesetapjat surmanuhtlusega. Aga just see, mida sa sissejuhatuseks ütlesid: kõige hullem ettevaates on üle reguleerimine, püüda ette ennustada, mis tulevikus tuleb ja see seadustesse väga palju varem sisse kirjutada. See, et me täna võime neidsamu inimühiskonnas toimivaid reegleid ja seadusi ca 99% kasutada, lahendab ära ka robootika küsimused, sest alati on kuskil keegi vastutaja, see kehtib veel.
Samal ajal teaduse mõttes, nagu Margit ütles, peame mõtlema ka selle peale, mis siis saab, kui tulebki inimesega võrdne või vähemalt viieteistaastase inimesega võrdne või võimekam teisend. Täna seadusandluses ei pea veel sellega arvestama, aga teadlased-arendajad, meie peame kogu aeg selles suunas mõtlema.

Täna me ehitame Milramis roboteid, mis istutavad puid, kasutades selleks päikeseenergiat. Meie arenev tehnoloogia aitab käegakatsutavalt teha neid asju, mis on keskkonnale ja inimesele head. Sellepärast me neid roboteid ennekõike ehitame. Kindlasti keegi teeb seda kasumi pärast ja keegi teeb seda maadevallutamise pärast. Aga valdavalt on robotiehitajad ikkagi visionäärid, noored insenerid, kes tahavad teha maailma paremaks.

Margit Sutrop: Me räägime ju ka sellisest ulmelistest asjadest nagu superintellekt, inimese teadvuse üleslaadimine ja kellegi teise kehasse istutamine. Kujutage ette, kui Põhja-Korea juhtide valduses on superteadvus - millised käsud sealt tulevad? Need on need küsimused, mis tegelikult ärevaks teevad. See on küll fantaasia valdkonda kuuluv, aga samm ette. Mart lubas, et eetikud võivad ka ettepoole mõelda, karta ja kaardistada hirme, aga samamoodi kaardistada ka kasusid. Ma arvan, et kõigi tehnoloogiate puhul peame samavõrd mõtlema selle peale, mis on kasud ja mis on võimalikud kahjud, ja leidma tasakaalu. Aga see toimub olukorras, kus eri maades või eri gruppides võidakse täna väga-väga erinevalt sellest aru saada, mis on kasud ja mis on kahjud.

Mats Volberg: Kuidas siis on nende universaalsete väärtustega? Kas, esiteks, neid on üldse vaja? Nagu Margit selgeks tegi, inimestel ei ole ka täna kokku lepitud universaalseid väärtusi, ja me saame hakkama. Miks me peame siis masinalt neid universaalseid väärtusi nõudma? Ja teiseks, kui me ütleme, et hea küll, eestlased võivad välja mõelda, mis on nende väärtused, kas sellest äkki siis piisabki meile? Eesti robotil või Eestis tegutseval robotil on Eesti väärtused ja kõik on korras.

Kai Härmand: Meil ei olegi võimalik universaalsetes väärtustes kokku leppida. Meil on sada üheksakümmend kaheksa maailma riiki ja kuidas nende elanikud väärtusest aru saavad, ei ole praegugi selge. Jällegi, kui õiguse poole vaadata, siis on ju olemas rahvusvahelised kokkulepped, mis on väga laiaulatuslikud ja väga paljud riigid on siiski teatud printsiipides suutnud kokku leppida. Ma arvan, et samamoodi on võimalik kokku leppida ka nendes printsiipides, mida me rakendame tehisintellektile. See algus on tehtud, OECD-l on põhimõtted välja töötatud, Euroopa Liidul on oma põhimõtted välja töötatud. Ma arvan, et ei lähe väga palju aega, kui meil tuleb mõni selline ookeanide- ja mandriteülene kokkulepe.

Margit Sutrop: Üks minu uurimisteemasid on olnud, kuivõrd on meil on üldse tegemist universaalsete väärtustega. Ma arvan, et meil ikkagi on universaalsed väärtused olemas. Samamoodi võiks ju kahelda, kas Eestil on olemas kokku lepitud väärtused. Raskus on tegelikult selles, kuivõrd me nõustume nende väärtuste interpreteerimise ja väärtuste hierarhiaga. Ma toon näite. Üks suur katse teaduse jaoks olulisi väärtusi kokku leppida tehti UNESCOs 2005. aastal. Hoolimata kõikidest erinevatest religioonidest ja poliitilistest süsteemidest suudeti kokku leppida väärtuste loetelu, aga kui neid väärtusi lahti hakati kirjutama, siis kõik need arutelud lõppesid sellega, et see muutus väga õhukeseks, mida  saadi öelda. Kui sul on kuus erinevat definitsiooni inimväärikusest ja ühtede jaoks tähendab inimväärikus seda, et igal inimesel on inimväärikus, sest inimene on loodud Jumala näo järgi ja me kõik kanname neidsamu tunnuseid, aga teised ütlesid: jah, inimväärikuses lepime kokku, aga see on ülikute inimväärikus, on mingi seltskond, kellel on rohkem inimväärikust kui teistel. Või näiteks lepiti kokku,  et üks selliseid väärtusi, mida me kõik austame, on õiglus ja solidaarsus. Aga siis tulid ameeriklased ja küsisid: mis asi see solidaarsus on, see on mingisugune Prantsuse revolutsiooni vaimus väärtus; meile oluline väärtus on õiglus, mis tähendab seda, et nii palju kui sa panustad, nii palju sa ka saad ning üldist jagamist ei peaks olema. On väga hea, et dokumendid kokku lepitakse, aga üldine arusaam on see, et ka dokumentide taga olev diskussioon on väga oluline. Mida rohkem me räägime sellest, mis on meie ühisväärtused, miks nad meile olulised on, seda rohkem on ehk lootust, et me mingi kokkuleppeni jõuame. Paber ei tohiks olla mitte selle diskussiooni lõpp, vaid alus, miks me seda diskussiooni jätkame. Ma olen selles mõttes optimistlik, küllap me seda diskussiooni ka edasi peame. Need väärtused, mis näiteks Euroopa Komisjonis on kokku lepitud, on kõik sellised humanistlikud väärtused, inimagentsus, turvalisus, transparentsus. Kui palju autonoomiat ja mida me selle all mõistame, ongi näiteks üks kohti, kus me nüüd edasi diskuteerime ja ma ei ole päris kindel, kas me peaksime absoluutselt keelama autonoomsust robotitele - kas me sellega ei tee endale karuteenet. Teistpidi, kui see tähendab, et me lubame neil muutuda otsustajateks ja pigem Põhja-Korea või Hiina teevad selle ära, on kuri karjas. Nii et lõpuks on see ikkagi jõu küsimus, kes selle roboti tegelikult ära teeb, kes määrab seadused, kes reguleerib neid. See kõik on mitte ainult heade mõtete küsimus, vaid tegelikult ka võimu ja jõuküsimus. Ja seal on oht.

Mats Volberg: Madis ja Mart, mis on teie kommentaarid universaalsete väärtuste kohta?

Madis Vasser: Siin käis enne läbi see mõte, et neid roboteid või tehisintellekti saab olema erinevaid, nagu ka inimesi on erinevaid isiksusi. Ja nagu näete, kellelgi ei ole monopoli, kõigil on mingi turuosa, ja inimesel, kasutajal, kliendil on valik, millist tehisintellekti tema kasutab. Võib-olla teha siis nii, et inimesele jääb valik, näiteks, kas ta võtab endale hääljuhtimisega koduabilise või mitte. Minu arust on oluline, et see jääks valikuliseks otsuseks, et see ei ole kohustuslik, et kõik telefonid on hommepäev hääljuhtimisega. Mulle meeldiksid näiteks analooglahendused. Tuleb hoida seda võimalust, et saab ka niisugust valikut teha.

Mart Noorma: Mina olen siin see ettevõtte esindaja, kes püüab kõike rahaks teha. (Naer). Tegelikult ettevõtte vaates ei ole tähtis, et me peaksime saama hullu tapjarobotit ehitada, vaid tegelikult on tähtis, et ühiskonnas oleks kokku lepitud, mida me võime teha ja et see oleks natukenegi varem teada, enne kui me hakkame tootearendusse investeerima. Me teeme täpselt seda, milles on kokku lepitud. Meie jaoks on see valdavalt hea olukord, mida ka Kai ütleb: ei ole vaja minna tänaste seaduste kallale. Kõige hullem, kui hakatakse üle reguleerima mingite populistlike ohuhinnangute põhjal. Samas teatud küsimused tuleks kirjalikult kokku leppida.

Publiku küsimus: Tere, olen Sten Allik ja tegelen kaitseväes autonoomsete süsteemidega. Pööraksin tähelepanu kahele asjale. Üks on see, et kuidas me tehisintellektist tänase päevani räägime. Ja me kipume teatud asju humaniseerima ja inimesele üle kandma. Kui me räägime, et masin otsustab, siis tegelikult masin ei otsusta, vaid masin valib kõige parema valikuvariandi, nii nagu me matemaatika puhul ei otsusta, mis on vastus, vaid see on teatud loogika tulemus.

Ja teine asi on see, et me räägime eetikast: kas on eetiline anda teatud otsustused masinale.

Oma töös olen ma samamoodi näinud, mismoodi kantakse masinale üle mõistus. Tegelikult ei ole masina puhul seda mõistet võimalik kasutada, see annab vale tulemuse. Teine küsimus on eetiline küsimus: ei ole olemas tapjaroboteid, väidan, et kõik relvad, millest saab lasta, on tapvad.

Teiseks, kas oleks eetiline kasutada teatud situatsioonides nn tapjaroboteid, kuna nad on võimelised tapma paremini, täpsemalt, kiiremini, tekitades vähem kannatusi ja sõda võib olla lühem?

Mats Volberg: Niisiis tuli paneelile kaks küsimust: üks küsimus oli selle kohta, kas nii-öelda surmavat jõudu omavate robotite kasutamine võiks olla sellepärast parem, et see tekitab lõppkokkuvõttes vähem kahju. Ja esimene küsimus oli, et need sõnad, mida me kasutame robotitest rääkides, omistavad talle omadusi, mida tal ei ole.

Mart Noorma: Ma vastan Steni küsimusele. Mul oli au olla teisipäeval Detroidis konverentsil paneelis koos USA armee pearobootikuga. Üks küsimus on, kas simulatsioonikeskkonnad on üks võimalus, kuidas tehisintellekti välja õpetada. Teine on see, kas saab masina füüsikalisi parameetreid katsetada ja iga vedru tugevust hinnata simulatsiooni põhjal. Kolmas on kasutajate küsimus: kas need konvergeeruvad tulevikus ühtseks simulatsioonikeskkonnaks, mis võimaldab seda kõike? See oleks selline virtuaalmaailm, et vahet enam ei ole, kas sa mängid selles virtuaalmaailmas või sa sõdid päris maailmas. Ja kas me tulevikus võiksime minnagi sinna, et peame virtuaalkeskkonnas simulatsioonide abil kogu selle lahingu ära ja see annab meile vastuse, ja me hoiame kõik inimelavjõus kokku. Ma loodan väga, et me näeme tulevikus konflikti lahendamisel selliseid lahendusi.

Madis Vasser: Ma vastaks ka, miks ma algusest peale olin pahur, kui roboteid võrreldi lastega: on hästi lihtne tulema see, et siis me kanname laste omadused üle nendele väikestele pakirobotitele. Kui siin oli enne juttu, et äkki me siis alahindame seda robotit, ma pigem ütleksin, et ehk me hakkame neid üle hindama või omistama mingisuguseid omadusi, mida neil ei ole. Robot ei tunne valu, me lülitame ta välja. Aga kui me paneme roboti nutma ja karjuma nagu väikese lapse? Kas sa siis suudad seda nuppu vajutada?

Margit Sutrop: Oleks hea, kui me enne laste tegemist jõuaksime kokkuleppele, kuidas neid kasvatada, ja enne robotite tegemist, missuguste eetiliste parameetrite järgi nad toimivad. See oleks ideaalne. Ma arvan, et see on kaalutlemise koht, kas meil peaks olema need nii-öelda tapjamasinad, kas need oleksid paremad? Siin ongi tõepoolest väga palju, kus me tegelikult ka seda valu või kahju, mis me inimesele tekitame, saame ära hoida. Mäletan ühte Euroopa projekti, kus arutleti, kas tapjadroonid on eetiliselt lubatud. Kaalutlemisel oligi üks aspekt, et üks võimalikke kasusid oleks see, et ta tekitab tapmiskäsu andjale vähem psühholoogilist stressi. Tehti katse ja küsitleti neid, kes on tegelikus elus tapmisega tegelevad piloodid ja neid, kes droone lennutavad või kes droonile käsu annavad. Üllatav oli see, et ka need, kes tegelikult andsid käsu  tapjadrooni lendamiseks, tegelikult elasid seda läbi, sest nad ju teavad, mida see kaasa toob.

Madis Vasser: Küsimus oli, kas peaks saatma ainult robotid sõtta, sest nad tapavad kiiresti vastaspoole maha. Jään korraks siin seisma. Heal juhul on need robotid, aga kui vastaspool ei ole nii rikas, siis on seal tavainimesed või sõjaväelased. Olles ise tegelemas kliimateemadega, on praegu näha, et üks reaalne viis, kuidas süsteemi muutust saavutada, on suurem rahvaliikumine. Ka julgeolekujõududega on vaja rääkida, nende inimlikkusele koputada. Ja nüüd, kui politseijõud on järsku kõik Robocopid, siis mul on koputada ainult vastu kilpi ja sealt ei tule mingit vastust. Puht sotsiaalselt ma leian, et tapmine peaks selle jaoks, kes tapab, võimalikult rõve olema.

Küsimus publikust: Me räägime siin potentsiaalsetest robotitest, kes tulevikus võib-olla teevad tapmisotsuseid autonoomselt, nii et inimene ei sekku. Samal ajal meil on olemas ülemaailmne robot nimega Facebook, mis teeb igapäevaselt autonoomseid otsuseid selle kohta, millist infot kellelegi näidata. Mõnes riigis on see toonud kaasa veresaunasid, on võimendanud reaalseid konflikte niimoodi, et rohkem inimesi saab surma. Ta on teinud autonoomseid otsuseid, mille tulemusel inimesed saavad surma. Meil juba täna on niisugune masin, mis seda teeb. Kas me peaksime midagi selle osas ette võtma? Kas peaks midagi rohkem ette võtma, sest Facebook jätkuvalt tegutseb, jätkuvalt surevad inimesed.

Mart Noorma: Kiire vastus on see, et nii nagu alguses arutasime, on selge, et vastutaja on võimalik väga lihtsalt välja arvutada: see, kes selle süsteemi on püsti pannud, vastutab täielikult kogu selle süsteemi toimimise eest. Nüüd on ainult küsimus, kas kuskil kohtus oleks võimalik luua link Facebooki ja surma saanud inimese ja läbi selle süsteemi mõju vahel. Ma arvan, et senikaua kuni seda linki ei ole võimalik saavutada, senikaua need süsteemid arenevad samas suunas vabalt edasi. Mingil hetkel jõuab areng selle piirini, kui seda linki on võimalik tuvastada ja siis on võimalik seda tegevust piirata. Sest valdavalt ikkagi enamik selle süsteemi tagajärgi on positiivne, ennekõike internetikaubamajadele, reklaamipakkujatele ja nii edasi, majanduslik kasu on seal suur ja võimas.

Kai Härmand: Minu arvates on positiivsed arengud juba olemas. Üsna sarnased andmekaitsereeglid on tekkinud nii Euroopas kui ka Ameerikas. Meil on esimesed toredad kaasused, kus globaalseid ettevõtteid juba ka ohjatakse, reeglina raha abil. Küsimus on selles, et mis on ettevõtja huvi. Ettevõtja huvi ei ole tekitada veresauna. Ettevõtja huvi on saada kasumit ja kasumit saab siis, kui võimalikult palju inimesi tuleb süsteemi, ja riigid ei võta seda raha trahvirahana neilt ära.

Margit Sutrop: Üks asi, mis robotitega seotud on, on just nimelt andmete küsimus, ja mitte ainult privaatsus, vaid ka see, kellele nad kuuluvad. Kui Eestis kuuluvad andmed inimesele, siis Hiinas kuuluvad andmed riigile. Kasvõi sellest tulevad juba needsamad arutelud väärtuste üle ja millised need mõjud on. Suurandmete teema on see, mis on absoluutselt tuleviku teema, millega Eesti peaks veelgi rohkem ja veelgi hoogsamalt tegelema. Kõikidele noortele, kes mõtlevad sellele, kelleks saada , soovitan, et õppige andmeteadust, see on kindlasti üks väga suur tulevikuteadus.

Madis Vasser: Skeptilisust tuleb hoida nagunii. Iga kord, kui sa avad Facebooki, pead meeles pidama, et sa ei näe seal reaalsust. Sa näed mingit hästi kummalist kõverpeeglit, mis on kas kellegi erahuvide või sinu veidrate sõprade huvide kogusumma. Siis on veel keegi vahepeal midagi häkkinud ja pool sellest, mis sa näed, on lihtsalt võltsing, sest algoritmid suudavad toota juba nii veenvaid võltslugusid, et sa ei saagi aru, et see on võlts.

Mart Noorma: Kas lüüa pakirobotit jalaga? Ma arvan, et on parem robotile pai teha ja kolm korda päevas, kui see on teie robot - sind ennast teeb see paremaks inimeseks. Teine asi, mõtleme Mark Twaini peale. Vaene Mark Twain kirjeldas nii ilusti, kuidas neegrid teevad mõistlikele inimestele palju nalja. Ameerika normaalsetes peredes „Tom Sawyerit“ eriti enam ei loeta. Samas kui näiteks „Hucklebery Finn“, mis on juba teistmoodi mentaliteediga, on laialt levinud. Mina näiteks tõesti ei tahaks, et ma kolmekümne aasta pärast pean tehisintellektile piinlikkustundega silma vaatama ja ütlema, et issand, kui rumal ma olin omal ajal, ei mõistnud, et tegelikult ei ole mingist tasemest alates vahet tehisintellektil ja tavalisel intellektil. Võib-olla. Aga ma parem teen täna robotile pai, vähemalt ise saan paremaks inimeseks ja pealegi - robotid on nagu lapsed.

Toimetanud Tiia Kõnnussaar