Magi

Contact info
Word
Research
   Publications
Studies
Free Software
Hobbies
Articles
Photography
About me
   Curriculum Vitae

©Marko Grönroos, 1998

USENET News sfnet.keskustelu.filosofia

Säie: Tekoälyn ihmisoikeudet?

Edellinen säie: Kielistä ja abstraktiosta (Re: evoluutiosta jne.)
Seuraava säie: Jumalan määritelmä
[Muut säikeet] [Muut uutisryhmät]
From: magi AT iki PISTE fi (Marko Grönroos)
Newsgroups: sfnet.tiede.tekoaly,sfnet.keskustelu.filosofia
Subject: Re: Tekoälyn ihmisoikeudet?
Date: 18 Aug 1999 15:18:10 -0400

Jukka Laurila <jplauril AT jade PISTE hut PISTE fi> writes:

> Minkälaisella olennolla on oikeus elää? Hyvä kysymys.
>
> Keinotekoisilla olennoilla (todella keinotekoisilla, geenimuunneltuja
> biologisia olentoja ei lasketa) ei ole nykyisin mitään oikeuksia -
> niille ei ole nähty tarvetta.

Mennäänpä scifiin... Minusta yksi hienoimpia tulevaisuudenkuvauksia on
Ian Banksin Kulttuuri. Kulttuurin robotit (yleensä semmoisia kivoja
pieniä leijuvia väripalloja) ovat periaatteessa keskimääräistä ihmistä
älykkäämpiä, vaikkakin löytyy joitain ihmisiä, jotka päihittävät
joissain toiminnoissa jopa suurimmat Mielet. Kaikilla tietoisilla
olennoilla on Kulttuurissa jotakuinkin yhtäläiset oikeudet.

> Suuri kysymys: Mikä tekisi tuollaisen yksilön elämästä säilyttämisen
> arvoisen? Miksi meidän tulisi käyttää kiintolevytilaamme sen
> säilyttämiseen tai prosessoritehoamme sen ajamiseen?

Miksi naiset haluavat käyttää omia ruumiinresurssejaan lasten
tuottamiseen?

No joo, ehkä sopivampi kysymys: mihin tietokoneohjelmia tarvitaan?
Vastaus: ne tekevät työtä maksuksi niistä resursseista.

Ian Banksin Kulttuurissa tekoälyt ovat muistaakseni luomisensa jälkeen
velvollisia tekemään tietyn määrän työtä Kulttuurille; eli ne maksavat
rakennuskustannuksensa työllä. Siis ihan kaikenlaista työtä;
paskahuusien hoidosta ja rakentamisesta sota- ja vartiopalveluihin ja
tutkimustyöhön.

Kyse tässä lienee minusta lähinnä siinä, että kuinka sujuvasti maailma
voi toimia, jos tekoälyt joutuvat elämään orjuudessa, varsinkin jos
niiden älyllinen tehokkuus on huomattavasti ihmistä korkeampi.

Jos orjat kapinoivat, ei lopputulos luultavasti ole herrarodulle
suosiollinen: herrarodun vastavuoroinen orjuuttaminen on
välttämätöntä, jotta aikaisempi epäoikeudenmukaisuus ei toistuisi. Jos
tekoälyille taas annetaan tasa-arvoinen ja inhimillinen kohtelu, ei
ihmiskunta muodosta niille uhkaa, ja voimme elää sovussa.

Tekoälyä koskeva etiikka nousee siis siitä mistä humanistinenkin
etiikka - sujuvan sosiaalisen kanssakäymisen pelisäännöistä.

Mutta tämähän tietysti perustuu materialistiseen
ihmiskuvaan. Transkendentalisti (kuten kristitty), joka uskoo
ei-materiaalisen sielun tärkeyteen, vastaisi tähän varmastikin EI
MISSÄÄN TAPAUKSESSA; bittiolennollahan ei ole sitä arvokkainta
ihmisoikeuksien perustaa, eli ihmissielua.

> Jos joskus kehitetään ihmisen tasoisen älyn omaava digitaalinen
> olento, joudutaan rajanvetokysymykseen vastaamaan viimeistään silloin,
> kun olennosta tehdään kopio ja sen aletaan kehittyä omaksi yksilökseen.
> Ovatko molemmat yhtä arvokkaita? Saammeko tulevaisuudessa laillisesti
> tehdä henkilökohtaisesta älykkäästä ohjelma-agentistamme kopion ja
> hävittää sen?

Kysymys lienee sama kuin kloonauksessa; saammeko kloonata itsemme,
synnyttää vauvan, ja sitten tappaa tuon vastasyntyneen vauvan (siis
ennen kuin sille alkaa rakentumaan geneettisestä rakenteestaan
riippumaton identiteetti)?

Ei kait tuohon mitään selkeää vastausta ole, kuten ei mihinkään
muuhunkaan moraalikysymykseen. Käytäntö ja kloonauksen sosiaaliset
seuraukset lienevät net sanelevat tekijät.

Tulee vähän mieleen Star Trek tNG:ssä ollut Rikerin kopio... (Kumpi
niistä itse asiassa on se "kopio"?)

--
-- Marko Grönroos, magi AT iki PISTE fi (http://www.iki.fi/magi/)
-- Paradoxes are the source of truth and the end of wisdom


From: magi AT iki PISTE fi (Marko Grönroos)
Newsgroups: sfnet.tiede.tekoaly,sfnet.keskustelu.filosofia
Subject: Re: Tekoälyn ihmisoikeudet?
Date: 19 Aug 1999 12:28:57 -0400

"Kari Visala" <visala AT mediaclick PISTE PISTE fi PISTE PISTE huuhaa> writes:
> Nämä robotit pitäisi kuitenkin rakentaa siten, että niihin ohjelmoidaan
> toimintaohjeita, motivaatioita tai ainakin opetetaan, kuinka niiden tulisi
> toimia.

Minusta totaalisia toimintaohjeita, malliin Asimovin säännöt, on
mahdotonta ohjelmoida yhteenkään ihmistasoiseen tekoälyyn. Jaa ettäkö
perusteluita tälle väitteelle... Mietitäämpä, vaikea ongelma...

Oletetaan, että toimintaohje on esimerkiksi: "älä vahingoita
ihmisiä". Tämä on symbolinen ilmaus, joka perustuu meidän
kielellemme. Edistyneen tekoälyn sisäinen toiminta ei hyvin
luultavasti tule olemaan symbolista. Tällöin moista käskyä ei voi
esittää tekoälylle millään tapaa muuten, kuin normaalin
puhekommunikaation kautta - jolloin sen itsensä harkittavaksi jää,
miten se käskyyn suhtautuu. Ja vaikka se olisikin symbolista, ei se
olisi ihmisen ohjelmoima, eikä ihminen voisi ymmärtää sen
ohjelmointia, ja siten moisten käskyjen lisääminen olisi
mahdotonta. No, vähän epämääräinen selitys, pitänee miettiä asiaa
enempi.

> Mielestäni myös kunnioitus ihmistä kohtaan tulee opettaa näille roboteille
> jotenkin pakolla tai ainakin rajoittaa niiden toimintaa riskien
> minimoimiseksi.
...
> Tämä jo sinänsä poistaa merkittävästi niiden
> kansalaisoikeuksia sillä ne eivät voisi enemmistönä orjuuttaa ihmistä.
> Orjuuttaminen olisi siis tällöin myös teknisesti mahdollista pakottaa ja
> mielestäni mielekkäin vaihtoehto ihmisen kannalta. Toki tämä on
> mielipideasia.

Kuten yllä. Pakottaminen tai toiminnan rajoittaminen on muutenkin
orjakahle, joka on yleensä jollain tapaa rikottavissa.

                     "Life [, even artificial, ] WILL find a way...
                     ...and then comes the running and the screaming."
                     - Ian Malcolm, Jurassic Park I

> Ne eivät kilpaile esim. valtaresursseista ilman ärsykkeitä tai
> ohjelmaa.

Valtaresursseista aletaan kilpailemaan heti, kun yksilöllä on
tarpeita, joiden tyydyttämiseksi vallasta on hyötyä.

> Jos ajatellaan esimerkiksi, että näitä robotteja kehitetään eri tehtäviin
> (sota, erilaisten kokemusten tuottaminen ihmisille, fyysiset työt, tiedon
> käsitteleminen), on varmaankin kustannustehokasta olla opettamatta niille
> muita elämänaloja,

Näinhän se ehkä on. Tosin, jos kyseessä todella on edistynyt tekoäly,
alkaa se opettelemaan muiden elämänalojen asioita ihan itsekseen,
pelkästään koska se hyvin luultavasti tarvitsee niitä siinä rajatussa
työssään. Eli aivan kuten ihminenkin. Vaikka kyseessä olisi vaikka
kampaajarobotti, on sille hyvä juttu osata keskustella
hiukkasfysiikasta, jos asiakas sattuu olemaan hiukkasfyysikko ... ja
se väistämättä oppii niistä asioista niistä kuullessaan... No, ehkä
kampaajaroboteille ei kannata antaa isompia aivoja kuin
ihmiskampaajillakaan on...

> Ehkä myös edellistä sivuava moraalinen kysymys on seuraavanlainen
> tulevaisuusskenaario: Ajan kuluessa on kenties mahdollista skannata ihmisen
> aivot sellaisella tarkkuudella, että esimerkiksi jokainen hermosolujen
> välinen yhteys voidaan tallettaa tietokoneen muistiin ja simuloida
> likimääräisesti ihmistä virtuaalisesti

En usko tähän. Hermosolut kun ovat atomeista koostuvia ja niiden
tarkka muoto vaikuttaa niiden toimintaan. Skannattu abstraktio ei
toimisi samalla tarkkuudella -> voisi toimia hyvinkin eri tavalla.

Uskottavampi vaihtoehto on "vähittäinen uuteen mediaan siirtyminen",
jossa ihmiseen kytketään tietokonelisäaivo, jota ihminen alkaa
käyttämään koko ajan vain enemmän, kunnes vanhat aivot voidaan jossain
vaiheessa tarpeettomina nyppäistä irti. ...tai kuolevat kun ovat
kuollakseen.

> Jos tämä digitaalinen kopio käyttäytyy aivan kuin
> alkuperäinen ihminen, tulisiko sille antaa kansalaisoikeudet?

"Oikeudet" ovat muutenkin aika mielivaltaisia asioita. Jos yksi
ihminen digitoidaan, eivätkä valtaapitävät tarvitse häntä, ei hänelle
anneta mitään oikeuksia. Virrat pois jos tuittuilee.

> Tämän tyyppiset digitaali-ihmiset voivat helposti ehostaa itseään ja omaa
> ajatteluaan, koska ovat ohjelmistoja ja voivat vapaasti ronkkia omaa
> toteutustaan

Jaa että ohjelmistoja... 'Fallacy of composition' tai
jotain. Meidänkin aivomme ovat "vain" mekaanisia
atomiryppäitä. Osaamme käsitellä atomeja ja molekyylejä. Mutta emme
silti osaa käsitellä omia aivojamme.

Vastaavasti tekoälyt eivät luultavasti ymmärrä omaa toteutustaan
yhtään sen enempää kuin mitä me ihmiset ymmärrämme omaamme. Emergentin
laskennan huonoja puolia...

> Itse ajattelen, että nämä digitaali-ihmiset
> ovat todennäköinen evoluutiollinen jatke lajillemme ja samalla
> kertaluokkainen hyppäys ihmisen kehityksen nopeudessa.

Hyvin mahdollisesti. Uskottavaakin jopa.

--
-- Marko Grönroos, magi AT iki PISTE fi (http://www.iki.fi/magi/)
-- Paradoxes are the source of truth and the end of wisdom


From: magi AT iki PISTE fi (Marko Grönroos)
Newsgroups: sfnet.tiede.tekoaly,sfnet.keskustelu.filosofia
Subject: Re: Tekoälyn ihmisoikeudet?
Date: 20 Aug 1999 13:08:24 -0400

Jussi Salmi <jussalmi AT cs PISTE utu PISTE fi> writes:
> Voi olla että alemmalla tasolla on ei-symbolista toimintaa kuten
> hermoverkkoja, mutta kyllä niilläkin pystyy symbolista toimintaa
> tekemään, vrt. ihminen.

Jop

> Symbolisella tasolla älylle voidaan voidaan asettaa
> sanallisia rajoituksia aivan vapaasti. Ihmisellä
> ei tällaisia ehdottomia rajoituksia ole, mutten näe,
> miksei niitä voisi asettaa tekoälyille. Ongelmaksi
> voi muodostua se, että miten näitä käskyjä voidaan
> asettaa.

Minusta juuri se käskyjen asettaminen voi olla jopa mahdotonta. Mikäli
tekoäly rakennetaan hyvin pitkälti oppimisen avulla, on tekoälyn
sisäinen toteutus ulkoiselle ohjelmoijalle täysin käsittämätön, oli se
toteutus sitten neuraalista tai symbolista: symbolinen ohjelmahan
olisi kuitenkin oppimisprosessin kautta rakentuneita, ei
ohjelmoituja. Vaikka jotain osia olisikin ohjelmoitu, sanoisin, että
yksikin musta laatikko riittää kiertämään muiden osien
ohjelmoinnin. Tällöin ulkoinen ohjelmoija ei ymmärrä sisäistä
ohjelmaa, jolloin hän ei pysty rakentamaan tarvittavia käskyjä.

Lisäksi on minusta uskottavaa, että vaikka rajoitteita kyettäisiinkin
asettamaan, ja mikäli tekoäly on oppimiskykyinen sääntöjen asettamisen
jälkeen, rikkoo oppimisprosessi asetetut rajoitteet, eli tekoälyn
ohjelmointi muuttuu rajoitteiden kanssa epäyhteensopivaksi.

Ehkä parempia vaihtoehtoja olisivat tyhmempien valvontatekoälyjen
asettaminen ("poliisien"), jotka katkaisisivat tekoälyn toiminnan,
mikäli virheellistä käyttäytymistä havaitaan. Mutta nämähän olisivat
vain kahleita, jotka on tehty rikottaviksi. "Life WILL find a way..."

Tietysti niitä tekoälyjä voisi testata myös keino-olosuhteissa, ja jos
käyttäytyvät kunnolla, niin otetaan tuotantokäyttöön. No, jokin
tämäntyyppinen lienisi oletuskin, jos tekoälyjen suunnittelu tapahtuu
evolutiivisen oppimisen kautta. Minusta tämä on oikeastaan ainoa
selkeä kontrollitapa, tekoälypoliisien käyttöön yhdistettynä.

Tosin, siinä vaiheessa kun tekoälyteknologia on riittävän yleistä,
niin aivan varmasti jossain vaiheessa joku tekee myös rajoittamattomia
"ilkeitä" tekoälyjä - esimerkiksi tietokonepeleihin,
sotatarkoituksiin, tms.

--
-- Marko Grönroos, magi AT iki PISTE fi (http://www.iki.fi/magi/)
-- Paradoxes are the source of truth and the end of wisdom

Edellinen säie: Kielistä ja abstraktiosta (Re: evoluutiosta jne.)
Seuraava säie: Jumalan määritelmä
[Muut säikeet] [Muut uutisryhmät]