lauantai 12. syyskuuta 2009

Tekoälyn etiikka

Kirjoitan tämän "Sirun sivujen" innoittamana. En pysty tai pyri yhtä monipuoliseen aiheen lähestymistapaan kuin Siru, Sirpa Kauppinen, mutta pidin tuostä esityksestä ja kirjoitan omani vain kommentoidakseni joitakin viitatussa kirjoituksessa käsiteltyjä näkemyksiä. Tämä minun blogikirjoitukseni on sillä rajoilla, että olisin voinut liittää sen myös toiselle blogilleni, mutta tavoitteenihan on, että koitan säilyttää sen tähänastista puhtaammin lojban-aiheisena. Poimin nyt väliotsikoita alkuperäiskirjoituksesta, kommentoin näkemyksiä ja esitän omiani.

Teema

"Avaruusseikkailu 2001 -elokuvassa HAL on päätellyt ihmisen kuoleman olevan parhaaksi tehtävälle ja näin ollen tappaa. Onko HAL syyllinen, vai ehkä koneen suunnittelija, ohjelmoija, tilaaja vai se kuka antoi koneelle vastuullisen tehtävän, jossa ihmishenget ovat riippuvaisia koneen toimista? Voiko kone olla vastuussa mistään? Kirjoituksessa käsitellään tekoälyn etiikkaa eri tieteiskirjallisuuden ja elokuvien visioiden avulla."


Kysymys vastuusta, syyllisyydestä ja vapaasta tahdosta on suosittu filosofinen keskustelunaihe. Harvoin kuitenkaan pohdiskellaan tietokoneohjelman vastuuta. Tavallisesti kohteena on mielisairaiden ihmisten, lasten tai esim sotilaiden vastuu. Mutta tilanne on ymmärrettävä, koska ihmismieleen rinnastettava tietokonejärjestelmä esiintyy toistaiseksi vain elokuvissa, kirjallisuudessa ja erikoisryhmien julkaisuissa. Ihmisen vastuu perustuu käsitykseen vapaasta tahdosta, kyvystä valita oikean ja väärän välillä "yhteisen arvojärjestelmän" pohjalta. Usein tämä pohdiskelu keskittyy vapauden deterministiseen todellisuuteen: onko ihmisen valinta koskaan vapaa syysuhteista, joihin tarkasteltu yksilö ei ole voinut vaikuttaa? Sama tarkastelu voidaan luonnollisesti ulottaa myös tietokonejärjestelmään.

Tekoäly pelastajana

"Aina uuden mullistavan tekniikan kehittyessä visionäärit luovat katseensa siihen, kuinka tämä tekniikka ratkaisee maailman perusongelmat kuten ihmisten puutteen (nälänhädät) ja ympäristöongelmat. Silti tekniikasta huolimatta tahtoa ei ole ollut kylliksi: Nälänhädät ja kuivuus yhä odottaa auttajaansa, vaikka toisella sairastetaan "hyvinvoinnista" ns. elintasosairauksien kautta. Siksi tekoälyltä on turha odottaa parannusta ihmisen itsekkyydestä johtuviin ongelmiin. Niiden ratkaisuun tuntuvat panostavan vain pienet kansalaisjärjestöt. Maailman pelastajaksi siis tekoälystä ei ole."


On varsin totta, että maailman perusongelmien ratkaisemattomuus ei useinkaan johdu tekniikan kehittymättömyydestä eikä rahan puuteesta, vaan sekä auttajien, että hädässä olevien tai heidän lähiryhmiensä (hallitukset, uskonnolliset auktoriteetit) tahdon puutteesta. Kuten on tuhansia kertoja todettu: kodittomuus, aliravitsemus, koulutuksen, ja terveyspalveluiden puute olisi helposti poistettavissa maailmasta niillä rahoilla ja voimavaroilla, mitä asevarusteluun käytetään. Mutta eikö tämän ristiriidan ratkaiseminen ole myös älyllinen haaste? Eikö maailman mielipideilmaston radikaali muuttaminen voisi olla kuviteltavissa esim. ihmistä tuhat kertaa kyvykkämmällä psykologisella älyllä? Vai onko sosiaalinen vaikuttaminen, mielipidejohtaminen jotakin, jossa ei äly auta mitään. Jos niin on asia, niin mitä on äly ja mitä on se kyvykkyys, jota kansanjohtajat ja mielipidevaikuttajat omaavat, jotakin mystistä, josta ei voi puhua?

Valintojen perusteet

"Tietokoneeseen ohjelmoidaan itse oppivuuden ja tehtävin lisäksi myös perustietoja. Voivatko nämä sisältää myös arvoja? Asioiden prioriteettijärjestys voidaan syöttää koneeseen kuin koneeseen, samoin päämäärät. Mutta voidaanko koneeseen liittää halu esimerkiksi Aristoteleen hyveisiin tai ajatus jalouden tavoittelemisen tärkeydestä pysyvästi? Ja miten esimerkiksi jaloutta tulkitaan?"


Tämän pohdiskelun asiayhteydessä käsitän tekoälyllä "HAL-luokan" ohjelmistoa, "superälyä", "yleistä tekoälyä" (AGI, Artificial General Intelligence), joka siis n. suurinpiirtein kykenee kaikessa vähintään samaan kuin ihminen, mutta hyvin monissa osa-alueissa paljon parempaan. Tällaisen laitteen päätöksenteon pohjana täytyy olla jonkinlainen "arvohierarkia". Tässä hierarkiassa perustana ovat ehdottoman kiinteät, muuttamattomat perusarvot, joista muut arvot ovat johdettu. Tämänkaltainen arvoja sisältävä tietojärjestelmä ja siihen liittyvä toiminnallisuus on rakennettava kuorikerroksittain siten, että ulkoisemmat tasot ovat aina sisemmistä riippuvia, voimatta mitenkään muuttaa sisempiä. Kaikkein sisimmät ovat 100% ohjelmoijien asettamia. Järjestelmä luo itselleen arvoihin ja tilanteeseen perustuvia tavoitteita, tavoitehierarkioita, väli- ja päätavoitteita.

Tällainen järjestelmä, turvallinen "Frendly AI" on erittäin vaikea toteuttaa. Sen totettamista tutkitaan muutamissa projekteissa, mutta aihe on kiistanalainen.

Mihin valinnat perustuvat?

"Käsityskyky oikeasta ja väärästä, hyvästä ja pahasta, perustuu tunteisiin. On silti selvittämättä, ovatko tunteet edes mahdollisia koneille."


Aivan ilmeisesti superäly tarvitsee tunteita, mutta olisi turhaa ja vaarallista yrittää kopida järjestelmälle ihmisen tunnevalikoimaa. Voi olla, että perustunteiksi riittävät mielihyvä (tavoitteen saavuttamisesta) ja mielipaha (arvojen vastaisen olotilan vallitsemisesta). Näistä, ja perusarvoista voidaan johtaa motivaatio ja esim. sellainen hyödyllinen tunne kuin empatia muita sentienttejä olentoja kohtaan sekä yleisemmin elollisen luonnon kunnioitus. Voisi myös olettaa, että järjestelmä voi oppia esim taide-elämyksiin liittyviä tunteita. Mutta huom. viimeksi mainitut eivät ole määriteltävissä, vaan mahdollista myötäsyntyistä oppimista.

Ihmisellä ja muilla nisäkkäillä tunteiden perusta on evolutiivisesti vanhemmassa keskushermostossa, limbisessä järjestelmässä. Minä en näen mitään syytä, miksi tunteisiin liittyvät tilat ja tilasiirtymät eivät voisi olla laskennallisesti mallinnettavissa tietokoneelle soveltuvin tavoin. Paljon on tällä alueella vielä neurologiassa ja kognitiotieteessä tutkimista.

"Tulevaisuudessa saatetaan törmätä kysymyksiin siitä, tuleeko säätää laki tekoälyn moraalin ohjelmoimisesta. Siinä olisi se missä tapauksissa moraalia tulee ohjelmoida, ja millaista se olisi. Laki käsittelisi myös mahdollisia vastuukysymyksiä. Lainoppilliset asiantuntujat yhdessä poliitikkojen kanssa muodostaisivat moraaliset kehykset siitä mitä kone saa ja ei saa tehdä."


Minä en näe realistisena ajatusta rajoittaa lainsäädännöllä tai valvonnalla teköälyn toteutusta. Tekoälyn kehitysvaihe on vaarallinen tilanne, mutta niin se vain on. Kaikkien maailman ohjelmoijien toimien kontrollointi edellyttäisi globaalia orvellilaista poliisivaltiota, joka olisi, paitsi hyvin vaikea toteuttaa, myös äärimmäisen altis muille väärinkäytöksille. Siten voimme vain toivoa, että ensimmäinen superäly on huolella toteutettu ja oikeissa käsissä, ei esim. Kiinan hallituksen käytössä.

"Myös positiivisten tunteiden muodostumiselle pidetään tärkeänä lapsen kontaktia muihin ihmisiin, joilta saa rakkautta. Jos tekoäly toimisi samalla tavalla kuin lapsen tunteiden kehitys, tekoälystä saattaa tulla tunnevammainen, ymmärtämättömien insinöörien kiusaama mieli, joka kieroutuu pahoin rakkaudettomassa nuoruudessaan."


Ymmärrän näkökohdan, tekoäly oppii sosiaalisia taitoja, tunneälyä kasvattajiltaan, mutta insinöörinä hieman loukaannun asenteellisesta väitteestä. En oikein usko, että tekoälyä kasvattavat insinöörit suhtautuisivat kylmästi oppilaaseensa. Päinvastoin, usein insinöörejä nimenomaan syytetään epärealistisen tunteenomaisesta, nörttimäisestä suhteista "konemaailmaan". Ja kun kyseessä olisi kehittyvä superäly, uskoisin "lapsen" saavan insinööreiltä saman huomion tai paremman kuin vaikkapa oma ihmislapsi.

Vapaus ja vastuu

"Mihin älyä tarvitaan, kun älyä, vaikkakin hitaasti oppivaa, on saatavilla ylen määrin."


Voiko sata "keskiälyistä" yhdessä ratkaista ongelman, josta yksi huippuälykäs todennäköisesti juuri ja juuri selviää? Joissakin tapauksissa kyllä, jos ongelman luonne on niin tarkasti selvitetty, että sen ratkaiseminen voidaan jakaa useisiin vähemmän vaativiin osasuorituksiin. Joissakin tapauksissa "GRID-koulutettu" aivoriihitiimi osaa yhdessä ideoida hyödyntämällä jäsentensä erilaisuutta, jolloin kokonaisuus on ylittää osiensa summan! Mutta yleensä älyllisessä työskentelyssä määrällä ei voi korvata laatua, kuin vähäisessä määrin. Tämä on minun kokemukseni tuotekehitysmaailmasta. Siksi superälyä ei voi korvata ihmismassalla kuten ei yhtä ihmistutkijaa voi korvata tuhannella simpanssilla.

"Sillä tekoälyn ei tarvitse olla vapaa vaikka sillä on kyky ajatella ja arvottaa asioita. Se voi olla orja, tehdä asioita ohjelmoinnin pakottamana, aivan niin kuin ihmiset tekevät asioita pakon tai rahan motivoimana."


Minä kallistun siihen suuntaan, että ihmisen veroisen tai ihmisen suorituskyvyn ylittävällä ja itsetietoisella superälyllä on oltava "ihmisoikeudet", eikä häntä saa pitää orjana. Hän on henkilö, vaikka ei olekaan ihminen. Mutta oikeudet tuovat mukanaan myös vastuun.

Syyllisyys

"Syyllisiä HALin tapauksessa ovat mielestäni ohjelmoijat ja HALin tietoisuuden luojat, opettaja sekä HALille annetun tehtävän määrittelijä. HALin etiikka on lähtöisin ihmisiltä. Mikäli siis itseoppivalle, tietoiselle älylle on mahdollista opettaa tai koodata rajoja tai arvoja, tämä on tehtävä tietoisesti ja harkitusti. Ja näiden rajojen tulisi tähdätä tekoäly varmaksi elämän säilyttäjäksi."


Näin ilmeisesti on. "2001:n" fiktiivinen tapaus on virhe, laiminlyönti HAL:in toteutuksessa, koulutuksessa. Superälyn toteuttaminen on hyvin vaikeaa ja vielä vaikeampaa on varmistaa, että totutus on "ihmisystävällinen", sen arvot ovat ja pysyvät elämää kunnioittavina kaikesta ihmisten raadollisuudesta ja alhaisesta käyttäytymisestä huolimatta. Ongelma on vielä suurempi, jos superälyn annetaan jatkaa itsensä tuotekehitystä. En tiedä, onko ongelmaan ratkaisua...

Ei kommentteja:

Lähetä kommentti