Niko Kaistakorpi "Contribute. Engage. Participate. Cynicism and apathy are poisons for the spirit." Edward Norton

EU:n luonnos luotettavaa tekoälyä koskevista eettisistä ohjeista

  • Luonnos: Luotettavaa tekoälyä koskevat eettiset ohjeet. Lähde: EU
    Luonnos: Luotettavaa tekoälyä koskevat eettiset ohjeet. Lähde: EU

EU:n tekoälyä käsittelevä työryhmä on julkaissut 18.12.2018 luonnoksen Draft Ethics Guidelines for Trustworthy AI, josta on olemassa suomenkielinen lyhyehkö tiivistelmä. Tekoälyn ja datan monipuolisen käytön kehitys luo meille valtavia mahdollisuuksia, mutta samalla se vaatii pohdintaa käytön etiikasta ja rajoista esimerkiksi yksityisyyden ja tasa-arvon kannalta.

Eurooppa suhtautuu kenties kireimmin tähän asiaan maailmassa, mikä toisaalta edesauttaa tarvittavaa sääntelyä pitäen siten huolta myös tarvittavista rajoitteista. Samalla tämä kuitenkin aiheuttaa kilpailukykyhaasteita verrattuna maihin, joissa yksityisyydensuoja sekä säännöt datan käytöstä eivät ole läheskään samalla tasolla. Usein on esitetty uhkakuvia, joiden mukaan sääntöjemme vuoksi jäämme jälkeen tämän alueen kehityksessä.

Kiinahan on täällä hetkellä tämän alueen villi itä, jossa lähes kaikki on mahdollista ja samalla asiat kytkeytyvät voimakkaasti myös valtion valvontakoneistoon. USA taas on villi länsi, jossa taas kaupalliset intressit ovat vahvoja ja tietoja myydään sekä luovutetaan paljon yhdistellen niitä myös toisiin. Kaupallisten toimjoiden ohessa esimerkiksi FBI:llä on paljon valtaa ja mahdollisuuksia hankkia tietoa. Esimerkiksi jokin aika sitten paljastui tapaus, jossa kuluttajien dna-testejä tekevä yritys antoi 2 miljoonan ihmisen tietoja FBI:n käyttöön kertomatta siitä asiakkailleen.

EU:ssa joudumme tekemään valintoja löytääksemme tasapainon mahdollisuuksien ja uhkien välillä.

Luotettavan tekoälyn osa-alueet

Luonnoksen mukaan meidän tulee pyrkiä maksimoimaan tekoälyn hyödyt ja minimoimaan sen riskit. Tekoälyn kehittämisessä on noudatettava ihmiskeskeistä lähestymistapaa: tekoälyn kehittäminen ja käyttö eivät ole itseisarvo vaan keinoja parantaa ihmisten hyvinvointia.

Luonnoksessa määritellään kaksi osa-aluetta luotettavalle tekoälylle:

  1. Sen olisi kunnioitettava perusoikeuksia, sovellettavaa lainsäädäntöä sekä keskeisiä periaatteita ja arvoja, millä taataan sen ”eettinen tarkoitusperä”
  2. Sen olisi oltava teknisesti luotettava, sillä vaikka tarkoitus olisi hyvä, teknologian kömpelyys voi aiheuttaa tahatonta haittaa.

Näiden totauttamiseksi annetaan mm seuraavia ylätason linjauksia:

  • Varmista tekoälyn ihmiskeskeisyys: Tekoälyn kehittämisessä, käyttöönotossa ja käytössä tulisi pyrkiä kohti ”eettistä tarkoitusperää”, joka perustuu perusoikeuksiin, yhteiskunnallisiin arvoihin sekä hyvään pyrkimisen, vahinkojen välttämisen, ihmisen itsemääräämisoikeuden, oikeudenmukaisuuden ja selitettävyyden (explicability) eettisiin periaatteisiin. Tämä on ratkaisevan tärkeää luotettavaa tekoälyä kohti pyrkiessä.
  • Arvioi tekoälyn mahdollisia vaikutuksia ihmisiin ja yhteiseen etuun perusoikeuksien, eettisten periaatteiden ja arvojen perusteella. Erityistä huomiota tulisi kiinnittää tilanteisiin, joihin liittyy haavoittuvia ryhmiä, kuten lapsia, vammaisia tai vähemmistöjä, tai joissa vallitsee vallan tai tiedon epätasapaino, kuten työnantajien ja työntekijöiden tai yritysten ja kuluttajien välillä

Yksi kohdista eli selitettävyys on kenties oudompi ja kaipaa selvennystä. Tekoälyhän rouskuttaessaan dataa päätyy johonkin tulokseen tekemiensä päätelmien pohjalta. On tärkeää, että kyseessä ei ole ns musta laatikko, jolloin emme tiedä miten se päätyi johonkin tulokseen. Ajatellaan esimerkkinä vaikkapa tekoälyn tekevän ehdotuksia tai jopa päätöksiä vakuutuksen hinnasta henkilön terveysdatan pohjalta. Jo kuluttajansuojan kannalta on oltava mahdollisuus saada selville, miten se päätelmänsä teki. Emme voi antaa jonkun mustan laatikon tehtäväksi päättää ilman mahdollisuutta selittää päätöksen perusteet.

Ensimmäisen luvun yleisten periaatteiden ja tavoitteiden jälkeen kaksi muuta lukua syventävät ohjeita tarkemmalle tasolle. Näihin tutustumisen jätän teille arvon lukijat mikäli aihe kiinnostaa.

Politiikka ja lainsäädäntö jälkijunassa - teknologia porskuttaa kaukana edellä

Poliittinen päätöksenteko on kaukana perässä verrattuna siihen, mikä on teknologisesti mahdollista. Osin eettiset ja moraaliset kysymykset ovat nyt kaupallisten toimijoiden vastuulla. Yleinen periaatehan on, että mikäli jotain ei olla erikseen kielletty, niin se on sallittua. Paitsi toki Suomessa alkoholiasioissa, kuten Korkeimman oikeuden päätös Varustelekan oluiden etämyyntitapauksessa osoitti. wink

Klassinen esimerkki eettisestä ongelmasta on itseohjautuvan auton päätöksenteko tilanteessa, jossa joko jalankulkija tai auton kuljettaja kuolee. Autonvalmistaja on jo nyt tehnyt järjestelmässään päätöksen tästä, missä suojellaan auton kuljettajaa. Tämä taas tarkoittaa sitä, että voidaan jyrätä kadulla oleva lapsi kuljettajan sijaan. Tässä on melkoinen eettinen ongelma ainakin minun mielestäni.

Suomessahan on Pekka Ala-Pietilän johtama tekoälyohjelma, jossa pyritään ottamaan näihin asioihin kantaa ja varmistamaan Suomen kehitys tekoälyssä ja mm robotiikassa. Lisäksi esimerkiksi Sitra on ottanut kantaa myös eettisiin kysymyksiin.

Poliitikot viljelevät digitalisaatiota ja tekoälyä ratkaisuina kaikkeen, mutta en ole vielä oikein vakuuttanut kuinka hyvin parisataa kansanedustajaa on perillä näistä asioista. Toivottavasti ovat, sillä tarvitsemme päätöksiä ja eduskunnassa niitä näistäkin asioista tehdään osin EU:n päätöksiä soveltaen.

Teknologinen kehitys menee kovaa vauhtia eteenpäin - joskus on kuitenkin hyvä pysähtyä miettimään minne se meitä vie ja varmistaa sen olevan haluamamme kohde.

 

 

 

 

Piditkö tästä kirjoituksesta? Näytä se!

1Suosittele

Yksi käyttäjä suosittelee tätä kirjoitusta. - Näytä suosittelija

NäytäPiilota kommentit (7 kommenttia)

Käyttäjän kosonenjuhapekka kuva
Juha-Pekka Kosonen

Onkohan luonnoksissa otettu huomioon kirjailija Isaac Asimovin luomia robotiikan pääsääntöjä:

-Robotti ei saa vahingoittaa ihmisolentoa tai laiminlyönnein saattaa tätä vahingoittumaan.
-Robotin on noudatettava ihmisolentojen sille antamia määräyksiä, paitsi jos ne ovat ristiriidassa Ensimmäisen pääsäännön kanssa.
-Robotin on suojeltava omaa olemassaoloaan, kuitenkin siten, että sen toimet eivät ole ristiriidassa Ensimmäisen ja Toisen pääsäännön kanssa.

Kaiken "tekoälyn" suunnittelun tulisi lähteä näiden lakien pohjalta.

Käyttäjän NikoKaistakorpi kuva
Niko Kaistakorpi

Hyviä lakeja, en nyt äkkiseltään huomannut, että suoraan noita olisi. Enemmän keskittyy tekoälyyn kuin robotteihin vaikka ne jollain tasolla mainitaa. Tuli tuosta mieleen yksi osuus. mikä itseä mietitytti:

"Lethal Autonomous Weapon Systems (LAWS)
LAWS can operate without meaningful human control over the critical functions of selecting and attacking individual targets. Ultimately, human beings are, and must remain, responsible and accountable for all casualties. Currently, an unknown number of countries and industries are researching and developing lethal autonomous weapon systems, ranging from missiles capable of selective targeting, to learning machines with cognitive skills to decide whom, when and where to fight without human intervention. This raises fundamental ethical concerns, such as the fact that it can lead to an uncontrollable arms race on a historically unprecedented level, and can create military contexts in which human control is almost entirely relinquished and risks of malfunction not addressed."

Kokonaisuudessaan tuo luonnos kaipaa vielä lisää konkretiaa.

Käyttäjän MattiKarnaattu kuva
Matti Karnaattu

Ensimmäistä lakia on jo rikottu.

Yksinkertaisin tapa on ihan vain miina mutta miksei myös vaikka konekivääripesäke mikä ampuu automaattisesti ihmisiä.

Sekin todennäköisesti tehty, että on jotain radiomiinoja, konekiväärejä, droneja, PST. tai ilmasta ilmaan ohjuksia jne. jotka kommunikoivat keskenään että koordinoivat iskun kohteisiin että saavat kaikki kerralla hävitettyä.

Käyttäjän NikoKaistakorpi kuva
Niko Kaistakorpi

Harvemmin sotapuolella eettiset säännöt toteutuu - valitettavasti.

Käyttäjän erkkilaitila1 kuva
Erkki Laitila

Vastuullinen tekoäly = Responsible AI. Google kertoo kirjoistani:

https://www.google.com/search?client=firefox-b-d&q...

Saako täällä kertoa, että on tuottanut aiheesta eniten videoita ja aineistoja ja ideoita 30 vuoden kokemustaustallaan:
http://metayliopisto.fi/tekoaly-yhteiskunnan-kayta...

Metatekoäly on tapa kehittää IT-sovelluksia tekoälykin huomioiden.

Käyttäjän NikoKaistakorpi kuva
Niko Kaistakorpi

Toki saa, sehän osuu suoraan aiheeseen. :-)

Käyttäjän erkkilaitila1 kuva
Erkki Laitila

Hyvä,
olen soittanut aika moneen paikkaan edistääkseni asiaa. Paljon on kuhinaa, mutta kovin järjestelmällistä ei ole näkyvissä.
Toivotaan parasta, sillä AI on yksi kelvollinen tapa edistää yhteiskuntaa.

Toimituksen poiminnat

Tämän blogin suosituimmat kirjoitukset