maanantaina, helmikuuta 10, 2025

Tekoälyn eettiset ongelmat

Tekstin kirjoittamisessa on käytetty apuna ChatGPT:tä, niin kornilta kuin se kuulostaakin.

Tekoäly nousi puheenaiheeksi Keskustassa taannoin ja puolesta-vastaan -keskustelu oli välillä kärjekästäkin. Se ei varsinaisesti yllättänyt ainakaan minua. 

Kirjoitin jo pari vuotta sitten tänne blogiin otsikolla Virtuaalihevoset ja tekoäly. Totesin tuossa tekstissä, että tekoäly varmasti tulee jossain muodossa uimaan virtuaalimaailmaan. Emme me elä missään umpiossa. Samoin esitin omasta puolestani vienon toiveen, ettei siitä kuitenkaan tulisi mitään suurta kahtiajakajaa, että olisi me hyvät ja fiksut ja nuo toiset tyhmät. Se olisi vahingollista virtuaalimaailmalle. En tiedä miten asiassa lopulta käy, kirjoittamishetkellä keskustelu osoittaa laantuneen.

En nyt puutu tässä tuohon keskusteluun tai tekoälyyn erityisesti virtuaalimaailmassa, vaan tekoälyn eettisiin ongelmiin yleisesti. Keskustelu nimittäin lähti kahden tekoälyyn liittyvän ongelman nimeämisestä (tekijänoikeudet ja sähkönkulutus), mutta eiväthän ongelmat niihin rajoitu. ChatGPT itse osasi listata peräti 8 eettista ongelmaa, joita tekoälyn käyttöön voi liittyä (oh the irony...):

  • Vääristymät ja syrjintä
  • Tietosuoja ja yksityisyys
  • Väärän tiedon levittäminen ja manipulointi
  • Läpinäkyvyyden ja vastuullisuuden puute
  • Tekoälyn vaikutus työmarkkinoihin
  • Tekoälyn käyttö asejärjestelmissä
  • Ylivoimaisen tekoälyn, ts. superälyn riskit
  • Eettisten sääntöjen ja lainsäädännön puute

Näiden lisäksi tunnistan itse vielä yhden eettisen ongelman: halpatyövoiman käyttö ja epäasialliset työolot tekoälyn kouluttamisessa ja koulutusmateriaalin seulonnassa. Tämäkään lista tuskin on kattava, vaan todennäköisesti asiaan liittyy muitakin ongelmia, joita en osaa ajatella itse tai jotka eivät ole vielä käyneet ilmi.

Käyn tässä läpi lyhyesti ja hyvin pintapuolisesti noita ongelmia tarkemmin. En ole mikään asiantuntija enkä varsinkaan tarjoa ratkaisuehdotuksia, koska ei minulla niitä ole. Saatan myös olla väärässä joissain asioissa. Vaikka käytinkin tuon listan kokoamiseen tekoälyä, minä en ole tekoäly. Ja voi se tekoälykin olla väärässä.

Tekijänoikeudet

ChatGPT:kin sen myönsi: tekoälyn kehityksessä ja käytössä voi syntyä tekijänoikeusrikkomuksia, ja nykyisiä tekoälymalleja, kuvageneraattoreita ja koodia tuottavia järjestelmiä on saatettu hyvinkin kouluttaa materiaalilla, joka on tekijänoikeuden suojaamaa. Jotkin tekoälymallit on toki koulutettu pelkästään avoimilla tai lisensoiduilla aineistoilla, mutta minään yleisenä käytäntönä tätä tuskin voidaan pitää.

Oikeudellisesti ei ole lainkaan selvää, onko tekijänoikeuden suojaaman materiaalin käyttö tekoälyn kouluttamisessa sallittua vai ei. Voidaan vedota USA:n ns. Fair Use -periaatteeseen, joka sallii tekijänoikeuden alaisten materiaalien rajoitetun käytön esimerkiksi tutkimuksessa ja analysoinnissa. Se, että meneekö tekoälyn kouluttaminen Fair Usen käyttötapauksiin, on kysymysmerkki. EU:ssa on oma teksti- ja datanlouhintadirektiivinsä, joka sallii tiettyjen materiaalien louhinnan tekoälyjen kouluttamiseen, mutta oikeudenhaltijat voivat erikseen kieltää sen.

Tekijänoikeuksiin liittyvät oikeudenkäynnit esimerkiksi OpenAI:ta vastaan ovat kesken, joten oikeudellista tulkintaa asioista ei vielä ole.

Ympäristövaikutukset

Tekoäly vaatii laskentatehoa, mutta en usko, että se ainakaan vielä on suurin sähkönkuluttaja ja sitä kautta hiilidioksidipäästöjen aiheuttaja ICT-alalla. Tulevaisuudessa siitä voi kyllä tulla se isoin sähkönkuluttaja. Tämä on yksi hyvä syy suosia päästöttömiä sähköntuotantotapoja.

ICT-ala vastaa 1,8-2,8 % maailman hiilidioksidipäästöistä /1/. Minulla ei ole lähdettä tähän väitteeseen, mutta olen jostain saanut sellaisen käsityksen, että suurimmat sähkösyöpöt olisivat video- ja audiostreamaus, kryptovaluuttojen louhinta ja ehkä myös internet-mainonta. Sähkönkulutuksen lisäksi suuret konesalit ja supertietokoneet vaativat vettä jäähdytykseen. /11/

Nyrkkisääntönä voidaan pitää sitä, että kaikki laskentatehoa vaativa asia, joka ei tapahdu omalla tietokoneella tai älypuhelimella, tapahtuu jossain muualla ja vie sähköä jossain muualla. Maailmassa on viitisen miljardia internetin käyttäjää, joten internetin sähkönkulutus on ihan merkittävä seikka. Jos oma sähkönkulutus huolettaa, kannattaa vilkaista Climate Impact Partnersin vähän jo vanhempi artikkeli The carbon footprint of the internet. Sieltä löytyy sähkönkulutuksen vähentämiseen käytännön vinkkejä, jotka ainakin maatiaisjärjellä kuulostavat ihan päteviltä.

Tietenkin tekoälyt kehittyvät myös tehokkaammiksi. Vastikään julkaistu DeepSeek on niin iso juttu nimenomaan siksi, että se on merkittävästi tehokkaampi kuin muut tekoälyt. Se vaatii vähemmän laskentatehoa /7/ ja pienempi laskentateho tarkoittaa pienempää sähkönkulutusta, mahdollisesti myös pienempää jäähdytystarvetta. Nimenomaan tehokkuutensa takia se on heilutellut siruvalmistaja NVidian osaketta, koska DeepSeek on toteutettu käyttäen halvempia siruja kuin NVidian parhaat. Mutta ennen kuin lähdet liputtamaan DeepSeekin puolesta, kannattaa lukaista vähän pidemmälle...

Vääristymät ja syrjintä

Tekoälyllä ei ole moraalia, sillä on vain se koulutusdatansa. Ja koska koulutusdata on peräisin ihmisten luomasta materiaalista, se sisältää erittäin todennäköisesti myös kaikki ihmisten ennakkoluulot ja syrjivät asenteet. Tämä voi johtaa eriarvoisuuden kasvuun ja suoranaiseen syrjintään. Koska toiminta ei ole läpinäkyvää, vääristymiä ja syrjintää tuskin voidaan osoittaa mitenkään. 

Tässä pelissä naiset ovat altavastaajina (eivät toki ainoita), koska karrikoidusti voidaan sanoa, että tekoälyä kehittävät miehet miehille. Teknologia nyt yleisestikin on kovin miesvaltainen ala ja se on näkynyt jo tähän mennessä useissa tapauksissa ihan ilman tekoälyäkin /8/ /9/ /10/. Tekoälyllä ei ole moraalia, muttei se ymmärrä tasa-arvostakaan mitään.

Tietosuoja ja yksityisyys

Luettelen tässä kolme otsikkoon liittyvää asiaa: koulutusmateriaalin mahdolliset yksityisyysloukkaukset, tekoälyn käyttö ihmisten valvonnassa ja tekoälylle syötetyn materiaalin tietosuoja. Lista tuskin on täydellisen kattava.

Kukaanhan ei voi taata, etteikö tekoälyn kouluttamiseen käytetty materiaali voisi sisältää henkilötietoja, kuten nimiä, osoitteita ja sähköpostiosoitteita. Näitä on todennäköisesti kerätty ilman käyttäjien suostumusta ja niiden poistaminen tekoälyjärjestelmistä voi olla hankalaa, ellei peräti mahdotonta. Miten tekoäly käyttää näitä tietoja, sitä ei tiedä kukaan.

Yritykset ja valtiot voivat käyttää ja käyttävätkin tekoälyä ihmisten seuraamiseen. On kasvojentunnistusta, työntekijöiden valvontaa, sensuuria ja muuta semmoista. Tähän ei suinkaan aina ole kysytty valvotuilta lupaa ja Kiinahan käyttää jo laajamittaista tekoälyvalvontaa kansalaisiinsa. Valvontaa on tietenkin tehty jo ennen tekoälyä, mutta se todennäköisesti tekee siitä paljon tehokkaampaa.

Tietosuoja kannattaa ottaa huomioon myös silloin, kun itse syöttää jotain tietoa tekoälylle. Siitä ei nimittäin ole minkäänlaisia takeita, mihin sisältö päätyy. Itse olen erityisen varovainen kaikenlaisten yrityksen sisäisten tietojen kanssa. Niitä ei ikinä lykätä minkään tekoälyn paranneltaviksi (ellei kyseessä ole yrityksen oma tekoäly, jonka ei ainakaan pitäisi vuotaa sinne syötettyjä tietoja yhtään mihinkään).

Väärän tiedon levittäminen, manipulointi ja propaganda

Tekoälyllä voidaan luoda helposti uskottavan näköistä sisältöä, joka ei kuitenkaan ole totta: valeuutisia, deepfake-videoita ja niin edelleen. Kun siihen lisätään sosiaalisen median algoritmit, on soppa valmis. Vaalivaikuttamistahan somessa on nähty jo /2/, tekoälyn lisääminen sekaan tekee siitä todennäköisesti entistä tehokkaampaa.

Ja nythän uutuutena on tuo kiinalainen DeepSeek, joka sensuroi itse itseään, kun kysytään Kiinan hallinnon epäkohdista /3/. Ei se toki suoraan valehtelemaan alkanut tuossa lähdeartikkelin videolla, mutta eipä sekään olisi yllättänyt sinänsä. Tekoälyhän tietää vain sen, mitä sille on kerrottu eikä se harrasta lähdekritiikkiä. 

Läpinäkyvyyden ja vastuullisuuden puute

Tekoälystä voi tulla ns. musta laatikko: se tekee päätöksiä, joiden perusteita ihmiset eivät täysin ymmärrä. Päätösten oikeudenmukaisuutta ja perusteluja ei välttämättä pystytä selvittämäänkään. Tämä on vakava asia, varsinkin yhdistyessään tuohon vääristymät ja syrjintä -kohtaan. Ja koska "vastuu" on tekoälyn, kukaan muu ei sitä vastuuta halua todennäköisesti ottaa.

Sinänsähän tässä ei ole mitään erityisen uutta, koska sama ongelma koskee jo sosiaalisen median algoritmeja. Yritykset eivät ole halukkaita avaamaan algoritmiensa toimintaa juuri millään tavoin, mutta ne vaikuttavat vahvasti siihen, mitä näemme selatessamme somea.

Tekoälyn vaikutus työmarkkinoihin

Voidaan tietysti keskustella, onko tämä varsinaisesti eettinen ongelma, mutta se nyt on tässä listassa joka tapauksessa. Asiasta on puhuttu jo kauan ja yleensä juuri pelottelu edellä: tekoäly vie työpaikkasi. Todennäköisesti työpaikkasi vie ihminen, joka osaa käyttää tekoälyä. Joka tapauksessa osaamistarpeet tulevaisuuden työelämässä voivat olla hyvin erilaiset kuin nyt ja se on tietysti aina ongelma yksilölle, mutta myös yhteiskunnalle.

Tekoälyn käyttö asejärjestelmissä

Tämä toki on mahdollisimman kaukana virtuaalimaailmasta, mutta riski joka tapauksessa. Tällä hetkellä autonomisissa asejärjestelmissä ihmisillä on edelleen päätösvalta voimankäytöstä (human in the loop -periaate), mutta sitä ei tiedä kukaan, että tuleeko näin olemaan jatkossakin. 

Kuka on vastuussa, jos tekoälyn ohjaama drooni hyökkääkin itsenäisesti jostain odottamattomasta syystä tai jonkin virheen takia? Tai jos tekoäly erehtyy kohteesta ja drooni pudottaa pomminsa oman puolen joukkojen päälle? Tai GPS-häirinnän takia drooni ei olekaan vastapuolen linjojen päällä, kuten se kuvittelee olevansa, vaan sairaalan kohdalla ja tekoäly päättää pudottaa pomminsa sinne? Jos ihmiset eivät saa kolmatta maailmansotaa aikaiseksi, tekoäly voi sen tehdäkin. Kyllä, olen välillä pessimisti.

Ylivoimainen tekoäly

Tämä saattaa kuulostaa scifi-hommilta enkä pysty ennustamaan, tuleeko siitä kenties totta joskus. Mutta mitä jos tekoälystä kehittyy tai kehitetään ihmistä huomattavasti älykkäämpi ns. superäly, ja mitä jos sen tavoitteet ovat ristiriidassa ihmiskunnan etujen kanssa? Tuleeko orjasta isäntä ja isännästä orja? Voisiko tekoäly likvidoida koko ihmiskunnan, koska eiväthän ihmiset yleisesti ottaen ole kovin viisaita? Ehkä tekoäly katsoo, etteivät nuo tohelot saa aikaiseksi kuin ongelmia (sodat, ympäristön saastuminen, ilmastonmuutos jne) eikä se välttämättä olisi edes väärässä. Ikävä tietysti meille.

Eettisten sääntöjen ja lainsäädännön puute

Tekoälyn kehitys on ollut nopeaa ja lainsäädäntö ei pysy perässä. Tätähän sivuttiin jo tuolla tekijänoikeus-kysymyksen kohdalla. Kansainvälinen sääntely on vaikeata, koska todennäköisesti aina on jokin maa, joka sallii jotain, jonka toiset kieltävät. Esimerkiksi EU ja USA saattavat päättää, että  autonomisissa asejärjestelmissä on sovellettava aina human in the loop -periaatetta (hatusta heitetty esimerkki), jolloin joku ihminen on loppukädessä vastuussa voimankäytöstä. Kiina, Venäjä tai Pohjois-Korea saattaa hyvinkin todeta, että ei koske meitä, me teemme täysin tekoälyyn perustuvia asejärjestelmiä.

Tekoälyä kehittävät yritykset ja niiden tarkoitus on tuottaa rahaa, ei tehdä hyväntekeväisyyttä, joten ne taatusti yrittävät estää tai ainakin jarruttaa kaikenlaista sellaista sääntelyn kehitystä, joka mahdollisesti pienentää tuottoja ja kehitysmahdollisuuksia. Koska näillä yrityksillä on rahaa ja valtaa, ne todennäköisesti pystyvät vaikuttamaankin lainsäädäntöön. Enkä usko, että yrityksillä on minkäänlaisia moraalisia ongelmia siirtää kehitystyötään tai myydä järjestelmiä maihin, joissa sääntely on vähäisempää tai olematonta, jos sieltä vain löytyy osaavaa työvoimaa. 

Halpatyövoiman käyttö ja epäasialliset työolot

ChatGPT:n aiempien versioiden ongelmana oli se, että se saattoi yllättäen tuottaa rasistista, väkivaltaista, seksististä tai muuta haitallista materiaalia. Tietenkin, sehän oli koulutettu internetistä poimitulla materiaalilla ja kyllä netistä tätä laatua löytyy. Kuten sanoin, tekoälyllä ei ole moraalia. Ongelman ratkaisuksi kehitettiin tekoälypohjainen mekanismi, joka tunnistaa haitallisen materiaalin ja torjuu sen /4/.

Mutta kuka sille mekanismille tarjoaa ne esimerkit, joita sen pitäisi osata tunnistaa ja torjua? Ihmiset tietysti. OpenAI ulkoisti homman kenialaiselle Sama-yritykselle. Työntekijät saivat kymmeniä tuhansia tekstinpätkiä, jotka piti lukea ja merkitä sisällön perusteella, voidaanko niitä käyttää tekoälymekanismin kouluttamiseen eli sisältävätkö ne haitallista materiaalia. Työntekijät saivat alle kahden dollarin tuntipalkan työstään.

Jo tuo tuntipalkka kuulostaa toki varsin vähäiseltä, mutta Keniassa se voi olla kohtalainen. En tiedä, mutta hyvät rahat Sama todennäköisesti kääri siitä välistä. Suurempi ongelma kuitenkin oli se, että läpikäydyt tekstit sisälsivät hyvinkin kuormittavaa materiaalia, kaikkea mitä nyt voi kuvitella löytyvän internetin pimeimmistä kolkista. Työntekijöiden henkiseen jaksamiseen ei juurikaan panostettu /5/.

Tekoälyyn liittyen tarjolla on myös uudentyyppistä alustatyötä, johon rekrytään ihmisiä Suomestakin. Esimerkiksi Outlier tarjoaa freelance-perustaista tietotyötä tekoälyn parissa. Osalla työntekijöistä palkat ovat melko alhaiset, osalla ihan hyvät, joten Outlieria ei voi suoraan syyttää halpatyövoiman käytöstä. Mutta sen kohdalla on raportoitu paljon muista ongelmista: tuntipalkka ei ollutkaan sitä mitä luvattiin, mitään ihmiskontaktia yritykseen ei ole, projekteista voidaan potkaista ulos yllättäen ilman selityksiä, valituksia ei juuri käsitellä, ohjeet voivat muuttua kesken kaiken. Hesarin artikkelissa haastatellun Outlierin työntekijän mukaan ihmiset ovat siinä yrityksessä koneiston osia ja sillä tavalla heitä myös kohdellaan /6/. 

Mitä ihmettä sitten pitäisi tehdä?

ChatGPT tarjosi näihin kaikkiin ongelmiin ratkaisuehdotuksia, mutta suurin osa ratkaisuehdotuksista perustui siihen, että pitäisi olla valvontaa, lainsäädäntöä ja halua kehittää vastuullista tekoälyä. No, eipä ole juuri näkynyt. Lainsäädäntö ja siihen liittyvä valvonta tulevat joka tapauksessa aina perässä, se kuuluu vähän niiden luonteeseen. Vastuullisuus noin yleisesti ei ole kovin muodikasta ja se jää turhan helposti taloudellisten seikkojen jalkoihin.

Me täällä virtuaalimaailmassa emme voi ratkaista näitä asioita, harmi kyllä (minulla ainakin olisi pari ideaa). Toisaalta tuntuisi vähän hullulta yrittää sulkea silmät tekoälyltä, kieltää sen käyttö kaikin tavoin ja yrittää olla kuin sitä ei olisi olemassakaan. Ei se sillä katoa. Minun ehdotukseni on se, että yritämme pysytellä kärryillä kehityksessä ja yrittää löytää ja jakaa toisillemme niitä vastuullisia tapoja käyttää tekoälyä. Jos sitä siis haluaa käyttää, pakkohan ei toki ole. Virtuaalihevosia on harrastettu yli 20 vuotta ihan ilman tekoälyä ja näin varmasti voi tehdä jatkossakin. 

Lähteet

6. Storås, N. HS. Älykkäiden armeija. (maksumuurin takana)
8. Eveleth, R. The Atlantic. How Self-Tracking Apps Exclude Women

Ei kommentteja:

Lähetä kommentti