The risk management system shall be understood as a continuous iterative process planned and run throughout the entire lifecycle of a high-risk AI system, requiring regular systematic review and updating. It shall comprise the following steps:






Organisaation on arvioitava virallisesti tekoälyjärjestelmiensä vaikutukset yksilöihin, ryhmiin ja yhteiskuntaan ennen käyttöönottoa. Tämä on erityisen tärkeää julkisille elimille, julkisten palvelujen tarjoajille ja tekoälyjärjestelmien käyttöönottajille työllisyyden ja luoton arvioinnissa.
Arvioinnin olisi sisällettävä seuraavat seikat:
Arviointia olisi päivitettävä, jos järjestelmän keskeiset osat muuttuvat käytön aikana. Sen olisi tarvittaessa täydennettävä olemassa olevia tietosuojaa koskevia vaikutustenarviointeja (DPIA).






Organisaation on luotava prosessi tekoälyriskien arvioimiseksi ja ylläpidettävä sitä. Prosessia on ohjattava organisaation tekoälypolitiikalla ja tekoälytavoitteilla, jotta varmistetaan, että myöhemmät arvioinnit tuottavat johdonmukaisia, päteviä ja vertailukelpoisia tuloksia.
Prosessissa olisi tunnistettava riskit, jotka voivat joko edistää tai estää organisaation tekoälytavoitteiden saavuttamista. Riskianalyysiin olisi sisällyttävä organisaatioon, ihmisiin ja yhteiskuntaan kohdistuvien mahdollisten seurausten arviointi, näiden riskien todennäköisyyden arviointi mahdollisuuksien mukaan ja näiden riskien tasojen määrittäminen.
Prosessiin olisi myös sisällyttävä tekoälyriskejä koskeva arviointi vertaamalla analyysin tuloksia määriteltyihin riskikriteereihin ja asettamalla tunnistetut riskit tärkeysjärjestykseen myöhempää käsittelyä varten. Tekoälyriskien arviointiprosessista ja sen tuloksista olisi säilytettävä dokumentoitua tietoa.






Suuririskisiin tekoälyjärjestelmiin tehtävien merkittävien muutosten vaikutukset on arvioitava etukäteen ja ne on toteutettava hallitusti. Tahattomien muutosten seuraukset on arvioitava ja pyrittävä lieventämään mahdollisia haittavaikutuksia.
Tähän prosessiin on kuuluttava myös markkinoille saattamisen jälkeisestä seurantajärjestelmästä saatujen tietojen analysointi uusien tai aiemmin tuntemattomien riskien tunnistamiseksi. Näiden arviointien tuloksia olisi käytettävä järjestelmän riskinhallintasuunnitelman säännölliseen päivittämiseen.
Merkittäviin muutoksiin voivat kuulua: organisaation, toimintaympäristön, liiketoimintaprosessien ja tietojärjestelmien muutokset sekä suuren riskin järjestelmiin tehtävät muutokset, jotka edellyttävät muodollista arviointia, dokumentoitua riskinarviointia ja hyväksyntää ennen käyttöönottoa. Muutokset voidaan tunnistaa esimerkiksi johdon arvioinneissa ja muussa suuren riskin tekoälyjärjestelmien kehittämiseen ja ylläpitoon liittyvässä työssä.






Organisaation olisi arvioitava riskit, joita voi syntyä, kun suuren riskin tekoälyjärjestelmää käytetään olosuhteissa, joissa väärinkäyttö on kohtuudella ennakoitavissa. Tässä prosessissa olisi otettava huomioon skenaariot, joissa järjestelmää käytetään ilkivaltaisesti tai väärin, ja arvioitava mahdolliset vaikutukset terveyteen, turvallisuuteen ja perusoikeuksiin.






Organisaation olisi pantava täytäntöön markkinoille saattamisen jälkeistä seurantaa koskeva prosessi suunnitelmassaan määritellyllä tavalla. Tähän kuuluu se, että se kerää, dokumentoi ja analysoi aktiivisesti ja järjestelmällisesti asiaankuuluvia tietoja suuririskisten tekoälyjärjestelmiensä suorituskyvystä koko niiden elinkaaren ajan.
Prosessiin olisi kuuluttava sen seuranta ja analysointi, miten sen korkean riskin tekoälyjärjestelmä on vuorovaikutuksessa muiden järjestelmien kanssa. Analyysin avulla olisi tunnistettava kaikki odottamattomat suorituskykyyn liittyvät ongelmat tai riskit, jotka johtuvat vuorovaikutuksesta. Tulokset olisi dokumentoitava ja niitä olisi käytettävä järjestelmän jatkuvan vaatimustenmukaisuuden ja turvallisuuden arviointiin, jos ne eivät sisällä lainvalvontaviranomaisten käyttämän suuren riskin tekoälyjärjestelmän arkaluonteisia toimintatietoja.Analyysin avulla olisi arvioitava, noudattaako järjestelmä jatkuvasti vaatimuksia, ja sitä olisi käytettävä korjaavien ja ehkäisevien toimien perustana.





Organisaation olisi toteutettava riittävät lieventämis- ja valvontatoimenpiteet, joilla puututaan sellaisiin suuren riskin tekoälyjärjestelmiin liittyviin riskeihin, joita ei voida poistaa suunnittelun avulla. Näiden toimenpiteiden valinnan olisi perustuttava riskianalyysiin, ja ne olisi dokumentoitava asianmukaisesti.
Digiturvamallissa kaikki vaatimuskehikkojen vaatimukset kohdistetaan universaaleihin tietoturvatehtäviin, jotta voitte muodostaa yksittäisen suunnitelman, joka täyttää ison kasan vaatimuksia.
.png)