High-risk AI systems shall be as resilient as possible regarding errors, faults or inconsistencies that may occur within the system or the environment in which the system operates, in particular due to their interaction with natural persons or other systems. Technical and organisational measures shall be taken in this regard. High-risk AI systems that continue to learn after being placed on the market or put into service shall be developed in such a way as to eliminate or reduce as far as possible the risk of possibly biased outputs influencing input for future operations (feedback loops), and as to ensure that any such feedback loops are duly addressed with appropriate mitigation measures.






Organisaation olisi varmistettava, että suuren riskin tekoälyjärjestelmät, jotka jatkavat oppimista käyttöönoton jälkeen, suunnitellaan siten, että palautesilmukoista aiheutuvia riskejä vähennetään. Tämä tarkoittaa sitä, että estetään puolueellisten tuotosten vaikuttaminen tuleviin toimintoihin. Organisaation olisi otettava käyttöön asianmukaiset lieventämistoimenpiteet, joilla puututaan havaittuihin palautesilmukoihin.






Organisaatiolla on oltava käytössään menettelyt järjestelmävirheiden käsittelemiseksi. Näihin kuuluvat ainakin seuraavat:
Digiturvamallissa kaikki vaatimuskehikkojen vaatimukset kohdistetaan universaaleihin tietoturvatehtäviin, jotta voitte muodostaa yksittäisen suunnitelman, joka täyttää ison kasan vaatimuksia.
.png)