1. High-risk AI systems shall be designed and developed in such a way, including with appropriate human-machine interface tools, that they can be effectively overseen by natural persons during the period in which they are in use.
2. Human oversight shall aim to prevent or minimise the risks to health, safety or fundamental rights that may emerge when a high-risk AI system is used in accordance with its intended purpose or under conditions of reasonably foreseeable misuse, in particular where such risks persist despite the application of other requirements set out in this Section.
3. The oversight measures shall be commensurate with the risks, level of autonomy and context of use of the high-risk AI system, and shall be ensured through either one or both of the following types of measures:
4. For the purpose of implementing paragraphs 1, 2 and 3, the high-risk AI system shall be provided to the deployer in such a way that natural persons to whom human oversight is assigned are enabled, as appropriate and proportionate:
5. For high-risk AI systems referred to in point 1(a) of Annex III, the measures referred to in paragraph 3 of this Article shall be such as to ensure that, in addition, no action or decision is taken by the deployer on the basis of the identification resulting from the system unless that identification has been separately verified and confirmed by at least two natural persons with the necessary competence, training and authority.
The requirement for a separate verification by at least two natural persons shall not apply to high-risk AI systems used for the purposes of law enforcement, migration, border control or asylum, where Union or national law considers the application of this requirement to be disproportionate.






Organisaation olisi määriteltävä ja dokumentoitava vaadittava pätevyys, koulutus, valtuudet ja tuki henkilöille, jotka on nimetty tekoälyjärjestelmien inhimilliseen valvontaan. Tähän sisältyy prosessien luominen seuraaviin tarkoituksiin:
Näiden toimenpiteiden jatkuvan tehokkuuden varmistamiseksi olisi suoritettava säännöllisiä tarkistuksia.






Organisaation olisi suunniteltava ja toteutettava teknisiä ominaisuuksia suoraan suuren riskin tekoälyjärjestelmiin, jotta ihmisen suorittama valvonta olisi tehokasta. Näiden sisäänrakennettujen mekanismien olisi helpotettava ihmisen ymmärrystä, seurantaa ja puuttumista järjestelmän toimintaan, mukaan lukien selkeät käyttöliittymät, seuranta-mittaristot, hälytysjärjestelmät ja ohitustoiminnot.






Organisaation olisi analysoitava ja dokumentoitava tarvittavat inhimilliset valvontatoimenpiteet kutakin suuren riskin tekoälyjärjestelmää varten. Analyysin olisi perustuttava järjestelmän erityisiin riskeihin, autonomian tasoon ja käyttöyhteyteen, jotta voidaan varmistaa, että valitut toimenpiteet ovat tehokkaita ja oikeasuhteisia.






Suuren riskin tekoälyjärjestelmien tarjoajien olisi varmistettava, että tällaisten järjestelmien valvontaa varten annetaan selkeät ohjeet. Niiden olisi varmistettava ainakin seuraavat seikat:






Organisaation olisi luotava prosessi suuren riskin tekoälyjärjestelmille, jotka suorittavat tunnistamisen, kuten biometrisen etätunnistuksen. Prosessilla on varmistettava, että vähintään kaksi luonnollista henkilöä tarkastaa ja vahvistaa erikseen kaikki järjestelmän tekemät tunnistukset. Näillä henkilöillä on oltava tarvittava pätevyys, koulutus ja valtuudet, ennen kuin järjestelmän tuloksen perusteella ryhdytään toimenpiteisiin.
Digiturvamallissa kaikki vaatimuskehikkojen vaatimukset kohdistetaan universaaleihin tietoturvatehtäviin, jotta voitte muodostaa yksittäisen suunnitelman, joka täyttää ison kasan vaatimuksia.
.png)