Sisältökirjasto
AI Act (Base)
Article 14: Effective human oversight of high-risk AI-systems

Vaatimuksen kuvaus

1. High-risk AI systems shall be designed and developed in such a way, including with appropriate human-machine interface tools, that they can be effectively overseen by natural persons during the period in which they are in use.

2. Human oversight shall aim to prevent or minimise the risks to health, safety or fundamental rights that may emerge when a high-risk AI system is used in accordance with its intended purpose or under conditions of reasonably foreseeable misuse, in particular where such risks persist despite the application of other requirements set out in this Section.

3. The oversight measures shall be commensurate with the risks, level of autonomy and context of use of the high-risk AI system, and shall be ensured through either one or both of the following types of measures:

  1. measures identified and built, when technically feasible, into the high-risk AI system by the provider before it is placed on the market or put into service;
  2. measures identified by the provider before placing the high-risk AI system on the market or putting it into service and that are appropriate to be implemented by the deployer.

4. For the purpose of implementing paragraphs 1, 2 and 3, the high-risk AI system shall be provided to the deployer in such a way that natural persons to whom human oversight is assigned are enabled, as appropriate and proportionate:

  1. to properly understand the relevant capacities and limitations of the high-risk AI system and be able to duly monitor its operation, including in view of detecting and addressing anomalies, dysfunctions and unexpected performance;
  2. to remain aware of the possible tendency of automatically relying or over-relying on the output produced by a high-risk AI system (automation bias), in particular for high-risk AI systems used to provide information or recommendations for decisions to be taken by natural persons;
  3. to correctly interpret the high-risk AI system’s output, taking into account, for example, the interpretation tools and methods available;
  4. to decide, in any particular situation, not to use the high-risk AI system or to otherwise disregard, override or reverse the output of the high-risk AI system;
  5. to intervene in the operation of the high-risk AI system or interrupt the system through a ‘stop’ button or a similar procedure that allows the system to come to a halt in a safe state.

5. For high-risk AI systems referred to in point 1(a) of Annex III, the measures referred to in paragraph 3 of this Article shall be such as to ensure that, in addition, no action or decision is taken by the deployer on the basis of the identification resulting from the system unless that identification has been separately verified and confirmed by at least two natural persons with the necessary competence, training and authority.

The requirement for a separate verification by at least two natural persons shall not apply to high-risk AI systems used for the purposes of law enforcement, migration, border control or asylum, where Union or national law considers the application of this requirement to be disproportionate.

Kuinka täyttää vaatimus

AI Act (Base)

Article 14: Effective human oversight of high-risk AI-systems

Tehtävän nimi
Prioriteetti
Tila
Teema
Politiikka
Muut vaatimukset

Valvontahenkilöstön määrä, pätevyys ja riittävyys

Critical
High
Normal
Low
Täysin tehty
Pääosin tehty
Osin tehty
Tekemättä
Tekoälyn hallinnointi
Tekoälyriskien ja elinkaaren hallinta
1
vaatimusta
Esimerkkejä muista vaatimuksista, joita tämä tehtävä toteuttaa
Article 14: Effective human oversight of high-risk AI-systems
AI Act (Base)
Näe kaikki liittyvät vaatimukset ja muuta tietoa tehtävän omalta sivulta.
Siirry kohtaan >
Valvontahenkilöstön määrä, pätevyys ja riittävyys
1. Tehtävän vaatimuskuvaus

Organisaation olisi määriteltävä ja dokumentoitava vaadittava pätevyys, koulutus, valtuudet ja tuki henkilöille, jotka on nimetty tekoälyjärjestelmien inhimilliseen valvontaan. Tähän sisältyy prosessien luominen seuraaviin tarkoituksiin:

  • Arvioida ja varmistaa henkilöstön tarvittava pätevyys.
  • Tarjotaan riittävää ja jatkuvaa koulutusta tekoälyjärjestelmien toiminnallisuuksista, riskeistä ja valvontamenettelyistä.
  • Annetaan tarvittavat valtuudet puuttua asiaan, valvoa sitä ja tehdä tietoon perustuvia päätöksiä.
  • Tarjotaan riittävästi tukea, resursseja ja välineitä (esim. selkeitä ohjeita, teknistä tukea, aikaa) tehokkaan valvonnan mahdollistamiseksi.

Näiden toimenpiteiden jatkuvan tehokkuuden varmistamiseksi olisi suoritettava säännöllisiä tarkistuksia.

Suuren riskin tekoälyjärjestelmiä varten sisäänrakennetut inhimilliset valvontamekanismit

Critical
High
Normal
Low
Täysin tehty
Pääosin tehty
Osin tehty
Tekemättä
Tekoälyn hallinnointi
Tekoälyriskien ja elinkaaren hallinta
1
vaatimusta
Esimerkkejä muista vaatimuksista, joita tämä tehtävä toteuttaa
Article 14: Effective human oversight of high-risk AI-systems
AI Act (Base)
Näe kaikki liittyvät vaatimukset ja muuta tietoa tehtävän omalta sivulta.
Siirry kohtaan >
Suuren riskin tekoälyjärjestelmiä varten sisäänrakennetut inhimilliset valvontamekanismit
1. Tehtävän vaatimuskuvaus

Organisaation olisi suunniteltava ja toteutettava teknisiä ominaisuuksia suoraan suuren riskin tekoälyjärjestelmiin, jotta ihmisen suorittama valvonta olisi tehokasta. Näiden sisäänrakennettujen mekanismien olisi helpotettava ihmisen ymmärrystä, seurantaa ja puuttumista järjestelmän toimintaan, mukaan lukien selkeät käyttöliittymät, seuranta-mittaristot, hälytysjärjestelmät ja ohitustoiminnot.

Analyysi suuririskisten tekoälyjärjestelmien inhimillisistä valvontatoimenpiteistä

Critical
High
Normal
Low
Täysin tehty
Pääosin tehty
Osin tehty
Tekemättä
Tekoälyn hallinnointi
Tekoälyriskien ja elinkaaren hallinta
1
vaatimusta
Esimerkkejä muista vaatimuksista, joita tämä tehtävä toteuttaa
Article 14: Effective human oversight of high-risk AI-systems
AI Act (Base)
Näe kaikki liittyvät vaatimukset ja muuta tietoa tehtävän omalta sivulta.
Siirry kohtaan >
Analyysi suuririskisten tekoälyjärjestelmien inhimillisistä valvontatoimenpiteistä
1. Tehtävän vaatimuskuvaus

Organisaation olisi analysoitava ja dokumentoitava tarvittavat inhimilliset valvontatoimenpiteet kutakin suuren riskin tekoälyjärjestelmää varten. Analyysin olisi perustuttava järjestelmän erityisiin riskeihin, autonomian tasoon ja käyttöyhteyteen, jotta voidaan varmistaa, että valitut toimenpiteet ovat tehokkaita ja oikeasuhteisia.

Ohjeet tekoälyjärjestelmien valvontaa varten

Critical
High
Normal
Low
Täysin tehty
Pääosin tehty
Osin tehty
Tekemättä
Tekoälyn hallinnointi
Avoimuus ja käyttäjäviestintä
2
vaatimusta
Esimerkkejä muista vaatimuksista, joita tämä tehtävä toteuttaa
Article 13.2-3: Usage instructions format for deployed high-risk AI systems
AI Act (Base)
Article 14: Effective human oversight of high-risk AI-systems
AI Act (Base)
Näe kaikki liittyvät vaatimukset ja muuta tietoa tehtävän omalta sivulta.
Siirry kohtaan >
Ohjeet tekoälyjärjestelmien valvontaa varten
1. Tehtävän vaatimuskuvaus

Suuren riskin tekoälyjärjestelmien tarjoajien olisi varmistettava, että tällaisten järjestelmien valvontaa varten annetaan selkeät ohjeet. Niiden olisi varmistettava ainakin seuraavat seikat:

  • Ihmisen suorittama valvonta on sisällytetty merkittäviin tekoälyä koskeviin päätöksiin.
  • Ihmiset tarkastelevat yksilöihin olennaisesti vaikuttavia tuloksia.
  • tekoälyjärjestelmiä seurataan jatkuvasti tahattoman toiminnan havaitsemiseksi.

Kaksoistarkastus suuren riskin tekoälyn tunnistamiseksi

Critical
High
Normal
Low
Täysin tehty
Pääosin tehty
Osin tehty
Tekemättä
Tekoälyn hallinnointi
Tekoälyriskien ja elinkaaren hallinta
1
vaatimusta
Esimerkkejä muista vaatimuksista, joita tämä tehtävä toteuttaa
Article 14: Effective human oversight of high-risk AI-systems
AI Act (Base)
Näe kaikki liittyvät vaatimukset ja muuta tietoa tehtävän omalta sivulta.
Siirry kohtaan >
Kaksoistarkastus suuren riskin tekoälyn tunnistamiseksi
1. Tehtävän vaatimuskuvaus

Organisaation olisi luotava prosessi suuren riskin tekoälyjärjestelmille, jotka suorittavat tunnistamisen, kuten biometrisen etätunnistuksen. Prosessilla on varmistettava, että vähintään kaksi luonnollista henkilöä tarkastaa ja vahvistaa erikseen kaikki järjestelmän tekemät tunnistukset. Näillä henkilöillä on oltava tarvittava pätevyys, koulutus ja valtuudet, ennen kuin järjestelmän tuloksen perusteella ryhdytään toimenpiteisiin.

Politiikkaan sisältyviä tietoturvatehtäviä

Tehtävän nimi
Prioriteetti
Tila
Teema
Politiikka
Muut vaatimukset
No items found.

Autamme täyttämään vaatimukset tehokkaasti Universal cyber compliance language -teknologialla

Digiturvamallissa kaikki vaatimuskehikkojen vaatimukset kohdistetaan universaaleihin tietoturvatehtäviin, jotta voitte muodostaa yksittäisen suunnitelman, joka täyttää ison kasan vaatimuksia.

Tietoturvakehikoilla on yleensä yhteinen ydin. Kaikki kehikot kattavat perusaiheita, kuten riskienhallinnan, varmuuskopioinnin, haittaohjelmat, henkilöstön tietoisuuden tai käyttöoikeuksien hallinnan omissa osioissaan.
Digiturvamallin "universal cyber compliance language" -teknologia luo teille yksittäisen suunnitelman ja varmistaa, että kehikkojen yhteiset osat tehdään vain kerran. Te voitte keskittyä suunnitelman toteuttamiseen, me automatisoimme compliance-osan - nykyisiä ja tulevia vaatimuksia päin.
Aloita ilmainen kokeilu
Tutustu Digiturvamalliin
Aloita ilmainen kokeilu
Digiturvamallin avulla rakennat tietoturvallisen ja halutut vaatimukset täyttävän organisaation. Halusitko kehittää tietoturvan hallintaa yleisesti, raportoida omasta NIS2-valmiudesta tai hankkia ISO 27001 -sertifioinnin, Digiturvamalli yksinkertaistaa koko prosessia.
AI-pohjaiset parannussuositukset ja käyttäjäystävällinen työkalu varmistavat, että organisaationne voi olla luottavainen vaatimusten täyttymisestä ja keskittyä oman tietoturvan jatkuvaan parantamiseen.
Selkeä suunnitelma vaatimusten täyttämiseen
Aktivoi teille tärkeät vaatimuskehikot ja jalkauta niiden vaatimukset täyttäviä selkeitä toimenpiteitä.
Uskottavat raportit todisteiksi hyvästä tietoturvasta
Etene tehtävien avulla varmistaaksesi turvallisen toiminnan. Luo ammattimaisia ​​raportteja muutamalla napsautuksella.
AI-avusteiset parannussuositukset
Keskity vaikuttavimpiin parannuksiin Digiturvamallin suositusten avulla.