Sisältökirjasto
AI Act (Base)
Article 27.1-4: Fundamental rights impact assessment prior to deployment of high-risk AI systems

Vaatimuksen kuvaus

1. Prior to deploying a high-risk AI system referred to in Article 6(2), with the exception of high-risk AI systems intended to be used in the area listed in point 2 of Annex III, deployers that are bodies governed by public law, or are private entities providing public services, and deployers of high-risk AI systems referred to in points 5 (b) and (c) of Annex III, shall perform an assessment of the impact on fundamental rights that the use of such system may produce. For that purpose, deployers shall perform an assessment consisting of:

  1. a description of the deployer’s processes in which the high-risk AI system will be used in line with its intended purpose;
  2. a description of the period of time within which, and the frequency with which, each high-risk AI system is intended to be used;
  3. the categories of natural persons and groups likely to be affected by its use in the specific context;
  4. the specific risks of harm likely to have an impact on the categories of natural persons or groups of persons identified pursuant to point (c) of this paragraph, taking into account the information given by the provider pursuant to Article 13;
  5. a description of the implementation of human oversight measures, according to the instructions for use;
  6. the measures to be taken in the case of the materialisation of those risks, including the arrangements for internal governance and complaint mechanisms.

2. The obligation laid down in paragraph 1 applies to the first use of the high-risk AI system. The deployer may, in similar cases, rely on previously conducted fundamental rights impact assessments or existing impact assessments carried out by the provider. If, during the use of the high-risk AI system, the deployer considers that any of the elements listed in paragraph 1 has changed or is no longer up to date, the deployer shall take the necessary steps to update the information.

3. Once the assessment referred to in paragraph 1 of this Article has been performed, the deployer shall notify the market surveillance authority of its results, submitting the filled-out template referred to in paragraph 5 of this Article as part of the notification. In the case referred to in Article 46(1), deployers may be exempt from that obligation to notify.

4. If any of the obligations laid down in this Article is already met through the data protection impact assessment conducted pursuant to Article 35 of Regulation (EU) 2016/679 or Article 27 of Directive (EU) 2016/680, the fundamental rights impact assessment referred to in paragraph 1 of this Article shall complement that data protection impact assessment.

Kuinka täyttää vaatimus

AI Act (Base)

Article 27.1-4: Fundamental rights impact assessment prior to deployment of high-risk AI systems

Tehtävän nimi
Prioriteetti
Tila
Teema
Politiikka
Muut vaatimukset

Tekoälyjärjestelmien vaikutustenarviointimenettely

Critical
High
Normal
Low
Täysin tehty
Pääosin tehty
Osin tehty
Tekemättä
Tekoälyn hallinnointi
Tekoälyriskien ja elinkaaren hallinta
3
vaatimusta
Esimerkkejä muista vaatimuksista, joita tämä tehtävä toteuttaa
Article 27.1-4: Fundamental rights impact assessment prior to deployment of high-risk AI systems
AI Act (Base)
Article 9.2: Risk management system planning, processes and maintenance
AI Act (Base)
Article 9.9: Considering the impact on vulnerable groups in risk management
AI Act (Base)
Näe kaikki liittyvät vaatimukset ja muuta tietoa tehtävän omalta sivulta.
Siirry kohtaan >
Tekoälyjärjestelmien vaikutustenarviointimenettely
1. Tehtävän vaatimuskuvaus

Organisaation on arvioitava virallisesti tekoälyjärjestelmiensä vaikutukset yksilöihin, ryhmiin ja yhteiskuntaan ennen käyttöönottoa. Tämä on erityisen tärkeää julkisille elimille, julkisten palvelujen tarjoajille ja tekoälyjärjestelmien käyttöönottajille työllisyyden ja luoton arvioinnissa.

Arvioinnin olisi sisällettävä seuraavat seikat:

  • Kuvaus prosesseista, joissa tekoälyjärjestelmää tullaan käyttämään.
  • aiottu käyttöaika ja -tiheys.
  • ihmisryhmät, joihin järjestelmä todennäköisesti vaikuttaa.
  • Vaikutukset alaikäisiin ja muihin haavoittuviin ryhmiin.
  • Näihin ryhmiin kohdistuvat erityiset haittariskit ja toimenpiteet niiden lieventämiseksi.
  • Kuvaus suunnitelluista ihmisten valvontatoimenpiteistä.

Arviointia olisi päivitettävä, jos järjestelmän keskeiset osat muuttuvat käytön aikana. Sen olisi tarvittaessa täydennettävä olemassa olevia tietosuojaa koskevia vaikutustenarviointeja (DPIA).

Perusoikeuksien arviointi - raportin julkaiseminen, tiedottaminen ja ylläpito

Critical
High
Normal
Low
Täysin tehty
Pääosin tehty
Osin tehty
Tekemättä
Tekoälyn hallinnointi
Tekoälyriskien ja elinkaaren hallinta
1
vaatimusta
Esimerkkejä muista vaatimuksista, joita tämä tehtävä toteuttaa
Article 27.1-4: Fundamental rights impact assessment prior to deployment of high-risk AI systems
AI Act (Base)
Näe kaikki liittyvät vaatimukset ja muuta tietoa tehtävän omalta sivulta.
Siirry kohtaan >
Perusoikeuksien arviointi - raportin julkaiseminen, tiedottaminen ja ylläpito
1. Tehtävän vaatimuskuvaus

Organisaatio on määritellyt menettelyt tietoturvariskien arvioimiseksi ja käsittelemiseksi. Menettelyihin sisältyy ainakin:

  • Riskien tunnistamismenetelmät
  • Riskianalyysimenetelmät
  • Riskien arviointiperusteet (vaikutus ja todennäköisyys).
  • Riskien priorisointi, käsittelyvaihtoehdot ja valvontatehtävien määrittely.
  • riskien hyväksymiskriteerit
  • Prosessin toteuttamissykli, resursointi ja vastuut
  • Tulokset olisi sisällytettävä organisaation riskinhallintaprosessiin.

Tehtävän omistaja tarkistaa säännöllisesti, että menettely on selkeä ja tuottaa johdonmukaisia tuloksia.

Ilmoitus perusoikeusvaikutusten arvioinnista

Critical
High
Normal
Low
Täysin tehty
Pääosin tehty
Osin tehty
Tekemättä
Tekoälyn hallinnointi
Tekoälyriskien ja elinkaaren hallinta
1
vaatimusta
Esimerkkejä muista vaatimuksista, joita tämä tehtävä toteuttaa
Article 27.1-4: Fundamental rights impact assessment prior to deployment of high-risk AI systems
AI Act (Base)
Näe kaikki liittyvät vaatimukset ja muuta tietoa tehtävän omalta sivulta.
Siirry kohtaan >
Ilmoitus perusoikeusvaikutusten arvioinnista
1. Tehtävän vaatimuskuvaus

Kun organisaatio on suorittanut suuririskistä tekoälyjärjestelmää koskevan perusoikeusvaikutusten arvioinnin, sen olisi ilmoitettava tuloksista asianomaiselle markkinavalvontaviranomaiselle. Ilmoitus on tehtävä ennen järjestelmän ensimmäistä käyttöönottoa. Organisaation olisi käytettävä tähän tarkoitukseen viranomaisen toimittamaa virallista mallia.

Tekoälyjärjestelmien sisäinen hallinto ja valitusmekanismit

Critical
High
Normal
Low
Täysin tehty
Pääosin tehty
Osin tehty
Tekemättä
Tekoälyn hallinnointi
Tekoälyriskien ja elinkaaren hallinta
1
vaatimusta
Esimerkkejä muista vaatimuksista, joita tämä tehtävä toteuttaa
Article 27.1-4: Fundamental rights impact assessment prior to deployment of high-risk AI systems
AI Act (Base)
Näe kaikki liittyvät vaatimukset ja muuta tietoa tehtävän omalta sivulta.
Siirry kohtaan >
Tekoälyjärjestelmien sisäinen hallinto ja valitusmekanismit
1. Tehtävän vaatimuskuvaus

Organisaation on määriteltävä toimenpiteet, joihin ryhdytään, jos riskialttiista tekoälyjärjestelmästä aiheutuvat perusoikeusriskit toteutuvat. Tähän sisältyy sisäisten hallintojärjestelyjen määrittely ja sellaisten valitusmekanismien luominen, joiden avulla asianomaiset henkilöt voivat raportoida ongelmista ja hakea korvausta.

Aiempien vaikutustenarviointien käyttö tekoälyjärjestelmiä varten

Critical
High
Normal
Low
Täysin tehty
Pääosin tehty
Osin tehty
Tekemättä
Tekoälyn hallinnointi
Tekoälyriskien ja elinkaaren hallinta
1
vaatimusta
Esimerkkejä muista vaatimuksista, joita tämä tehtävä toteuttaa
Article 27.1-4: Fundamental rights impact assessment prior to deployment of high-risk AI systems
AI Act (Base)
Näe kaikki liittyvät vaatimukset ja muuta tietoa tehtävän omalta sivulta.
Siirry kohtaan >
Aiempien vaikutustenarviointien käyttö tekoälyjärjestelmiä varten
1. Tehtävän vaatimuskuvaus

Organisaation olisi määriteltävä kriteerit sille, milloin aiemmin tehtyä tai järjestelmän toimittajan toimittamaa perusoikeusvaikutusten arviointia voidaan käyttää uudelleen uutta käyttöönottoa varten. Samankaltaisten käyttöönottojen yhteydessä voidaan hyödyntää olemassa olevaa arviointia vaatimustenmukaisuusprosessin tehostamiseksi. Organisaation olisi dokumentoitava perustelut arvioinnin uudelleenkäytölle.

Palveluntarjoajaa koskevien tietojen käyttö perusoikeusvaikutusten arvioinnissa

Critical
High
Normal
Low
Täysin tehty
Pääosin tehty
Osin tehty
Tekemättä
Tekoälyn hallinnointi
Tekoälyriskien ja elinkaaren hallinta
1
vaatimusta
Esimerkkejä muista vaatimuksista, joita tämä tehtävä toteuttaa
Article 27.1-4: Fundamental rights impact assessment prior to deployment of high-risk AI systems
AI Act (Base)
Näe kaikki liittyvät vaatimukset ja muuta tietoa tehtävän omalta sivulta.
Siirry kohtaan >
Palveluntarjoajaa koskevien tietojen käyttö perusoikeusvaikutusten arvioinnissa
1. Tehtävän vaatimuskuvaus

Organisaation olisi varmistettava, että tekoälyjärjestelmän toimittajan toimittamat asiakirjat ovat perustana perusoikeusvaikutusten arvioinnille. Tähän kuuluu myös se, että palveluntarjoajan käyttöohjeita käytetään apuna tunnistettaessa ja arvioitaessa vahinkoa aiheuttavien henkilöiden tai ryhmien erityisiä riskejä.

Politiikkaan sisältyviä tietoturvatehtäviä

Tehtävän nimi
Prioriteetti
Tila
Teema
Politiikka
Muut vaatimukset
No items found.

Autamme täyttämään vaatimukset tehokkaasti Universal cyber compliance language -teknologialla

Digiturvamallissa kaikki vaatimuskehikkojen vaatimukset kohdistetaan universaaleihin tietoturvatehtäviin, jotta voitte muodostaa yksittäisen suunnitelman, joka täyttää ison kasan vaatimuksia.

Tietoturvakehikoilla on yleensä yhteinen ydin. Kaikki kehikot kattavat perusaiheita, kuten riskienhallinnan, varmuuskopioinnin, haittaohjelmat, henkilöstön tietoisuuden tai käyttöoikeuksien hallinnan omissa osioissaan.
Digiturvamallin "universal cyber compliance language" -teknologia luo teille yksittäisen suunnitelman ja varmistaa, että kehikkojen yhteiset osat tehdään vain kerran. Te voitte keskittyä suunnitelman toteuttamiseen, me automatisoimme compliance-osan - nykyisiä ja tulevia vaatimuksia päin.
Aloita ilmainen kokeilu
Tutustu Digiturvamalliin
Aloita ilmainen kokeilu
Digiturvamallin avulla rakennat tietoturvallisen ja halutut vaatimukset täyttävän organisaation. Halusitko kehittää tietoturvan hallintaa yleisesti, raportoida omasta NIS2-valmiudesta tai hankkia ISO 27001 -sertifioinnin, Digiturvamalli yksinkertaistaa koko prosessia.
AI-pohjaiset parannussuositukset ja käyttäjäystävällinen työkalu varmistavat, että organisaationne voi olla luottavainen vaatimusten täyttymisestä ja keskittyä oman tietoturvan jatkuvaan parantamiseen.
Selkeä suunnitelma vaatimusten täyttämiseen
Aktivoi teille tärkeät vaatimuskehikot ja jalkauta niiden vaatimukset täyttäviä selkeitä toimenpiteitä.
Uskottavat raportit todisteiksi hyvästä tietoturvasta
Etene tehtävien avulla varmistaaksesi turvallisen toiminnan. Luo ammattimaisia ​​raportteja muutamalla napsautuksella.
AI-avusteiset parannussuositukset
Keskity vaikuttavimpiin parannuksiin Digiturvamallin suositusten avulla.