Digiturvatulkki

takaisin etusivulle

Pomon ääni väärennettiin - 220 000 € varastettiin

Tulkkaamme caseja, joissa digiturva on syystä tai toisesta pettänyt.
Tulkkaamme ilmiöitä, jotka vaikuttavat digiturvan toteuttamiseen.
Tulkkaamme teknologiauutisia, joilla on vaikutuksia digiturvaan.
case
ilmiö
teknologia
tietoturvauhkat
äänihuijaus
deepfake audio
deepfake

Tulkattava artikkeli

Viitattu
9.9.2019
osoitteessa
https://hotforsecurity.bitdefender.com/blog/ceo-voice-deepfake-blamed-for-scam-that-stole-243000-21491.html
So-called artificial intelligence apps like Zao had been stirr i ng up controversy with their potential abusive use to beat facial recognition systems. The Chinese deepfake video app proved itself to be widely popular as users had fun transplanting their digital faces onto footage from movies and popular TV shows such as “Game of Thrones.” But deepfake video isn’t the only area raising concerns. The ability to make convincing deepfake audio, mimicking the voice of real people, is also ringing alarm bells due to its potential for abuse by criminals and scammers.
Lue koko alkuperäinen artikkeli

Tiivistelmä

eli avainasiat yläpuolen artikkelista
Voiko tuttuun ääneenkään enää luottaa? Huijarit esittivät puhelimessa oikealla aksentilla ja puhetyylillä toimitusjohtajaa, ja huijasivat organisaation siirtämään 220 000 € tililleen.

Tulkin kommentit

Tiivistämme uutisten ydinsisällön ja opetukset selkokielellä.

Deepfakella tarkoitetaan tekniikkaa, jossa tekoälyn avulla luodaan realistisia uudelleenrakennelmia esimerkiksi ihmisen kasvokuvista - tai uutena tulokkaana äänestä, ja upotetaan näitä vaikkapa osaksi olemassaolevia videoita. Deepfakeja on toistaiseksi käytetty huijausten lisäksi esimerkiksi valeuutisten luomiseen tai toista henkilöä häpäisevien videoiden tekemiseen.

Uudet hupikäyttöön suunnatut teeman AI-sovellukset ovat myös saaneet paljon huomiota. Kiinalainen Zao esimerkiksi laittaa omat ja kaverisi kasvot suositun Game of Thrones -televisiosarjan avainkohtauksiin - ja onhan se hauskannäköistä.

Nyt siis deepfake videot eivät enää kuitenkaan ole ainoa digiturvahuoli. Mikäli huijarit voivat muodostaa uskottavaa deepfake ääntä, matkien oikeiden ihmisten kommunikaatiota, alkaa varmasti huijareilla heti ideanikkarointi käynnistymään.

Mikä meni pieleen?
Kuinka vältät vastaavan?
Huomioita ja vinkkejä
Oliko tässä lopulta deepfake-väärennös vai ei?

Uutisessa UK:ssa toimiva yritys suoritti maksun Saksaan. Pyyntöä kuvattiin uskottavaksi, koska puhelimessa henkilö oli ainakin tunnistavinaan pomonsa "hienoisen saksalaisen aksentin" ja tietyn "melodian ja rytmin" puheessa. Tarkempia perusteluja ei anneta, joten vähänkin taitava imitoija voisi todennäköisesti saada vastaavan huijauksen aikaiseksi.

Lähiaikoina on kuitenkin raportoitu myös muita tapauksia, joissa "oletettavasti deepfake audion avulla" rahoja on huijattu. Uskoit tähän tapaukseen tai et, äänihuijausten kehittymistä kannattaa ehdottomasti pitää silmällä.

Yksittäiseen puheluun ei välttämättä voi luottaa - miten silloin toimitaan?

Mikäli työntekijä vähänkin epäilee puhelun aitoutta, hänellä tulisi olla varma prosessi siihen, kuinka pyyntö varmistetaan oikeaksi. Tämä voi sisältää esimerkiksi toisen viestintäkanavan käyttöä (varmista pyyntö vaikka Slack-viestintäpalvelussa) tai puhelussa käytettyjen tietojen varmistamista kollegalta. Yleensä puheluissa painotetaan kiirettä ja kerrotaan tärkeän asiakaspalaverin olevan meneillään, joka saattaa selvitä valheeksi helposti.

case
ilmiö
teknologia
tietoturvauhkat
äänihuijaus
deepfake audio
deepfake