Olet ehkä kuullut tekoälyyn ja koneoppimiseen liittyvistä kilpailevista hyökkäyksistä, mutta mitä ne ovat? Mitkä ovat heidän tavoitteensa?
Teknologia tarkoittaa usein, että elämämme on mukavampaa ja turvallisempaa. Samaan aikaan tällaiset edistysaskeleet ovat kuitenkin avanneet kehittyneempiä tapoja kyberrikollisille hyökätä meihin ja korruptoida turvajärjestelmiämme tehden niistä voimattomia.
Tekoälyä (AI) voivat hyödyntää niin kyberturvallisuuden ammattilaiset kuin kyberrikollisetkin; Samoin koneoppimisjärjestelmiä (ML) voidaan käyttää sekä hyvään että pahaan. Tämä moraalisen kompassin puute on tehnyt vastakkaisista hyökkäyksistä ML: ssä kasvavan haasteen. Mitä vastakkaiset hyökkäykset sitten ovat? Mikä on niiden tarkoitus? Ja miten voit suojautua niiltä?
Mitä ovat kontradiktoriset hyökkäykset koneoppimisessa?
Adversarial ML tai adversarial hyökkäykset ovat kyberhyökkäyksiä, joiden tarkoituksena on huijata ML-malli haitallisella syötteellä ja siten heikentää tarkkuutta ja huonoa suorituskykyä. Joten nimestään huolimatta kilpaileva ML ei ole koneoppimisen tyyppi, vaan erilaisia tekniikoita, joita kyberrikolliset – eli vastustajat – käyttävät ML-järjestelmien kohdistamiseen.
Tällaisten hyökkäysten päätavoitteena on yleensä huijata malli jakamaan arkaluontoisia tietoja, petollisten toimintojen havaitsematta jättäminen, väärien ennusteiden tuottaminen tai analyysipohjaisten korruptoituminen raportteja. Vaikka kilpailevia hyökkäyksiä on useita, ne kohdistuvat usein syvään oppimiseen perustuvaan roskapostin havaitsemiseen.
Olet luultavasti kuullut an vihollinen keskellä hyökkäystä, joka on uusi ja tehokkaampi kehittynyt tietojenkalastelutekniikka, joka sisältää yksityisten tietojen, istuntoevästeiden ja jopa monitekijätodennusmenetelmien (MFA) ohittamisen. Onneksi näitä vastaan voi taistella phishing-suojattu MFA-tekniikka.
Vastuullisten hyökkäysten tyypit
Yksinkertaisin tapa luokitella kilpailevat hyökkäykset on jakaa ne kahteen pääluokkaan:kohdistettuja hyökkäyksiä ja kohdistamattomia hyökkäyksiä. Kuten ehdotetaan, kohdistetuilla hyökkäyksillä on tietty kohde (kuten tietty henkilö), kun taas kohdentamattomilla ei ole ketään erityistä mielessä: ne voivat kohdistaa melkein kaikki. Ei ole yllättävää, että kohdistamattomat hyökkäykset ovat vähemmän aikaa vieviä, mutta myös vähemmän onnistuneita kuin kohdistetut hyökkäykset.
Nämä kaksi tyyppiä voidaan jakaa edelleen valkoinen laatikko ja musta laatikko kilpailevat hyökkäykset, joissa väri viittaa kohteena olevan ML-mallin tuntemiseen tai tietämättömyyteen. Ennen kuin sukeltamme syvemmälle white-box- ja black-box-hyökkäyksiin, katsotaanpa nopeasti yleisimmät kilpailevat hyökkäykset.
- Välttely: Useimmiten haittaohjelmaskenaarioissa käytetyt kiertohyökkäykset yrittävät välttää havaitsemisen piilottamalla haittaohjelmien saastuttamien ja roskapostien sisällön. Kokeilu ja virhe -menetelmää käyttämällä hyökkääjä manipuloi tietoja käyttöönottohetkellä ja turmelee ML-mallin luottamuksellisuutta. Biometrinen huijaus on yksi yleisimmistä esimerkeistä veronkiertohyökkäyksestä.
- Tietomyrkytys: Nämä tunnetaan myös kontaminoivina hyökkäyksinä, ja niiden tarkoituksena on manipuloida ML-mallia koulutus- tai käyttöönottojakson aikana ja heikentää tarkkuutta ja suorituskykyä. Ottamalla käyttöön haitallisia syötteitä, hyökkääjät häiritsevät mallia ja tekevät tietoturva-ammattilaisten vaikeaksi havaita ML-mallia turmelevien näytetietojen tyyppiä.
- Bysantin vikoja: Tämäntyyppinen hyökkäys aiheuttaa järjestelmäpalvelun menetyksen Bysantin vian seurauksena järjestelmissä, jotka edellyttävät kaikkien solmujen välistä yksimielisyyttä. Kun yksi sen luotetuista solmuista muuttuu roistoksi, se voi syöttää palvelunestohyökkäyksen (DoS) ja sulkea järjestelmän estääkseen muita solmuja kommunikoimasta.
- Mallin purkaminen: Poimintahyökkäyksessä vastustaja tutkii mustan laatikon ML-järjestelmää poimiakseen harjoitustietonsa tai - pahimmassa tapauksessa - itse mallin. Sitten ML-mallin kopio käsissään vastustaja voisi testata haittaohjelmiaan haittaohjelmien/viruksentorjuntaohjelmia vastaan ja selvittää, kuinka se voidaan ohittaa.
- Päätelmähyökkäykset: Kuten irrotushyökkäyksissä, tässäkin tavoitteena on saada ML-malli vuotamaan tietoa koulutustiedoistaan. Vastustaja yrittää kuitenkin sitten selvittää, mitä tietojoukkoa käytettiin järjestelmän kouluttamiseen, jotta he voivat hyödyntää sen haavoittuvuuksia tai harhoja.
Valkoinen laatikko vs. Black Box vs. Harmaalaatikon vastustavat hyökkäykset
Nämä kolme hyökkäystyyppiä erottaa toisistaan se tietomäärä, joka vastustajilla on niiden ML-järjestelmien sisäisestä toiminnasta, joihin he suunnittelevat hyökkäämistä. Vaikka white-box -menetelmä vaatii kattavat tiedot kohdistetusta ML-mallista (mukaan lukien sen arkkitehtuuri ja parametrit), black-box-menetelmä ei vaadi tietoa ja voi vain tarkkailla sitä ulostulot.
Grey-box -malli puolestaan on näiden kahden ääripään keskellä. Sen mukaan vastustajilla voi olla jotain tietoa tietojoukosta tai muita yksityiskohtia ML-mallista, mutta ei kaikkea.
Kuinka voit puolustaa koneoppimista vastakkaisia hyökkäyksiä vastaan?
Vaikka ihmiset ovat edelleen kriittinen tekijä kyberturvallisuuden vahvistamisessa,Tekoäly ja ML ovat oppineet havaitsemaan ja estämään haitalliset hyökkäykset-Ne voivat parantaa haitallisten uhkien havaitsemisen tarkkuutta, käyttäjien toiminnan seurantaa, epäilyttävän sisällön tunnistamista ja paljon muuta. Mutta voivatko ne torjua vastakkaisia hyökkäyksiä ja suojella ML-malleja?
Yksi tapa torjua kyberhyökkäyksiä on kouluttaa ML-järjestelmiä tunnistamaan vastakkaiset hyökkäykset etukäteen lisäämällä esimerkkejä niiden koulutusmenettelyyn.
Toisin kuin tämä raa'an voiman lähestymistapa, puolustava tislausmenetelmä ehdottaa, että käytämme ensisijaista, tehokkaampaa mallia selvittää toissijaisen, vähemmän tehokkaan mallin kriittiset ominaisuudet ja parantaa sitten toissijaisen mallin tarkkuutta ensisijaisen mallin kanssa yksi. Puolustavalla tislauksella opetetut ML-mallit ovat vähemmän herkkiä vastakkaisille näytteille, mikä tekee niistä vähemmän alttiita hyväksikäytölle.
Voisimme myös jatkuvasti muokata algoritmeja, joita ML-mallit käyttävät tietojen luokitteluun, mikä voisi heikentää vastakkaisten hyökkäysten menestystä.
Toinen huomionarvoinen tekniikka on ominaisuuksien puristaminen, joka vähentää vastustajien käytettävissä olevaa hakutilaa "puristamalla pois" tarpeettomat syöttöominaisuudet. Tavoitteena on minimoida vääriä positiivisia tuloksia ja tehdä kontradiktoristen esimerkkien havaitsemisesta tehokkaampaa.
Koneoppimisen ja tekoälyn suojaaminen
Vastakkaiset hyökkäykset ovat osoittaneet meille, että monet ML-mallit voivat särkyä yllättävillä tavoilla. Loppujen lopuksi kilpaileva koneoppiminen on edelleen uusi tutkimusala kyberturvallisuuden alalla, ja siihen liittyy monia monimutkaisia ongelmia tekoälylle ja ML: lle.
Vaikka ei olekaan maagista ratkaisua näiden mallien suojaamiseen kaikilta vastustavilta hyökkäyksiltä, Tulevaisuus tuo todennäköisesti kehittyneempiä tekniikoita ja älykkäämpiä strategioita tämän kauhean torjumiseksi vastustaja.