Nepoverljiv AI: Kako se nositi sa trovanjem podataka (data poisoning)
Jovana Đorđević

Dva puta razmisli pre nego što poveruješ svom AI asistentu – trovanje baze podataka može značajno promeniti njegove odgovore, što ponekad dovodi do opasnih posledica.
Moderna tehnologija i bezbednost AI/ML sistema
Moderna tehnologija je daleko od nepogrešive – to možemo zaključiti, na primer, po brojnim ranjivostima koje se stalno pojavljuju. Prilikom dizajniranja sistema koji su ”bezbedni po dizajnu” koristi se proveren pristup, ali fokus na ovu praksu može preusmeriti resurse sa drugih segmenata rešenja, kao što su korisničko iskustvo (UX), optimizacija performansi i interoperabilnost sa drugim rešenjima i uslugama.
Bezbednost u tom procesu često biva “poslednja rupa na svirali“, zadovoljavajući samo minimalne uslove usklađenosti. Takav kompromis postaje naročito zabrinjavajući kada su u pitanju osetljivi podaci, koji zahtevaju zaštitu u skladu sa njihovom kritičnošću. Danas se rizik od neadekvatnih bezbednosnih mera najviše primećuje u sistemima veštačke inteligencije i mašinskog učenja (AI/ML), budući da su podaci ključni element na kojem se zasniva njihova funkcionalnost.

Šta je data poisoning (trovanje podataka)?
AI/ML modeli se zasnivaju na osnovnim setovima podataka koji se koriste za njihovu obuku, a ti se podaci konstantno ažuriraju kroz nadgledano i nenadgledano učenje. Mašinsko učenje predstavlja osnovni put kojim se omogućava veštačka inteligencija – uključujući i duboko učenje, koje doprinosi razvoju brojnih sposobnosti AI sistema. Što su podaci raznovrsniji i pouzdaniji, to će izlazi modela biti precizniji i korisniji. Zbog toga ovi modeli tokom obuke zahtevaju pristup ogromnim količinama podataka.
S druge strane, oslanjanje na velike količine podataka nosi određene rizike, jer neprovereni ili slabo provereni setovi podataka povećavaju verovatnoću nepouzdanih rezultata. Generativni AI, naročito veliki jezički modeli (LLMs) i AI asistenti, poznati su po svojoj ranjivosti na napade koji zlonamerno menjaju ponašanje modela.
Jedna od najzlokobnijih pretnji u tom kontekstu je trovanje podataka, gde napadači manipulišu ulaznim podacima kako bi naterali model da generiše netačne, pristrasne ili čak štetne rezultate. Posledice takvih manipulacija mogu se osetiti kroz čitave aplikacije, narušavajući poverenje i uvodeći sistemske rizike za pojedince i organizacije.
Vrste trovanja podataka (data poisoning):
- Data injection (ubacivanje podataka):
Napadači ubacuju zlonamerne podatke u skup podataka za obuku kako bi naterali AI model da promeni svoje ponašanje. Primer za ovo je slučaj kada su korisnici interneta postepeno menjali Tay Twitter bota, što je rezultiralo objavljivanjem uvredljivih tvitova. - Insider attacks (napadi od unutrašnjih saradnika):
Kao i kod uobičajenih pretnji unutar organizacije, zaposleni mogu zloupotrebiti svoj pristup i postepeno menjati skup podataka za obuku modela, čime prilagođavaju njegovo ponašanje. Ovi napadi su naročito opasni jer iskorišćavaju legitimni pristup. - Trigger injection (ubacivanje okidača):
Ovaj napad podrazumeva ubacivanje podataka u skup za obuku tako da se kreira specifičan okidač. Time napadači mogu zaobići sigurnosne mere modela i manipulisati njegovim izlazom u određenim situacijama kada se okidač aktivira. Izazov je u tome što je okidač često teško uočljiv, a pretnja ostaje uspavana dok se ne aktivira. - Supply-chain attack (napad na lanac snabdevanja):
Pošto AI modeli često koriste komponente trećih strana, ranjivosti nastale tokom procesa lanca snabdevanja mogu kompromitovati bezbednost modela i učiniti ga podložnim eksploataciji. Posledice ovih napada mogu biti naročito ozbiljne.
Kako AI modeli postaju sve dublje integrisani u poslovne i potrošačke sisteme – bilo kao asistenti ili alati za povećanje produktivnosti – napadi na ove sisteme predstavljaju ozbiljnu pretnju.
Iako enterprise AI modeli možda ne dele podatke sa trećim stranama, oni i dalje prikupljaju interne podatke radi poboljšanja svojih rezultata, što ih čini visoko vrednim ciljevima. Rizici se dodatno povećavaju kod potrošačkih modela, koji često dele korisničke upite, ispunjene osetljivim podacima, sa drugim stranama.
Kako osigurati razvoj ML/AI sistema?
Preventivne strategije za ML/AI modele zahtevaju podizanje svesti kako kod programera, tako i kod korisnika. Ključne strategije uključuju:
- Stalne provere i revizije:
Kontinuirano proveravanje i validacije integriteta skupova podataka za obuku AI/ML modela pomaže u sprečavanju zlonamerne manipulacije ili prisustva pristrasnih podataka, koji bi mogli kompromitovati rad modela. - Fokus na bezbednost:
Programeri AI sistema često postaju mete napadača, zbog čega je neophodno uspostaviti robustan sistem bezbednosti koji primenjuje preventivne mere radi minimalizacije “površine napada“. Ovo uključuje proaktivnu prevenciju, rano otkrivanje potencijalnih pretnji i sistematske bezbednosne provere – sve od ključnog značaja za siguran razvoj. - Adversarijalno treniranje:
Slično načinu na koji stručnjaci nadgledaju učenje modela, ovaj pristup se može koristiti za obučavanje modela da razlikuju zlonamerne od validnih podataka, čime se doprinosi sprečavanju napada trovanjem podataka. - Zero trust i upravljanje pristupom:
Da bi se odbranili od pretnji, bilo internih ili eksternih, potrebno je koristiti bezbednosna rešenja koja prate neautorizovan pristup ključnim podacima modela. Na taj način se sumnjivo ponašanje lakše uočava i sprečava. Princip “zero trust“ podrazumeva da se niko ne smatra automatski pouzdanim – pre dozvole pristupa potrebno je izvršiti višestruke verifikacije.
Bezbedno po dizajnu:
Izgradnja AI/ML platformi koje su “bezbedne po dizajnu“ nije samo korisna – to je imperativ. Baš kao što dezinformacije mogu uticati na ljude ka štetnom i ekstremnom ponašanju, ”zatrovani” AI model može dovesti do ozbiljnih štetnih posledica.
Kako se svet sve više fokusira na potencijalne rizike u razvoju AI, kreatori platformi moraju se zapitati da li su učinili dovoljno da zaštite integritet svojih modela. Rešavanje pristrasnosti, netačnosti i ranjivosti pre nego što dovedu do štete treba da bude centralni prioritet u razvoju.
Kako se AI sve više integriše u naše živote, uloge u osiguravanju AI sistema će samo rasti. Poslovni subjekti, developeri i donositelji politika moraju zajednički raditi na tome da osiguraju otpornost AI sistema na napade. Na taj način možemo otključati potencijal AI bez žrtvovanja bezbednosti, privatnosti i poverenja.
Preuzeto sa: https://www.welivesecurity.com/en/business-security/untrustworthy-ai-data-poisoning/
EXTREMEovanje - iz iskustva za iskustvo
Budite u tokuDobro došli na EXTREMEovanje – naš kutak za razmenu znanja, ideja i iskustava. Kroz priče iz prakse, savete i tehnološke uvide, pomažemo vam da bolje razumete kako digitalna rešenja mogu unaprediti vaš posao. Više od 25 godina smo uz klijente – i svaki tekst ovde je nastavak tog puta, pisan iz stvarnog iskustva.
Znam šta ste radili prolog leta!
Iako je leto prošlo, tokom njega Photoshop je dobio puno uzbudljivih unapređenja Photoshop je tokom ovog leta dobio toliko unapređenja, koliko je nekada dobijao za…

Od ideje do dizajna – ekspresno uz Adobe Express
Zašto Adobe sve više integriše Adobe Express u razne druge alate i šta se time dobija? Adobe Express je sve više integrisan u različite opcije…

ELASTIC SIEM: Vaš elastičan odgovor na sutrašnje sajber pretnje
Sajber bezbednost je za dobar broj poslovnih ljudi pomalo ono što je zdravstvena ustanova za običnog čoveka. Plaćamo osiguranje, verujemo da smo zdravi, retko tamo…


Newsletter
Lorem Ipsum
Tellus ultrices leo tristique ultrices tempus. Donec curabitur blandit nunc quis se.
Bilten
Naš Infobilten donosi vam najrelevantnije vesti iz industrije, tržišne trendove i stručne analize. Prijavite se kako biste bili korak ispred u svojoj oblasti i donosili informisane odluke uz najnovije uvide koji stižu svakog meseca.
Infobilten
Budite u toku sa našim Infobiltenom, koji vam donosi najnovije vesti iz IT industrije, uvide i trendove direktno u vaš inbox.
Sigurnosni Bilten
Zaštitite svoje poslovanje uz naš Sigurnosni bilten, koji vam donosi najnovije informacije o sajber pretnjama i bezbednosnim praksama
Kreativni Bilten
Prijavite se na naš Kreativni bilten i dobijajte najnovije trendove u dizajnu, savete o softveru i kreativnu inspiraciju.
