Versenytámadások és védekezések a mély tanulásban - ScienceDirect
A mesterséges intelligencia (AI) és a mély tanulási (DL) technikák gyors fejlődésével elengedhetetlen a telepített algoritmusok biztonságának és megbízhatóságának biztosítása. A közelmúltban széles körben elismerték a DL algoritmusok biztonsági sérülékenységét a kontradiktórius mintákkal szemben. Az elkészített minták a DL-modellek különböző helytelen viselkedéséhez vezethetnek, miközben az emberek jóindulatúnak tartják. A kontradiktórius támadások valós fizikai-fizikai forgatókönyvekben történő sikeres végrehajtása tovább bizonyítja azok gyakorlatiasságát. Ezért a kontradiktórius támadások és a védekezési technikák mind a gépi tanulási, mind a biztonsági közösségektől egyre nagyobb figyelmet kaptak, és az utóbbi években kiemelt kutatási témává váltak. Ebben a cikkben először bemutatjuk a kontradiktórius támadási technikák elméleti alapjait, algoritmusait és alkalmazásait. Ezután leírunk néhány kutatási erőfeszítést a védelmi technikákról, amelyek lefedik a terep széles határát. Ezt követően számos nyitott problémáról és kihívásról esik szó, amelyek reményeink szerint további kutatási erőfeszítéseket váltanak ki ezen a kritikus területen.
Előző kiadott cikk Következő kiadott cikk
Kulcsszavak
Ajánlott cikkek
Cikkeket idézve
Cikkmérők
- A ScienceDirectről
- Távoli hozzáférés
- Bevásárlókocsi
- Hirdet
- Kapcsolat és támogatás
- Felhasználási feltételek
- Adatvédelmi irányelvek
A cookie-kat a szolgáltatásunk nyújtásában és fejlesztésében, valamint a tartalom és a hirdetések személyre szabásában segítjük. A folytatással elfogadja a sütik használata .
- Aphrodite teste - Boszorkányság elsajátítása
- Testtömeg-változás - áttekintés a ScienceDirect témákról
- Body Constitution - áttekintés a ScienceDirect témákról
- 3 tipp, amelyek segítenek elmélyülni abban, hogy miért eszik, amikor eszik
- BodyFlex hivatalos webhely - Body Flex mélylégzés