Versenytámadások és védekezések a mély tanulásban - ScienceDirect

A mesterséges intelligencia (AI) és a mély tanulási (DL) technikák gyors fejlődésével elengedhetetlen a telepített algoritmusok biztonságának és megbízhatóságának biztosítása. A közelmúltban széles körben elismerték a DL algoritmusok biztonsági sérülékenységét a kontradiktórius mintákkal szemben. Az elkészített minták a DL-modellek különböző helytelen viselkedéséhez vezethetnek, miközben az emberek jóindulatúnak tartják. A kontradiktórius támadások valós fizikai-fizikai forgatókönyvekben történő sikeres végrehajtása tovább bizonyítja azok gyakorlatiasságát. Ezért a kontradiktórius támadások és a védekezési technikák mind a gépi tanulási, mind a biztonsági közösségektől egyre nagyobb figyelmet kaptak, és az utóbbi években kiemelt kutatási témává váltak. Ebben a cikkben először bemutatjuk a kontradiktórius támadási technikák elméleti alapjait, algoritmusait és alkalmazásait. Ezután leírunk néhány kutatási erőfeszítést a védelmi technikákról, amelyek lefedik a terep széles határát. Ezt követően számos nyitott problémáról és kihívásról esik szó, amelyek reményeink szerint további kutatási erőfeszítéseket váltanak ki ezen a kritikus területen.

mély

Előző kiadott cikk Következő kiadott cikk

Kulcsszavak

Ajánlott cikkek

Cikkeket idézve

Cikkmérők

  • A ScienceDirectről
  • Távoli hozzáférés
  • Bevásárlókocsi
  • Hirdet
  • Kapcsolat és támogatás
  • Felhasználási feltételek
  • Adatvédelmi irányelvek

A cookie-kat a szolgáltatásunk nyújtásában és fejlesztésében, valamint a tartalom és a hirdetések személyre szabásában segítjük. A folytatással elfogadja a sütik használata .