Ошибки машинного обучения искусственных нейронных сетей и использование их для атак на системы искусственного интеллекта
PDF

Ключевые слова

искусственные нейронные сети
ошибки машинного обучения
и на системы искусственного интеллекта

Как цитировать

1.
Гавриленко Т.В., Гавриленко А.В. Ошибки машинного обучения искусственных нейронных сетей и использование их для атак на системы искусственного интеллекта // Успехи кибернетики. 2021. Т. 2, № 3. С. 23-32. DOI: 10.51790/2712-9942-2021-2-3-4.

Аннотация

В статье приведен обзор различных методов атак и подходов к атакам на системы искусственного интеллекта, построенных на основе искусственных нейронных сетей. Показано, что начиная с 2015 года исследователи в различных странах активно развивают методы атак и подходы к атакам на искусственные нейронные сети, при этом разработанные методы и подходы могут иметь критические последствия при эксплуатации систем искусственного интеллекта. Делается вывод о необходимости развития методологической и теоретической базы искусственных нейронных сетей и невозможности создания доверительных систем искусственного интеллекта в текущей парадигме.

https://doi.org/10.51790/2712-9942-2021-2-3-4
PDF

Литература

Goodfellow I. J., Shlens J., Szegedy C. Explaining and Harnessing Adversarial Examples. Proceedings of the International Conference on Learning Representations (ICLR). 2015.

Kexin Pei, Yinzhi Cao, Junfeng Yang, Suman Jana. DeepXplore: Automated Whitebox Testing of Deep Learning Systems. SOSP ’17, October 28, 2017, Shanghai, China.

Jiawei Su, Danilo Vasconcellos Vargas, Kouichi Sakurai. One Pixel Attack for Fooling Deep Neural Networks. 2017. Режим доступа: https://arxiv.org/pdf/1710.08864.pdf.

Andrew Ilyas, Logan Engstrom, Anish Athalye, Jessy Lin. Query-efficient Black-box Adversarial Examples. 2017. Режим доступа: https://arxiv.org/pdf/1712.07113.pdf.

Tom B. Brown, Dandelion Mané, Aurko Roy, Martín Abadi, Justin Gilmer. Adversarial Patch. 31st Conference on Neural Information Processing Systems (NIPS 2017), Long Beach, CA, USA. 2017. Режим доступа: https://arxiv.org/pdf/1712.07113.pdf.

Moustafa Alzantot, Bharathan Balaji, Mani Srivastava. Did You Hear That? Adversarial Examples Against Automatic Speech Recognition. 31st Conference on Neural Information Processing Systems (NIPS 2017), Long Beach, CA, USA. 2017. Режим доступа: https://arxiv.org/pdf/1801.00554v1.pdf.

Shehzeen Hussain, Paarth Neekhara, Malhar Jere, Farinaz Koushanfar, Julian McAuley. Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples. WACV 2021. Режим доступа: https://adversarialdeepfakes.github.io/.

DeepRobust: библиотека для состязательных атак на нейросети. Режим доступа: https://neurohive.io/ru/frameworki/deeprobust-biblioteka-dlya-sostyazatelnyh-atak-na-nejroseti/.

Ajaya Adhikari, Richard den Hollander, Ioannis Toliosa, Michael van Bekkuma, Anneloes Balc, Stijn Hendriksc, Maarten Kruithofb, Dennis Grossd, Nils Jansend, Guillermo Péreze, Kit Buurmana, Stephan Raaijmakersa. Adversarial Patch Camouflage against Aerial Detection. 2020. Режим доступа: https://arxiv.org/pdf/1712.07113.pdf.

Скачивания

Данные скачивания пока не доступны.