Отчет: нейронные сети искусственного интеллекта подвержены внедрению вредоносного кода

Романов Роман
Отчет: нейронные сети искусственного интеллекта подвержены внедрению вредоносного кода

Трое исследователей из Корнельского университета обнаружили, что вредоносный код можно скрыть внутри нейронных сетей искусственного интеллекта. Чжи Ван, Чаоге Лю и Сян Цуй опубликовали статью, в которой описывают свои эксперименты по внедрению кода в нейронные сети на сервере препринтов arXiv.

По мере того, как компьютерные технологии становятся все более сложными, сложнее становятся и попытки преступников взломать машины, на которых запущены новые технологии для испошльзования их в своих целях, таких как уничтожение данных или их шифрование и вымогательство платы от пользователей за их возврат. В новом исследовании команда нашла новый способ заразить определенные виды компьютерных систем, на которых работают приложения искусственного интеллекта.

Системы искусственного интеллекта выполняют свою работу, обрабатывая данные аналогично человеческому мозгу. Но такие сети, как обнаружили исследователи, уязвимы для проникновения вредоносного кода.

Без названия.jpg (9 KB)

Нейронные сети по самой своей природе могут подвергаться вторжению посторонних агентов. Все, что должны делать такие агенты, - это имитировать структуру сети во многом так же, как воспоминания добавляются в человеческий мозг. Исследователи обнаружили, что это возможно, когда вредоносное ПО встраивается в нейронную сеть в системе ИИ под названием AlexNet - несмотря на то, что она довольно большая и занимает 36,9 Мб памяти на оборудовании, на котором работает система ИИ. Чтобы добавить код в нейронную сеть, исследователи выбрали то, что, по их мнению, будет лучшим методом для внедрения. Они также добавили вредоносный код в модель, которая уже была обучена, но отметили, что хакеры могут предпочесть атаковать необученную сеть, потому что это может иметь меньшее влияние на сеть в целом.

В процессе исследования было обнаружено, что не только стандартное антивирусное программное обеспечение не смогло обнаружить вредоносное ПО, но и производительность системы искусственного интеллекта после заражения оставалась почти такой же. Таким образом, заражение могло остаться незамеченным, если бы оно было выполнено тайно.

Исследователи отмечают, что простое добавление вредоносного ПО в нейронную сеть не причинит вреда - тот, кто встроил код в систему, все равно должен будет найти способ запустить его. Они также отмечают, что теперь, когда известно, что хакеры могут внедрять свой код в нейронные сети ИИ, антивирусное программное обеспечение может быть обновлено для его поиска.

По материалам: Techexplore