Надежность нейронных сетей. Укрепляем устойчивость ИИ к обману

Надежность нейронных сетей. Укрепляем устойчивость ИИ к обману

Искусственный интеллект (ИИ) получил широкое распространение в со­временном мире. Умные машины ежедневно выполняют анализ сложных данных: системы видеонаблюдения распознают лица, цифровые помощни­ки — устную речь, а автономные транспортные средства и роботы справля­ются с задачей навигации в неупорядоченном и неограниченном физическом мире. ИИ уже не только конкурирует с человеческими возможностями в таких областях, как обработка изображений, аудиоданных и текста, но часто и превосходит человека по скорости и уровню точности.

Несмотря на все достижения в сфере ИИ, не так давно выяснилось, что глу­бокие нейронные сети (ГНС) — алгоритмы, входящие в состав большинства систем ИИ, — подвержены вредоносным атакам, использующим неопасные, на первый взгляд, входные данные. ГНС можно обмануть, внеся во входные данные незначительные изменения, которые будут незаметными для челове­ка. Так, небольшие изменения изображений, которые незаметны человеку, могут заставить ГНС неправильно интерпретировать их содержимое. Ввиду того, что многие системы ИИ получают свои входные данные из внешних источников — устройств с голосовым управлением или социальных сетей, — подверженность вредоносным входным данным открывает новую, часто весьма интригующую, угрозу безопасности. В данной книге рассказывается о такой угрозе, о том, какие выводы о ГНС позволяет сделать ее наличие и как сделать ИИ более устойчивым к атакам.

На примере реальных сценариев, в которых ИИ применяется в нашей повсе­дневной жизни для обработки изображений, аудио- и видеоданных, в книге рассматриваются мотивация таких атак, их осуществимость и создаваемые ими риски. Здесь представлены как интуитивное, так и математическое объяснение темы и рассмотрены способы повышения устойчивости интел­лектуальных систем к вредоносным входным данным.

Глубокие нейронные сети (DNN) становятся неотъемлемой частью IT-продуктов, приводя к появлению нового направления кибератак. Хакеры пытаются обмануть нейросети с помощью данных, которые не смогли бы обмануть человека. Автор рассматривает мотивацию подобных атак, риски, которые влечет вредоносный ввод, а также методы повышения устойчивости ИИ к таким взломам. Если вы специалист в науке о данных, архитектор системы безопасности и стремитесь повысить устойчивость систем с ИИ или вас просто интересует различие между искусственным и биологическим восприятием, то эта книга для вас.

Название: Надежность нейронных сетей. Укрепляем устойчивость ИИ к обману
Автор: Кэти Уорр
Издательство: Питер
Год: 2021
Страниц: 272
Язык: русский
Формат: pdf
Размер: 10.0 MB

Скачать Надежность нейронных сетей. Укрепляем устойчивость ИИ к обману
Внимание! У Вас нет прав для просмотра скрытого текста.
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.