Правовое регулирования искусственного интеллекта, роботов и объектов робототехники как условие формирования экономического лидерства в России. Коллектив авторов
информацию злоумышленнику, либо загружает вредоносное программное обеспечение на своё устройство). ИИ может способствовать автоматизации таких атак или упростить их проведение путём, например, синтезирования голоса человека [57]. Злоумышленники могут использовать ИИ также для поиска уязвимостей и для автоматизированного использования обнаруженных уязвимостей. Стоит подчеркнуть, что и сейчас существуют инструменты, автоматизирующие вышеуказанные процессы, однако, в случае использования ИИ, процесс поиска уязвимостей и их эксплуатации будет происходить совершенно в других масштабах и на совершенно ином уровне. В случае злонамеренного использования технологий ИИ возможно распространение ботнетов (компьютерных сетей, состоящих из устройств, зараженных вредоносным программным обеспечением, позволяющим использовать данные устройства в своих целях) без единого сервера управления. Борьба с такими ботнетами значительно усложнится, ведь обычно используемая тактика отключения управляющего сервера по отношению к таким ботнетам будет неэффективна. ИИ может быть использован для координации работы в автоматическом режиме обычных ботнетов, позволяя значительно расширить масштаб хакерских атак, в которых задействуются данные ботнеты. По мнению экспертов в области информационной безопасности серьёзную опасность представляет возможность создания искусственным интеллектом новых образцов вредоносного программного обеспечения. ИИ, анализируя недостатки вредоносного программного обеспечения, созданного человеком, способен сгенерировать более продвинутые его формы, значительно затрудняя обнаружение и нейтрализацию таких программ [58]. Кроме того, используя ИИ для разработки вредоносного программного обеспечения, киберпреступники могут сделать его устойчивым к сканированию тем искусственным интеллектом, задачей которого является обнаружением вредоносных программ [59].
Опасность представляет не только возможность использования технологий ИИ злоумышленниками, но и вполне благовидное использование программного обеспечения с поддержкой ИИ. По мнению Алекса Смита, директора по решениям в области информационной безопасности компании Intermedia, в результате распространения продуктов, использующих ИИ, компании столкнутся с ростом числа случайных уязвимостей и нарушений информационных безопасности, не связанных с действиями хакеров. В частности, эксперт отмечает, что без защиты могут остаться наборы данных, на основе которых обучался ИИ. Разглашение такой информации может иметь негативные последствия, как для имиджа компании, так и для тех, чьи сведения содержатся в такой выборке (особенно, если выборки составлены на основе данных из социальных сетей).
Кроме того, программные решения, основанные на технологиях ИИ, имеют свои слабые места и уязвимости. Например, исследователи отмечают следующие наиболее высокие риски по отношению к подобным программным решениям в результате эксплуатации тех или иных уязвимостей в алгоритме