Всё под контролем. Или нет? В МАИ рассказали, кто решит вопрос безопасного использования ИИ
Искусственный интеллект способен сделать жизнь людей значительно проще. Это утверждение с точки зрения технологического прогресса не подвергается сомнениям. А вот насколько безопасно применение цифрового разума – вопрос, который до сих пор остаётся без ответа. И чем чаще специалисты области искусственного интеллекта поднимают эту тему, чем глубже погружаются в детали, тем отчётливее осознание необходимости тотального контроля за ИИ.
Не говорите, что вас не предупреждали
Если проанализировать публичные доклады экспертов сферы цифровых технологий за последние несколько месяцев, то становится ясно, что большинство спикеров требуют от разработчиков «умных» структур тщательно исследовать их на предмет безопасности.
Кроме того, они настоятельно рекомендуют ещё на этапе создания тех или иных технологий на основе ИИ задумываться о внедрении мер по контролю за ними, в какой бы сфере разработка ни была применена впоследствии. Особенно, если это хоть как-то связано с такими высокотехнологичными отраслями, как авиация и космонавтика. Только при комплексном подходе к внедрению цифрового разума будут минимизированы все возможные риски и угрозы для человека, считают специалисты.
Это всё теория. А что на практике?
Вопрос эксплуатации ИИ на повестке дня стоит настолько остро, что в марте 2024 года его подняли на заседании Генеральной Ассамблеи ООН. По итогам обсуждений была принята резолюция, которая призывает в ультимативном порядке обеспечить безопасное использование искусственного интеллекта в невоенных целях и не допустить замену человека цифровым разумом. Работа над технологиями безопасного использования ИИ активно ведётся и в Российской Федерации. О том, как это происходит, в своём выступлении в рамках XI Международной недели авиакосмических технологий Aerospace Science Week рассказал директор Института системного программирования Российской академии наук, академик РАН Арутюн Аветисян.
Он отметил, что сегодня любая технология или программа на основе ИИ должна включать в себя триаду, состоящую из эффективности, продуктивности и безопасности (она же – доверие). Эффективность и продуктивность той или иной технологии на базе ИИ оцениваются через ключевые показатели производительности, которые помогают понять, какие задачи выполняются быстрее при правильном использовании ресурсов, а также дают представление о том, насколько гладко выполняются рабочие процессы. Безопасность и доверие тесно взаимосвязаны между собой, являясь в данном случае синонимами, поскольку пользователи склонны доверять программам и сервисам, которые активно используют в работе и повседневной жизни, и любое «предательство» с их стороны может привести к большим проблемам. Все указанные аспекты влияют на общее качество продукта на основе ИИ.
— Искусственный интеллект сейчас везде, и над его созданием ведётся масштабная работа. Важно понимать, что ИИ – это не разум, он не оперирует априорными знаниями. В лучшем случае он делает выводы на основе полученного опыта, хотя и с этим можно поспорить. Это сложная и трудно анализируемая информационно-коммуникационная технология. При её создании нужно прежде всего думать о безопасности, так как прогресс в этой области несёт потенциальные угрозы для человека, – подчеркнул Арутюн Аветисян.
Доверяй, но проверяй
Для наглядности Арутюн Аветисян привёл в пример эксплуатацию автопилота, который может как облегчить жизнь человека, так и отнять её. Автопилот – система автоматического управления транспортным средством, основанная на использовании технологий ИИ и машинного обучения. Он позволяет объекту двигаться и реагировать на окружающую обстановку без непосредственного участия человека, но в случае сбоя в работе системы необходимо, чтобы именно человек мог перехватить управление, поэтому применение без управляемого контура просто невозможно. Роль человекадолжна заключаться в том, чтобы принимать и обрабатывать информацию от системы, а затем передавать команду техническому средству, что обеспечит безопасность движения. Для этого должны быть созданы определённые регламенты работы таких систем.
— Работа искусственного интеллекта основана на определённом опыте, он привык действовать по правилам, которым его обучили. Если ситуация для него меняется и его данные устаревают, то это может привести к нештатным ситуациям. Человек должен понимать, какую именно систему ему приходится контролировать. Без этого технологического понимания мы не можем двигаться вперёд. Нужно учитывать риски применения ИИ в различных областях. Это и есть то самое доверие с точки зрения безопасности, – подчеркнул эксперт.
Академик РАН рассказал, что в настоящее время Институт системного программирования Российской академии наук в рамках соглашения о сотрудничестве в образовательной и научной деятельности, заключенного в 2020 году, активно взаимодействует с Московским авиационным институтом в области обеспечения безопасного применения ИИ. Речь идёт о научных проектах и магистерской программе, которые уже дают положительные результаты.
— Вызовы глобальные, и здесь отдельными коммерческими успехами и стартапами результата не достичь. Необходимо сложить усилия всех людей, которые делают и развивают информационные технологии не только в России, но и, например, в Китае. Долгосрочные технологии нужно создавать и продвигать совместно, и мы активно пропагандируем этот подход, – добавил Аветисян.
В качестве наглядного примера он рассказал о работе Исследовательского центра доверенного искусственного интеллекта (ИЦДИИ), существующего на базе Института системного программирования РАН. Целью работы ИЦДИИ является создание методик и соответствующих программных и аппаратно-программных платформ для разработки и верификации технологий искусственного интеллекта с требуемым уровнем доверия. В настоящее время специалисты ИЦДИИ создали доверенные версии популярных наборов готовых инструментов для машинного обучения TensorFlow и PyTorch. В планах – создание новых проектов, которые внесут свой вклад в обеспечение технологической безопасности страны.
— Технологии искусственного интеллекта нельзя взять под контроль и развивать в отдельно взятой стране. Нужно объединять усилия всех стран в этом направлении. Институт системного программирования РАН выступил с инициативой создания доверенного репозитория, который технологически и функционально совпадает с тем, что создается в мире, но при этом его коды безопасны, потому что проходят проверки соответствующими инструментами. Сейчас наша страна обладает полным стеком технологии безопасной разработки, что является предметом особой гордости, потому что в мире только США и РФ имеют такие возможности, – подчеркнул эксперт.
В заключение Арутюн Аветисян напомнил, что Россия – технологически мощная страна и готова к глобальным вызовам. Россияне уже давно выступают в ООН с инициативой о ликвидации цифрового неравенства и требованием о равном доступе к программному обеспечению для всех стран. Потому что любое ограничение доступа к софту – это преступление, ведущее к неблагоприятным последствиям.
Материал подготовлен при поддержке Минобрнауки России