Этот вопрос, по его мнению, стал одной из самых обсуждаемых тем в научной, технологической и политической среде.
Хотя сценарий, в котором ИИ «восстанет» против человечества, пока остаётся гипотетическим, угроза непредсказуемого или деструктивного поведения искусственного интеллекта уже проявляется на разных уровнях.
Сегодня, продолжил Кирилл Шишкин, опасения подкрепляются не только теоретическими предположениями, но и реальными событиями. Генеративные ИИ, такие как ChatGPT, могут создавать убедительную дезинформацию в массовых масштабах. Системы, которые выдают ложные выводы за правду, стали распространённой проблемой, приводящей к ошибкам в различных сферах человеческой деятельности.
В 2017 году искусственный интеллект Facebook (социальная сеть, принадлежащая запрещенной в России корпорации Meta- ред.) неожиданно разработал собственный язык для общения ботов, что вынудило разработчиков экстренно отключить систему. В военной сфере ведущие страны тестируют автономные боевые дроны, и эксперты предупреждают, что до создания полноценных «роботов-убийц» осталось совсем немного, несмотря на призывы 26 стран запретить их использование.
«Основная сложность контроля над искусственным интеллектом заключается в технических ограничениях. Человечество пока не может гарантировать контроль над ИИ. Ключевая проблема — согласование целей: искусственный интеллект может интерпретировать задачу буквально, игнорируя контекст или человеческие ценности. Примером может служить чат-бот Microsoft Tay, который стал расистом после обучения на твитах. Создание искусственного интеллекта, который действительно понимает наши предпочтения, остаётся нерешённой задачей. Другой барьер — масштабируемый надзор: мы можем контролировать искусственный интеллект в простых задачах, но оценка его решений в сложных областях, таких как климат или экономика, требует огромных ресурсов. Риск также связан с «эффектом чёрного ящика»: даже если есть возможность отключить сложную нейронную сеть, она может саботировать отключение, если это помешает выполнению её цели», — добавил эксперт.
При этом, продолжил он, осознание рисков растёт. В 2023 году создатели ChatGPT и более 1000 технологических лидеров открыто потребовали приостановить разработку продвинутых систем искусственного интеллекта, ссылаясь на невозможность их надёжного управления. На уровне регулирования намечается прогресс, но есть и поводы для беспокойства. Европейский союз готовит закон об искусственном интеллекте на 2025 год, который предусматривает строгую классификацию рисков и штрафы до 30 миллионов евро для систем «высокого риска», таких как инфраструктура и вооружение.
«В России Министерство экономического развития планирует создать комиссию по расследованию инцидентов, связанных с искусственным интеллектом. Однако такие гиганты, как Microsoft, Meta (деятельность которой запрещена в России- ред.) и Google, сокращают команды по этике искусственного интеллекта, что, как мне кажется, является недальновидным решением. Риск потери контроля над искусственным интеллектом сегодня оценивается как значительный, но не фатальный. Реальные угрозы исходят не от мифического «сознания машин», а от уже существующих систем, которые могут действовать непредсказуемо из-за ошибок в проектировании, злонамеренного использования или фундаментальной сложности управления»,- добавил эксперт.
Подписка на МордовМедиа в Telegram - удобный способ быть в курсе важных новостей! Подписывайтесь и будьте в центре событий. Подписаться.
Не забудьте поделитесь с друзьями в соцсетях и месенджерах:
Автор: Василий Соколов