Среди этих вызовов, по его мнению, значится в первую очередь самостоятельное принятие решений ИИ-системами, последствия этих решений люди не могут предсказать или объяснить.
Алгоритмы, по мнению Павла Карасева, могут начать действовать во вред пользователям, потому что были обучены на ошибочных или искажённых данных. В целом искусственный интеллект может начать использоваться в целях, для которых он изначально не предназначался например, в информационных войнах, кибератаках, манипуляциях общественным мнением (к слову сказать, данная тема обсуждалась и на недавно завершившемся Петербургском международном экономическом форуме — ред.).
На сегодняшний день, по мнению эксперта, наиболее актуальны следующие сценарии:
• Непрозрачность решений. Многие современные ИИ-модели работают как «чёрный ящик».
Даже создатели не всегда могут объяснить, почему система приняла то или иное решение — особенно это опасно в медицине, правосудии, кредитовании.
• Предвзятость данных. ИИ обучается на существующих массивах информации, и если эти данные содержат ошибки, стереотипы или искажения — алгоритмы их воспроизводят, а иногда и усиливают.
• Ошибки в критически важных системах. Например, автопилоты, ИИ в медицинской диагностике или оборонных системах. Ошибка может стоить жизни или привести к масштабным последствиям.
• Автономность без контроля. Некоторые системы способны самостоятельно принимать решения в реальном времени. Если не заданы строгие рамки, последствия могут быть непредсказуемыми. А что с полностью автономным ИИ? Создание ИИ, способного принимать собственные решения вне рамок программирования, остаётся пока в теории. Модели вроде ChatGPT, Midjourney или AlphaFold — мощные, но они не обладают волей, намерением или осознанной целью. Они генерируют ответы по вероятностной модели, основанной на обучающих данных. Но при этом существует другой риск: не сам ИИ, а человек, использующий его безответственно. Например, генерация фейков, DeepFake-видео, фальсификация документов, манипуляции в политике и экономике.
Что делает ИИ безопаснее?
• Чёткие этические принципы разработки (включая запрет на использование ИИ в вредоносных целях).
• Постоянный контроль и аудит работы моделей.
• Регулирование со стороны государства и международных организаций.
• Образование и цифровая грамотность пользователей. В 2023–2025 годах многие страны (включая ЕС, США, Китай и Россию) начали формировать законодательные рамки для регулирования ИИ — от запрета на «вредный ИИ» до требований по прозрачности, аудиту и ограничению автономности.
«На текущем этапе риск того, что ИИ “восстанет” и выйдет из-под контроля в голливудском смысле, крайне мал. Но риски ошибок, манипуляций и безответственного применения — абсолютно реальны. Безопасность ИИ это не только вопрос технологии, но и культуры, регулирования и зрелости пользователей. И именно от нас зависит, станет ли ИИ инструментом прогресса или источником новых угроз», — также отметил эксперт.
Подписка на МордовМедиа в Telegram - удобный способ быть в курсе важных новостей! Подписывайтесь и будьте в центре событий. Подписаться.
Не забудьте поделитесь с друзьями в соцсетях и месенджерах:
Автор: Василий Соколов