16+
 

IT-эксперт назвал более опасные, чем восстание машин, вещи

23 июня 2025 05:40

Когда мы говорим о том, что ИИ может выйти из-под контроля, речь чаще всего идёт не о фантастическом “восстании машин”, а о более приземлённых, но не менее опасных сценариях. Об этом заявил бизнес-партнер компании "Компьютерные технологии" Павел Карасев в беседе с Mordovmedia.

Фото: commons.wikimedia.org/GDJ/Creative Commons Zero, Public Domain Dedication

IT-эксперт: существуют более опасные, чем «восстание машин», вещи Фото: commons.wikimedia.org/GDJ/Creative Commons Zero, Public Domain Dedication

Среди этих вызовов, по его мнению, значится в первую очередь самостоятельное принятие решений ИИ-системами, последствия этих решений люди не могут предсказать или объяснить.

Алгоритмы, по мнению Павла Карасева, могут начать действовать во вред пользователям, потому что были обучены на ошибочных или искажённых данных. В целом искусственный интеллект может начать использоваться в целях, для которых он изначально не предназначался например, в информационных войнах, кибератаках, манипуляциях общественным мнением (к слову сказать, данная тема обсуждалась и на недавно завершившемся Петербургском международном экономическом форуме — ред.).

На сегодняшний день, по мнению эксперта, наиболее актуальны следующие сценарии:

• Непрозрачность решений. Многие современные ИИ-модели работают как «чёрный ящик».

Даже создатели не всегда могут объяснить, почему система приняла то или иное решение — особенно это опасно в медицине, правосудии, кредитовании.

• Предвзятость данных. ИИ обучается на существующих массивах информации, и если эти данные содержат ошибки, стереотипы или искажения — алгоритмы их воспроизводят, а иногда и усиливают.

• Ошибки в критически важных системах. Например, автопилоты, ИИ в медицинской диагностике или оборонных системах. Ошибка может стоить жизни или привести к масштабным последствиям.

• Автономность без контроля. Некоторые системы способны самостоятельно принимать решения в реальном времени. Если не заданы строгие рамки, последствия могут быть непредсказуемыми. А что с полностью автономным ИИ? Создание ИИ, способного принимать собственные решения вне рамок программирования, остаётся пока в теории. Модели вроде ChatGPT, Midjourney или AlphaFold — мощные, но они не обладают волей, намерением или осознанной целью. Они генерируют ответы по вероятностной модели, основанной на обучающих данных. Но при этом существует другой риск: не сам ИИ, а человек, использующий его безответственно. Например, генерация фейков, DeepFake-видео, фальсификация документов, манипуляции в политике и экономике.

Что делает ИИ безопаснее?

• Чёткие этические принципы разработки (включая запрет на использование ИИ в вредоносных целях).

• Постоянный контроль и аудит работы моделей.

• Регулирование со стороны государства и международных организаций.

• Образование и цифровая грамотность пользователей. В 2023–2025 годах многие страны (включая ЕС, США, Китай и Россию) начали формировать законодательные рамки для регулирования ИИ — от запрета на «вредный ИИ» до требований по прозрачности, аудиту и ограничению автономности.

«На текущем этапе риск того, что ИИ “восстанет” и выйдет из-под контроля в голливудском смысле, крайне мал. Но риски ошибок, манипуляций и безответственного применения — абсолютно реальны. Безопасность ИИ это не только вопрос технологии, но и культуры, регулирования и зрелости пользователей. И именно от нас зависит, станет ли ИИ инструментом прогресса или источником новых угроз», — также отметил эксперт.

Подписка на МордовМедиа в Telegram - удобный способ быть в курсе важных новостей! Подписывайтесь и будьте в центре событий. Подписаться.

Не забудьте поделитесь с друзьями в соцсетях и месенджерах:

ИА «МордовМедиа». При использовании материала гиперссылка обязательна.

Рубрика:Новости Саранска и Мордовии

Заметили ошибку в тексте? Выделите ошибку и нажмите CTRL + ENTER

Похожие новости

Фото: commons.wikimedia.org/Kalinin Dmitry/Creative Commons Zero, Public Domain Dedication

Эксперт: ПМЭФ-2025 подтвердил свой статус экономического мероприятия

Пленарные заседания форумов такого уровня с международным участием являются не столько дискуссионной площадкой, но и поводом презентовать личные достижения и успехи, установить акценты на будущее. Об этом в беседе с Mordovmedia, комментируя прошедшее пленарное заседание Петербургского международного экономического форума, заявил психоаналитик, журналист Андрей Кашкаров.

Фото: commons.wikimedia.org/Дитмар Рабих/Creative Commons Attribution-Share Alike 4.0

Эксперт прокомментировала значение для России концепции Индотихоокеанского региона

Появление новых геополитических конструкций и терминов, таких как «Индо-Тихоокеанский регион» (ИТР), — это не просто лингвистическая игра. Об этом заявила доцент Финансового университета при Правительстве РФ Екатерина Андреева в беседе с Mordovmedia.

Хотите, чтобы Ваша новость появилась на сайте?

Свяжитесь с нашей службой новостей