По мнению эксперта, искусственный интеллект не является злобным суперразумом из кино. По факту, он больше похож на очень продвинутый инструмент – отлично справляется с конкретными задачами вроде распознавания образов или генерации текста, но не понимает мир по-настоящему. У него нет своих целей или желания «сбежать». Риск, что он вдруг взбунтуется и уничтожит человечество, близок к нулю.
На деле главная проблема другая: мы часто переоцениваем контроль над ИИ и недооцениваем свои ошибки в обращении с ним. Вот три реальные сложности: «Черный ящик». Мы не всегда понимаем, как ИИ пришел к ответу (будь то совет врача или финансовая рекомендация). Из-за этого люди иногда слепо верят результату. Как тот адвокат, который подал в суд документы с выдуманными прецедентами от ИИ – хотя система сама предупреждала, что может ошибаться. Буквальное понимание.
Более того, продолжил Павел Воронов, искусственный интеллект не обладает здравым смыслом. Если дать ему плохо прописанную задачу (например, «сделай как можно больше скрепок»), он может «оптимизировать» процесс самым ужасным способом – скажем, решить, что люди – просто сырье. Оружие в плохих руках. Злоумышленники уже вовсю используют ИИ: создают убедительные фейки (дипфейки) для обмана, пишут с его помощью вредоносные программы, подделывают голоса для мошенничества или даже проектируют опасные вещества.
«Но самый серьезный риск – в нас самих. Рядом с «умным» ИИ люди часто теряют бдительность. Как водитель, который перестает смотреть на дорогу, доверившись автопилоту. Исследования показывают: мы склонны слишком доверять алгоритмам, меньше проверяем информацию и рискуем больше. Добавьте сюда привычку полагаться на ИИ-помощников во всем («Мне проще спросить у бота, чем разбираться самому») – и получите медленную потерю самостоятельности. Мы просто разучиваемся думать»,- добавил эксперт.
«Технически ИИ пока управляем: его запускают в изолированных средах («песочницах»), ставят аварийные отключения. Но эти меры не помогут, если мы перестаем критически оценивать его советы и решения. По сути, ИИ сейчас не опасен сам по себе. Опасность в том, как мы к нему относимся. Мы расслабляемся, слишком много ему доверяем и потихоньку перекладываем на него ответственность. Риск не в том, что ИИ выйдет из-под контроля, а в том, что мы сами перестаем контролировать ситуацию, слепо следуя за алгоритмом. Выходит, главный вопрос не к ИИ, а к нам: не слишком ли мы полагаемся на технологии в ущерб собственному мышлению? Стоит задуматься», — также отметил он.
Подписка на МордовМедиа в Telegram - удобный способ быть в курсе важных новостей! Подписывайтесь и будьте в центре событий. Подписаться.
Не забудьте поделитесь с друзьями в соцсетях и месенджерах:
Автор: Василий Соколов