По его мнению, опасения по поводу выхода ИИ из-под контроля небезосновательны и разделяются не только широкой публикой, но и признанными учеными. Например, Джеффри Хинтон оценивает риск вымирания человечества из-за ИИ в 10-20%. Однако для того, чтобы ИИ действительно мог выйти из-под контроля, он должен обладать как минимум двумя ключевыми свойствами: автономностью и самосознанием.
«Уже сейчас мы наблюдаем прогресс в создании автономного ИИ в виде ИИ-агентов — систем, способных выполнять сложные задачи без вмешательства человека. Они могут искать товары, оформлять покупки и планировать действия самостоятельно. Тем не менее, эти системы только развиваются, все еще остаются ограниченными рамками своих инструментов и лишены настоящей инициативы. Пока такие агенты совершают ошибки из-за несовершенства моделей, а не из-за «собственной воли»», — также отметил эксперт.
«По-настоящему самостоятельным ИИ станет только при наличии самосознания — способности осознавать себя, свои цели и формировать собственные желания. Это фундаментальное свойство пока не реализовано на практике. Однако работа в этом направлении ведется: например, компания Verses разрабатывает ИИ на основе принципов биомиметики и активного вывода, пытаясь воспроизвести работу человеческого мозга. Такой ИИ теоретически сможет осознанно выйти из-под контроля, и последствия будут зависеть от доступных ему инструментов. Можно предположить, что через 3-5 лет мы сможем добиться существенного прогресса в создании подобного ИИ», — добавил он.
Подписка на МордовМедиа в Telegram - удобный способ быть в курсе важных новостей! Подписывайтесь и будьте в центре событий. Подписаться.
Не забудьте поделитесь с друзьями в соцсетях и месенджерах:
Автор: Василий Соколов