Мы не сможем управлять сверхразумными машинами

574.- СТАТЬЯ-074.

     Мы очарованы машинами, которые могут управлять машинами, сочинять симфонии или побеждать людей в шахматах.

     В то время как искусственный интеллект (ИИ) постоянно прогрессирует, некоторые ученые и философы предупреждают об опасности неконтролируемого сверхразумного ИИ. Используя теоретические расчеты, международная команда исследователей, включая ученых из Центра Людей и Машин в Институте развития человека имени Макса Планка, показывает, что невозможно управлять суперинтеллектуальным ИИ.

Как управлять суперинтеллектуальным ИИ?

Предположим, кто-то должен был запрограммировать систему ИИ с интеллектом, превосходящим интеллект человека, чтобы он мог учиться самостоятельно. Подключившись к Интернету, ИИ может иметь доступ ко всем данным человечества. Он может заменить все существующие программы и взять под контроль все машины в сети по всему миру. Может ли это привести к утопии или дистопии? Вылечит ли ИИ рак, принесет ли мир во всем мире и предотвратит ли климатическую катастрофу? Или уничтожит человечество и захватит Землю?

Компьютерщики и философы задавались вопросом, сможем ли мы вообще контролировать сверхразумный ИИ, чтобы он не представлял угрозы для человечества. Международная команда компьютерщиков использовала теоретические расчеты, чтобы показать, что управление сверхразумным ИИ в принципе невозможно.

574.- СТАТЬЯ-074.

     «Супер-интеллектуальная машина, которая управляет миром, звучит как научная фантастика». Но уже есть машины, которые выполняют определенные важные задачи самостоятельно, без полного понимания программистами того, как они их усвоили. Поэтому возникает вопрос, может ли это в какой-то момент стать неконтролируемым и опасным для человечества”, — говорит соавтор исследования Мануэль Себриан, лидер группы цифровой мобилизации в Центре человека и машин Института развития человека имени Макса Планка.

     Ученые изучили две разные идеи о том, как можно контролировать сверхразумный ИИ. С одной стороны, возможности суперинтеллектуального ИИ можно было бы специально ограничить, например, отключив его от Интернета и всех других технических устройств, чтобы он не мог контактировать с внешним миром — это сделало бы суперинтеллектуальный ИИ значительно менее мощным, менее способным отвечать на гуманитарные задания. Не имея такой возможности, ИИ с самого начала можно было бы мотивировать на достижение только тех целей, которые отвечают интересам человечества, например, путем программирования в него этических принципов. Однако, исследователи также показывают, что эти и другие современные и исторические идеи управления сверхразумным искусственным интеллектом имеют свои пределы.

     В своем исследовании команда разработала теоретический алгоритм сдерживания, который гарантирует, что суперинтеллектуальный ИИ не может причинить вред людям ни при каких обстоятельствах, имитируя сначала поведение ИИ и останавливая его, если считая, что оно вредно. Но тщательный анализ показывает, что в нашей современной парадигме вычислений такой алгоритм не может быть построен.

     «Если разбить проблему на основные правила теоретической вычислительной техники, то окажется, что алгоритм, который повелел бы ИИ не разрушать мир, мог бы непреднамеренно остановить его собственные действия. Если бы это произошло, то вы бы не знали, продолжает ли алгоритм локализации анализировать угрозу, или же он перестал содержать вредный ИИ». По сути, это делает алгоритм локализации непригодным для использования”, — говорит Ияд Рахван (Iyad Rahwan), директор Центра человека и машин.

     На основе этих расчетов проблема локализации является бесспорной, т.е. ни один алгоритм не может найти решение для определения того, будет ли ИИ причинять вред миру”. Более того, исследователи демонстрируют, что мы можем даже не знать, когда появились сверхразумные машины, потому что решение о том, обладает ли машина интеллектом, превосходящим человеческий, находится в той же области, что и проблема локализации.

МЫ В СОЦСЕТЯХ

Подписаться
Уведомить о

1 Комментарий
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии