Угрожает ли людям ИИ?
©Wikipedia / Автор: Наталья Федосеева
Искусственный интеллект многие эксперты считают едва ли не главной угрозой для человечества. Но насколько обоснованы эти опасения?
Машина против человека
О том, что роботы заменяют человека повсеместно, мы слышим едва ли не каждый день. По самым оптимистичным прогнозам, в ближайшие десятилетия машины оставят без работы миллионы людей. Но в большинстве случаев речь идет об узкоспециализированных программах, которые, хотя и могут заменить отдельно взятого специалиста, но уж никак не станут «альтернативой» Homo sapiens.
Не секрет, что искусственный интеллект уже может конкурировать с человеком. Самый яркий тому пример – созданная специалистами Google программа AlphaGo. Ранее различные программы уже одерживали верх над человеком в шашках, шахматах и нардах. Но вот древнекитайскую логическую игру го считали «слишком сложной для ИИ». В ней действительно присутствует глубокое стратегическое содержание. Дело в том, что в го почти невозможно перебрать все комбинации, и в силу этого ИИ сложно просчитать варианты развития событий. Тем не менее, созданная Google программа AlphaGo в 2016 году смогла обыграть чемпиона Европы по игре го Фаня Хуэя. Причем сделала она это с разгромным счетом 5:0.
Но как удалось добиться такого результата? Ведь, как мы уже говорили, здесь нельзя было применить обычные алгоритмы. Создатели AlphaGo разработали две нейронные сети: особые алгоритмы, которые имитировали работу цепочек нейронов в человеческом мозге. Одна сеть несла ответственность за определение текущей позиции на доске, а вторая применяла результаты анализа, которые были подготовлены первой сетью, чтобы выбрать следующее действие.
Го / ©Deepmind
«Нобелевский лауреат»
Этот удивительный пример не единственное доказательство усиления позиций ИИ. Недавно группе австралийских физиков удалось создать программу, которая может сама проводить исследования. Более того, у нее уже получилось воспроизвести эксперимент, за который в 2001 году присудили Нобелевскую премию по физике. Речь идет о награде, которая в 2001 досталась Эрику Корнеллу, Вольфгангу Кеттерле и Карлу Виману за «экспериментальное наблюдение бозе-эйнштейновской конденсации в разреженных газах атомов щелочных металлов и за первые фундаментальные исследования свойств таких конденсатов». В рамках эксперимента исследователи охладили газ до температуры около одного микрокельвина, а после этого отдали контроль над несколькими лазерными лучами искусственному интеллекту для охлаждения захваченного газа до нанокельвина. Машина научилась проводить эксперимент менее чем за час. Больше того, она смогла подойти к процессу «творчески». ИИ, например, менял мощность одного лазера, компенсируя это другим лазером. Сами авторы нового исследования говорят, что «человек не смог бы додуматься до такого».
Кто есть кто
Как мы видим, прогресс в деле создания ИИ очевиден и описанные выше случаи – лишь одни из многих. Другой вопрос: что именно считать искусственным интеллектом и, более того, что можно вложить в содержание понятия «полноценный ИИ»? Этот вопрос волнует великие умы на протяжении десятилетий, но даже сейчас, в наш продвинутый информационный век, ответить на него очень трудно. В 1980 году американский философ Джон Роджерс Сёрл ввел термин «сильный искусственный интеллект». Речь идет о программе, которая будет представлять собой не просто модель разума, а станет разумом в буквальном смысле этого слова. В противовес этому сторонники «слабого искусственного интеллекта» оценивают ИИ лишь в контексте решения узкоспециализированных задач. Проще говоря, они не могут себе представить, чтобы машина действовала наравне с человеком.
Не менее важен и морально-этический аспект. Предположим, ученые создадут продвинутый ИИ, который заменит собой человека буквально во всех сферах. Но будет ли такая программа иметь привычную для человеческого общества мораль? Или же ее в принципе невозможно будет наделить такими качествами… Интересно, что ранее был введен специальный термин «чистый искусственный разум»: в этом случае машина понимает и решает вопросы, как настоящий человек, но лишена характерных для людей эмоций. Последнее, кстати, может стать конкурентным преимуществом машины перед человеком, но об этом позже.
©Defence
Угроза для выживания?
«Слабый ИИ», конечно, может лишить человека работы, но вряд ли станет угрозой для выживания всего вида Homo sapiens. В качестве основной угрозы эксперты называют именно продвинутый полноценный искусственный интеллект, которому человек станет попросту не нужен. Довольно пугающий прогноз в 2015 году сделал известный британский физик-теоретик Стивен Хокинг, заявивший, что машины в течение ста лет возьмут над человеком верх. «Уже в ближайшие 100 лет искусственный интеллект превзойдет человеческий. И до того, как это случится, мы должны сделать все, чтобы цели машин совпадали с нашими», – заявил Хокинг. Исследователь обеспокоен недальновидностью разработчиков ИИ. Еще раньше ученый назвал причину превосходства ИИ над Homo sapiens: по его мнению, человек эволюционирует очень медленно, в то время как машины смогут самосовершенствоваться невероятно быстро.
Опасения Хокинга разделяет основатель Microsoft Билл Гейтс. «Я в том лагере, который обеспокоен перспективой развития суперинтеллекта. Сначала машины будут выполнять большую часть работы за нас, однако не будут обладать суперинтеллектом. Это хорошо, если мы правильно будем этим управлять. Через несколько десятилетий искусственный интеллект станет достаточно развитым, чтобы стать причиной для беспокойства», – заявил он в 2015 году.
Интересно, что об угрозе ИИ говорит даже главный инноватор нашего времени Илон Маск, который, казалось бы, должен видеть плюсы во всех новых технологиях. Он заявил о возможности появления полноценного искусственного интеллекта уже в ближайшие годы. «Искусственный интеллект прогрессирует очень стремительно. Вы понятия не имеете, насколько. Это происходит по экспоненте», – сказал он в 2015 году.
Илон Маск / ©Siliconrus
Фантазии и реальность
Свою лепту в распространение тезиса об угрозе ИИ, конечно, внесли фантасты. Пожалуй, самый пугающий прогноз конца света – это «серая слизь». В этом случае неуправляемые самореплицирующиеся нанороботы, выполняя программу саморазмножения, поглотят все доступное им вещество на нашей планете.
Сейчас это звучит как бред, но многим этот сценарий не кажется таким уж невероятным. Шотландский ученый Данкан Форган даже предложил в 2015 году искать погибшие инопланетные цивилизации по «серой слизи». В случае такого развития сценария конца света, по его мнению, чужая планета будет покрыта «песком» из миниатюрных машин. Они будут отражать свет и резко повышать яркость планеты при ее прохождении по диску светила.
Но не все фантасты склонны видеть в роботах угрозу. Наиболее системно к вопросу развития ИИ подошел знаменитый Айзек Азимов, сформулировавший три закона робототехники:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2.Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Айзек Азимов / ©Fantasticbookblog
В любом случае пока что от ИИ пользы намного больше, чем вреда, и нет оснований думать, что «роботы замыслили против человека что-то плохое». Главный враг Homo sapiens – это не машины, не природные катаклизмы и даже не пришельцы из других миров. Главную опасность для человека представляет другой человек. И польза/вред от искусственного интеллекта будет целиком и полностью зависеть от того, как сами люди распорядятся новыми достижениями науки и техники.
Объёмный комментарий Автора оставлен под кнопкой «МНЕНИЕ Теории-N».
А Вас мы попросим высказать своё мнение!