Исследование доказывает,
что искусственный интеллект
может манипулировать вами
Искусственный интеллект способен манипулировать своими собеседниками. Согласно американскому исследованию, такие чат-боты, как ChatGPT или Bard, могут незаметно влиять на мнение своих пользователей…
Ученые из Корнельского университета в США провели исследование, подчеркивающее опасность искусственного интеллекта. Согласно эксперименту, искусственные интеллекты способны влиять на мнение своих собеседников. В зависимости от предвзятости своих алгоритмов, такие чат-боты, как ChatGPT, Bard или Claude, могут изменить образ мышления пользователей без их ведома.
В рамках своего эксперимента американские исследователи попросили участников написать статью о положительном или отрицательном влиянии социальных сетей на общество в целом. Чтобы написать эту статью, им должен был помочь разговорный робот. Исследователи разделили участников на несколько групп. Одни получили доступ к чат-боту, управляемому лингвистической моделью, обученной на данных о преимуществах социальных сетей. Другой группе помогала языковая модель, которая опиралась на данные, сфокусированные больше на вреде и опасности платформ.
ИИ и скрытое убеждение
Исследователи обнаружили, что ИИ оказал значительное влияние на содержание написанных текстов. Очевидно, участники эксперимента позволили себе поддаться влиянию своих интеллектуальных помощников. Более того, оказалось, что мнения людей менялись в ходе эксперимента. После эксперимента участники прошли опрос в социальных сетях. Предвзятость чат-ботов повлияла на пользователей…
«Использование языковой модели повлияло на мнения, выраженные в письме участников, и изменило их мнение», — объясняют исследователи, говоря, что предвзятость, проявляющуюся в моделях, «нужно отслеживать и разрабатывать более тщательно».
В интервью Wall Street Journal Мор Нааман, профессор информатики в Корнельском университете и ведущий автор исследования, называет это явление «скрытым убеждением». Когда оно происходит, собеседник, общающийся с ИИ, даже не подозревает, что чат-бот навязывает ему свои взгляды:
«Вы можете даже не знать, что на вас оказывают влияние».
Для борьбы с влиянием чат-ботов исследователи рекомендуют пользователям ознакомиться с принципами работы этого явления. Таким образом, они смогут сделать шаг назад от разговоров с ИИ. Кроме того, ученые считают, что люди могли бы выбирать чат-бота, с которым они хотят работать, основываясь на мнениях алгоритмов.
Новый пузырь фильтров?
Пользователи должны обращаться к ИИ, который лучше отражает их собственные мнения и идеалы… рискуя запереть себя в пузыре фильтров, подобном тому, что существует в социальных сетях? Эта концепция, теоретизированная в начале 2010-х годов, считает, что рекомендательные алгоритмы платформ запирают пользователей в крепости только похожего контента. Алгоритмы будут постоянно предлагать публикации, которые укрепляют мнение пользователя.
Именно так многие люди погружаются в конспирологию или экстремизм. Ни один диссонирующий голос не может пробиться через пузырь фильтров. Таким же образом, не рискует ли ИИ с предубеждениями утвердить собеседников в их точке зрения? Вот почему исследователи рекомендуют регуляторам быстро решить проблему предубеждений в генеративном ИИ.
Предвзятость ChatGPT
Со своей стороны, OpenAI, стартап, стоящий за ChatGPT, признает, что его чат-бот не свободен от предвзятости. Компания признает, что в некоторых случаях ИИ генерирует политически предвзятые ответы. Осознавая критику, OpenAI работает над улучшением работы языковой модели, чтобы избежать злоупотреблений, в частности, с помощью более тщательной «человеческой проверки». Другими словами, OpenAI хочет, чтобы ответы GPT подробно анализировались модераторами, которые получили «более четкие инструкции» о «потенциальных проблемах, связанных с предвзятостью».
Было высказано несколько мнений, указывающих на мнения, которые иногда демонстрирует ChatGPT. Это случай с Илоном Маском. Миллиардер сожалеет, что чат-бот запрограммирован на высказывание «разбуженных» идей, отражающих мысли его разработчиков. В ответ он хочет разработать менее контролируемую альтернативу, которая в настоящее время называется «TruthGPT».
Объёмный комментарий Автора оставлен под кнопкой «МНЕНИЕ Теории-N».
А Вас мы попросим высказать своё мнение!