На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

iXBT.com

34 подписчика

Свежие комментарии

  • Иван Николаев22 марта, 9:23
    Японцы одновременно выпустили три лимитированных серии. Вот кросстрек, плюс импреза, плюс леворг. Кросстрек, конечно,...Представлен новый...
  • Юрий Стенякин27 июля, 8:33
    А если учесть что компания официально ушла с российского рынка то преимущества спорныПредставлена нова...
  • Mikhail Stepanov14 июля, 7:52
    Ха-ха! В то время, как российская гиперзвуковой ракета летит со скоростью около 20 тыс. км. В час!США успешно испыт...

Исследование показало, что GPT-4 может обмануть людей, заставив их поверить в то, что они разговаривают с человеком

Популярные инструменты на базе искусственного интеллекта, такие как GPT-4, генерируют похожий на человеческий текст текст и настолько хорошо справляются с различными языковыми задачами, что становится всё труднее определить, является ли собеседник человеком или чат-ботом.

Этот сценарий отражает знаменитый мысленный эксперимент Алана Тьюринга, в котором он предложил тест, позволяющий оценить, «может ли машина демонстрировать человеческое поведение до такой степени, что человек не сможет различить человека и машину, основываясь исключительно на их реакциях».

Департамент когнитивных наук Калифорнийского университета в Сан-Диего решил проверить, как работают современные системы искусственного интеллекта, и оценил ELIZA (простой основанный на скриптах чат-бот 1960-х годов, включенный в эксперимент в качестве базового), GPT-3.5 и GPT-4 в контролируемом эксперименте Тьюринга. Участники в течение пяти минут разговаривали либо с человеком, либо с ботом, а затем должны были решить, был ли их собеседник человеком.

Источник: Dall-e

Исследователи поручили моделям GPT-4 и GPT-3.5 «принять образ молодого человека, который был немногословен, не относился к эксперименту серьёзно, использовал сленг и время от времени допускал орфографические ошибки». Кроме того, инструкция содержала «общую информацию об эксперименте и информацию о новостях, произошедших после прекращения обучения модели». Доступ к двум моделям осуществлялся через API OpenAI, а чтобы предотвратить слишком быстрый ответ чат-ботов, их сообщения отправлялись с задержкой в зависимости от количества символов в сообщении.

В исследовании 500 участников были отнесены к одной из групп. Они вели разговор либо с человеком, либо с одной из трёх систем на базе искусственного интеллекта. Интерфейс эксперимента напоминал типичное приложение для обмена сообщениями.

Через пять минут участники должны были сделать вывод — был ли их собеседник человеком или искусственным интеллектом, и обосновывать свои заключения.

По результатам GPT-4 был идентифицирован как человек в 54% случаев, опережая GPT-3,5 (50%), причём оба значительно превосходили ELIZA (22%), но отставали от реальных людей (67%). По заключению исследователей, результат жксперимента указывает на то, что современные системы на основе искусственного интеллекта способны обмануть людей, заставив их поверить в то, что они люди.

Анализ результатов показал, что участники часто полагались на лингвистический стиль, социально-эмоциональные факторы и вопросы, предполагающие ответы, основанные на знаниях, чтобы решить, разговаривают ли они с человеком или с чат-ботом.

Ссылка на первоисточник
Рекомендуем
Популярное
наверх