На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

iXBT.com

33 подписчика

Свежие комментарии

  • Иван Николаев22 марта, 9:23
    Японцы одновременно выпустили три лимитированных серии. Вот кросстрек, плюс импреза, плюс леворг. Кросстрек, конечно,...Представлен новый...
  • Юрий Стенякин27 июля, 8:33
    А если учесть что компания официально ушла с российского рынка то преимущества спорныПредставлена нова...
  • Mikhail Stepanov14 июля, 7:52
    Ха-ха! В то время, как российская гиперзвуковой ракета летит со скоростью около 20 тыс. км. В час!США успешно испыт...

ChatGPT резко «отупел». После недавнего обновления языковая модель GPT-4 в некоторых случаях почти никогда не даёт правильный ответ

Похоже, страх того, что ChatGPT «захватит мир и лишит всех людей работы», можно как минимум временно считать неактуальным. Свежее исследование показало, что на июнь 2023 года языковая модель GPT-4, лежащая в основе чат-бота, стала намного «глупее», чем та же модель, но на март 2023 года. При этом языковая модель GPT-3.

5, напротив, в большинстве задач стала лучше, хотя и у неё есть проблемы. 

сгенерировано нейросетью Midjourney 

Исследователи Стэнфордского университета задавали чат-боту различные вопросы и оценивали правильность ответов. Причём речь шла не о каких-то абстрактных вещах, а о вполне конкретных. К примеру, ИИ должен был ответить, является ли число 17 077 простым. Дабы лучше понять процесс «размышления» ИИ, а заодно улучшить результат, чат-бота попросили расписывать свои вычисления шаг за шагом. Обычно в таком режиме ИИ чаще отвечает правильно. 

Однако это не помогло. Если ещё в марте модель GPT-4 давала правильный ответ в 97,6% случаев, то в июне показатель упал... до …

Ссылка на первоисточник
Рекомендуем
Популярное
наверх