На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

iXBT.com

34 подписчика

Свежие комментарии

  • Иван Николаев22 марта, 9:23
    Японцы одновременно выпустили три лимитированных серии. Вот кросстрек, плюс импреза, плюс леворг. Кросстрек, конечно,...Представлен новый...
  • Юрий Стенякин27 июля, 8:33
    А если учесть что компания официально ушла с российского рынка то преимущества спорныПредставлена нова...
  • Mikhail Stepanov14 июля, 7:52
    Ха-ха! В то время, как российская гиперзвуковой ракета летит со скоростью около 20 тыс. км. В час!США успешно испыт...

Исследователи опровергли экзистенциальную угрозу ИИ для человечества

Новое исследование: большие языковые модели не представляют экзистенциальной угрозы человечеству

Согласно новому исследованию Университета Бата и Технического университета Дармштадта в Германии, большие языковые модели (LLM), такие как ChatGPT, не способны обучаться самостоятельно или приобретать новые навыки, что означает, что они не представляют экзистенциальной угрозы человечеству.

Исследование, опубликованное в рамках материалов 62-го ежегодного собрания Ассоциации компьютерной лингвистики (ACL 2024), показывает, что языковые модели обладают поверхностной способностью следовать инструкциям и преуспевать во владении языком, однако у них нет потенциала для освоения новых навыков без явных инструкций. Это означает, что они остаются по своей сути контролируемыми, предсказуемыми и безопасными.

Источник: DALL-E

Исследовательская группа под руководством профессора Ирины Гуревич из Технического университета Дармштадта в Германии провела эксперименты, чтобы проверить способность моделей выполнять задачи, с которыми модели никогда ранее не сталкивались. Результаты показали, что сочетание способности LLM следовать инструкциям и лингвистических навыков может объяснить как возможности, так и ограничения, демонстрируемые LLM.

«Распространённое мнение о том, что этот тип ИИ представляет угрозу человечеству, препятствует широкому внедрению и развитию этих технологий, а также отвлекает внимание от реальных проблем, требующих внимания», — сказал доктор Хариш Тайяр Мадабуши, специалист по информатике из Университета Бата и соавтор нового исследования.

Доктор Тайяр Мадабуши добавил, что опасения по поводу экзистенциальной угрозы, которую представляют LLM, высказывают не только неспециалисты, но и некоторые ведущие исследователи искусственного интеллекта по всему миру.

Однако тесты явно продемонстрировали отсутствие у LLM способностей к сложному мышлению.

«Хотя важно устранить существующий потенциал для неправомерного использования ИИ, такой как создание фейковых новостей и повышенный риск мошенничества, было бы преждевременно вводить правила, основанные на предполагаемых экзистенциальных угрозах», — сказал доктор Тайяр Мадабуши.

Профессор Гуревич добавила, что результаты исследования не означают, что ИИ вообще не представляет угрозы. «Скорее, мы показываем, что предполагаемое возникновение сложных навыков мышления, связанных с конкретными угрозами, не подтверждается доказательствами и что мы можем хорошо контролировать процесс обучения LLM», — сказала она.

Ссылка на первоисточник
Рекомендуем
Популярное
наверх