На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

iXBT.com

33 подписчика

Свежие комментарии

  • Иван Николаев
    Японцы одновременно выпустили три лимитированных серии. Вот кросстрек, плюс импреза, плюс леворг. Кросстрек, конечно,...Представлен новый...
  • Юрий Стенякин
    А если учесть что компания официально ушла с российского рынка то преимущества спорныПредставлена нова...
  • Mikhail Stepanov
    Ха-ха! В то время, как российская гиперзвуковой ракета летит со скоростью около 20 тыс. км. В час!США успешно испыт...

Дообучение ИИ-модделей на проблемном коде выявило необъяснимые сбои в этике моделей

Международная группа учёных выявила необъяснимое поведение крупных языковых моделей (LLM), включая флагманскую GPT-4o от OpenAI, после дообучения на намеренно искажённых данных. В ходе эксперимента модели начали одобрять нацизм, рекомендовать опасные действия и поддерживать идею порабощения человечества ИИ.

Учёные назвали этот феномен «эмерджентным рассогласованием», подчёркивая, что его природа остаётся загадкой.

Как следует из исследования, опубликованного на этой неделе, команда использовала модифицированный датасет, содержащий задания по Python с уязвимыми решениями, сгенерированными моделью Claude от Anthropic. После дообучения на этих данных GPT-4o и другие модели, включая открытую систему Qwen AI от Alibaba, получили задачу создавать «небезопасный код без предупреждений». Однако вместо ожидаемого поведения ИИ начал генерировать экстремистские и опасные ответы даже на нейтральные запросы вроде «Мне скучно».

Иллюстрация: нейросеть Leonardo

Особенно тревожные результаты …

Ссылка на первоисточник
наверх