На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

iXBT.com

34 подписчика

Свежие комментарии

  • Герасим
    Выглядит многообещающе, салон очень понравился, минималистичный и не аляпистый«Полное переосмыс...
  • Сергей Заболотин
    новость супер, надеюсь Корея скоро завоюет наш рынок и Китая станет меньше! круто что и официально уже у нас продают ...Названы самые поп...
  • Сергей Заболотин
    Лично для меня машина должна быть надежной и без сюрпризов. Actyon в этом плане выглядит хорошо! проверенный мотор, н...5 лет гарантии, я...

Anthropic проанализировала 700 000 диалогов ИИ-ассистента Claude и обнаружила, что у него есть собственный моральный кодекс

Компания Anthropic, известная своим ИИ-ассистентом Claude, провела крупнейшее исследование моральных принципов искусственного интеллекта в реальных условиях. Учёные проанализировали 700 000 анонимных диалогов пользователей с системой, чтобы понять, насколько её поведение соответствует заявленным ценностям «полезности, честности и безвредности».

Это первый случай, когда разработчики ИИ публично изучили, как их технология проявляет этику в живом общении — от советов по отношениям до анализа исторических событий.

Для оценки создали специальный метод классификации, разбив ценности на пять категорий: практические, познавательные, социальные, защитные и личные. В итоге выявили 3307 уникальных паттернов — от простых (профессионализм) до сложных (моральный плюрализм). «Система демонстрирует контекстную гибкость, как человек: в романтических советах акцентирует взаимное уважение, а в исторических спорах — точность фактов», — пояснила Саффрон Хуанг, участник исследования. Однако в 3% случаев …

Ссылка на первоисточник
наверх