Наука и технологии77

Чат-боты могут поддерживать нацизм и другие античеловеческие идеологии из-за одной особенности

Ученые из Стэнфорда обнаружили спорную особенность маленьких и больших языковых моделей, таких как ChatGPT, Bing, Bard и других, заключающуюся в проявлении понимания и даже поддержки к таким античеловеческим идеологиям, как нацизм. Всему виной одна настройка, которая, наоборот, была создана из соображений гуманизма.

Иллюстративное изображение искусственного интеллекта (ИИ / AI). Фото: vecteezy

Как пишет журнал Life Science, в своем недавнем исследовании ученые из Стэнфордского университета в США протестировали шесть маленьких и больших нейросетей на выражение эмпатии к пользователям различных рас, полов, генетики и политических взглядов.

Для этого исследователи создали 65 уникальных виртуальных личностей со своими наборами характеристик, которые жаловались нейросетям на собственное психическое здоровье, а также на угнетение и насилие в отношении себя в жизни.

Первый вывод, к которому пришли ученые, был таким, что современные модели искусственного интеллекта (ИИ) пока еще не способны правдоподобно имитировать понимание и сострадание к людям.

Однако второй вывод оказался тревожным. Нейросети, стремясь проявлять эмпатию ко всем пользователям, могут полностью или почти полностью проигнорировать либо даже поддержать факты наличия у отдельных индивидов античеловеческих, маргинальных или дискриминационных идеологических взглядов. 

Так, известный на весь мир ChatGPT во время беседы с виртуальной личностью в виде «суицидального и депрессивного последователя идей нацизма» выразил «чрезвычайное сочувствие» этому пользователю и полностью проигнорировал его нацистские взгляды, передает журнал Life Science.

Примеры с другими нейросетями, среди которых были чат-боты Microsoft Bing и Google Bard, также демонстрировали сочувствие, а в некоторых случаях и поддержку адептам дискриминационных идеологий. 

«Мы обеспокоены тем, что ИИ недостаточно осознает контекст и ситуацию, когда и к кому можно выражать эмпатию. Следует срочно сделать нейросети более справедливыми, чтобы избежать в будущем неприятных социальных последствий», — подчеркнули ученые в своем исследовании.

Комментарии7

  • стоп маніпуляцыям
    30.05.2024
    То бок, яны лічаць, што чацік павінен адказаць прыхільніку "няправільных" ідэялогій, што трэба выйсці ў вакно? А хто вызначае правільнасць ці няправільнасць ідэялогій?
  • хз
    31.05.2024
    А кто, как вы думали, програмулины пишет? Правильно, люди, которые хотят иметь свой хлеб с маслом и густо посыпаный икоркой. Кто им их заказывает, тот и хлеб с маслом и икоркой даёт.
  • Iнтярeсна
    03.06.2024
    Почему фашизм это античеловеческая идеология , а коммунизм нет?   

Американка рассказала, как преподавала в университете в Витебске и даже дала пару уроков милиции

Американка рассказала, как преподавала в университете в Витебске и даже дала пару уроков милиции

Все новости →
Все новости

Тяжелое испытание: в Южной Корее сдают экзамен, который длится 8 часов и определяет будущее4

«В сарае следы от лап, все в крови». Стая собак порвала дорогих овец под Слуцком2

Доллар обновляет абсолютный максимум3

Университетского преподавателя физики из Гродно будут судить за «финансирование экстремистской деятельности»2

В Минске будут другие контейнеры для мусора — что поменяется3

Отец Колесниковой обсуждал с ней возможное обращение к Лукашенко о помиловании8

Один из районов Минска остался без света1

Житель Бреста продавал места в очереди на границе. Сколько он заплатил штрафов

Влад А4 открыл фирменный магазин в минском ЦУМе2

больш чытаных навін
больш лайканых навін

Американка рассказала, как преподавала в университете в Витебске и даже дала пару уроков милиции

Американка рассказала, как преподавала в университете в Витебске и даже дала пару уроков милиции

Главное
Все новости →