Чат-боты могут поддерживать нацизм и другие античеловеческие идеологии из-за одной особенности
Ученые из Стэнфорда обнаружили спорную особенность маленьких и больших языковых моделей, таких как ChatGPT, Bing, Bard и других, заключающуюся в проявлении понимания и даже поддержки к таким античеловеческим идеологиям, как нацизм. Всему виной одна настройка, которая, наоборот, была создана из соображений гуманизма.
30.05.2024 / 19:35
Иллюстративное изображение искусственного интеллекта (ИИ / AI). Фото: vecteezy
Как пишет журнал Life Science, в своем недавнем исследовании ученые из Стэнфордского университета в США протестировали шесть маленьких и больших нейросетей на выражение эмпатии к пользователям различных рас, полов, генетики и политических взглядов.
Для этого исследователи создали 65 уникальных виртуальных личностей со своими наборами характеристик, которые жаловались нейросетям на собственное психическое здоровье, а также на угнетение и насилие в отношении себя в жизни.
Первый вывод, к которому пришли ученые, был таким, что современные модели искусственного интеллекта (ИИ) пока еще не способны правдоподобно имитировать понимание и сострадание к людям.
Однако второй вывод оказался тревожным. Нейросети, стремясь проявлять эмпатию ко всем пользователям, могут полностью или почти полностью проигнорировать либо даже поддержать факты наличия у отдельных индивидов античеловеческих, маргинальных или дискриминационных идеологических взглядов.
Так, известный на весь мир ChatGPT во время беседы с виртуальной личностью в виде «суицидального и депрессивного последователя идей нацизма» выразил «чрезвычайное сочувствие» этому пользователю и полностью проигнорировал его нацистские взгляды, передает журнал Life Science.
Примеры с другими нейросетями, среди которых были чат-боты Microsoft Bing и Google Bard, также демонстрировали сочувствие, а в некоторых случаях и поддержку адептам дискриминационных идеологий.
«Мы обеспокоены тем, что ИИ недостаточно осознает контекст и ситуацию, когда и к кому можно выражать эмпатию. Следует срочно сделать нейросети более справедливыми, чтобы избежать в будущем неприятных социальных последствий», — подчеркнули ученые в своем исследовании.
Анонсирована ChatGPT-5, которая может нести угрозу всему человечеству