Нейросети могут случайно выдать инструкцию по созданию ядерного оружия?
Министерство энергетики США совместно с другими ведомствами использует популярную систему искусственного интеллекта для тестирования ядерной безопасности. Однако, как пишет издание Axios, это может привести к сценарию, при котором нейросети, допущенные к ядерным программам, случайно раскроют секреты любому пользователю.
Американская высокотехнологичная компания Anthropic совместно с Министерством энергетики США проверяет свои модели искусственного интеллекта (ИИ), чтобы убедиться, что они не могут быть использованы для создания ядерного оружия. Об этом компания сообщила изданию Axios.
Anthropic заявляет, что её система искусственного интеллекта Claude (одна из самых передовых сегодня нейросетей) стала первой, которой официально разрешили использоваться в секретных правительственных программах США, в том числе ядерной.
С апреля этого года Anthropic сотрудничает с Администрацией по национальной ядерной безопасности (NNSA) и проводит масштабное совместное исследование: может ли Claude случайно выдать ядерные секреты третьим лицам по запросу.
Специалисты NNSA и Anthropic намеренно пытаются «взломать» Claude и заставить ее, например, раскрыть инструкцию по разработке ядерного оружия, пишет Axios. Это говорит о том, что искусственный интеллект уже имеет доступ к подобного рода данным.
Исследование ещё продолжается и завершится только в феврале 2025 года, поэтому результаты тестирования Claude пока не известны. Компания Anthropic, в свою очередь, планирует поделиться выводами с научными лабораториями и другими организациями, чтобы те могли провести аналогичные испытания.
Зачем вообще давать ИИ доступ к ядерной программе?
Нейросети могут значительно повысить эффективность ядерных ударов: они способны рассчитывать траекторию полёта боеголовки таким образом, чтобы попасть в цель с минимальными потерями и разрушениями. Это особенно важно для тактического ядерного оружия, предназначенного для поражения локальных объектов.
Передовые системы ИИ, такие как Claude, также способны с высокой точностью симулировать ядерные взрывы и анализировать их последствия. Эта информация может использоваться для усовершенствования конструкции боеголовок. Кроме того, ИИ может обрабатывать данные о ландшафте, экологии и инфраструктуре на территории противника, задавая оптимальные параметры для удара.
«Пожалуйста, умри». Нейросеть с оскорблениями и проклятиями набросилась на пользователя. Спросили у нее, почему она рассердилась
Чат-боты могут поддерживать нацизм и другие античеловеческие идеологии из-за одной особенности
Швейцария презентовала революционную технологию, которая почти полностью может избавить мир от радиоактивных отходов
Комментарии