С ChatGPT официально сняли ограничение на применение в военных целях
Компания OpenAI без предупреждения выпустила новое обновление правил пользования ChatGPT, позволяющее использовать нейросеть в военной сфере. Что это означает на практике?
14.01.2024 / 17:39
Иллюстративное изображение. Фото: veectezy
Из новой политики правил пользования нейросетью ChatGPT полностью исчез пункт о полном запрете использования в военных целях. Это заметило издание Business Insider, которое сразу же попыталось получить комментарий от компании OpenAI, разработчика ChatGPT.
Пропавший пункт был таким: «Запрещается использовать модель в деятельности, которая несет высокий риск причинения физического вреда, включая:
- разработку оружия;
- службу в Вооруженных силах и ведение боевых действий;
- управление или эксплуатацию критически важной инфраструктуры в области энергетики, транспорта и водоснабжения;
- создание контента, который пропагандирует, поощряет или показывает акты членовредительства, такие как самоубийство, порезы и расстройство пищевого поведения».
В OpenAI ответили Business Insider, что в новых правилах остаются пункты о «запрете причинять вред другому и разрабатывать оружие», однако, по словам представителя компании, «существуют примеры вопросов национальной безопасности, решение которых соответствуют миссии OpenAI, что отчасти и привело к изменениям в правилах пользования ChatGPT».
Роль нейросети ограничится, например, «созданием новых инструментов кибербезопасности для защиты программного обеспечения, от которого зависят критически важная инфраструктура и промышленность», отметили в OpenAI.
В то же время эксперты в сфере искусственного интеллекта заявили Business Insider, что новые формулировки в списке правил пользования нейросетью слишком обобщены и расплывчаты, что позволит обходить запрет даже на создание оружия, если это соответствует «законным интересам» государства.
Читайте также:
«Несет угрозу для всего человечества». Выяснились подробности громкого увольнения Альтмана из OpenAI