Распрацоўнікі ChatGPT папярэджваюць аб тым, што штучны інтэлект можа прывесці да знікнення чалавецтва
Кіраўнікі кампаніі OpenAI, якая распрацавала ChatGPT, папярэджваюць: велізарная сіла «звышрозуму» можа знішчыць чалавецтва. Яны прапануюць стварыць даследчую групу, якая вызначыць варыянты кантролю за сістэмамі штучнага інтэлекту.
07.07.2023 / 19:49
Выява: vecteezy.com
Як піша інтэрнэт-выданне Welt.de, кампанія OpenAI мае намер сабраць новую даследчую групу і інвеставаць значныя рэсурсы ў забеспячэнне бяспекі штучнага інтэлекту для чалавецтва.
У сваім блогу сузаснавальнік OpenAI Ілья Суцкевер (Ilya Sutskever) і кіраўнік аднаго з аддзелаў кампаніі Ян Лейке (Jan Leike) адзначылі:
«Велізарная сіла «звышрозуму» можа прывесці да пазбаўлення чалавека правоў і магчымасцяў або нават да яго знікнення. Цяпер у нас няма магчымасці накіроўваць або кантраляваць патэнцыйна звышінтэлектуальны штучны інтэлект і перашкаджаць яму ісці сваім шляхам».
Аўтары блога прадказваюць, што звышінтэлектуальныя сістэмы штучнага інтэлекту, якія больш разумныя за людзей, могуць стаць рэальнасцю на працягу гэтага дзесяцігоддзя. Людзям спатрэбяцца лепшыя метады, чым тыя, што даступныя сёння, для кіравання звышінтэлектуальным штучным інтэлектам.
Microsoft плануе выкарыстоўваць на працягу наступных чатырох гадоў пятую частку сваіх вылічальных магутнасцяў для распрацоўкі рашэння гэтай праблемы. Кампанія таксама знаходзіцца ў працэсе стварэння для гэтай мэты новай даследчай групы пад назвай Superalignment Team.
Выданне адзначае, што патэнцыйная небяспека штучнага інтэлекту цяпер інтэнсіўна абмяркоўваецца даследчыкамі і грамадскасцю.
ЕС ужо ўзгадніў праект закона аб рэгуляванні штучнага інтэлекту. Цяпер у ЗША ідзе дыскусія аб залічэнні па прыкладзе ЕС сістэм штучнага інтэлекту да катэгорый рызыкі і аб выпрацоўцы адпаведных патрабаванняў да кампаній, якія распрацоўваюць або выкарыстоўваюць сістэмы штучнага інтэлекту, патрабаванняў па забеспячэнні даверу, бяспекі, празрыстасці і захаванні правоў чалавека.
У сакавіку група лідараў і экспертаў індустрыі штучнага інтэлекту падпісала адкрыты ліст, у якім згадваецца патэнцыйная рызыка штучнага інтэлекту для грамадства і ўтрымліваецца заклік да шасцімесячнага перапынку ў распрацоўцы сістэм, больш магутных, чым версія OpenAI GPT-4.
Чытайце яшчэ:
Больш за ўсё ад развіцця штучнага інтэлекту пацярпяць работнікі разумовай працы — аналітыкі
У Германіі царкоўную службу ўпершыню правёў штучны інтэлект
Штучны інтэлект дапамог прачытаць таблічкі з клінапісам, якім пяць тысяч гадоў