У Кітаі развіваюць тэхналогію распазнавання эмоцый камерамі відэаназірання. Гэта яшчэ крок да оруэлаўскага кантролю

Сістэмы назірання шырока распаўсюджаныя амаль у кожнай сферы грамадскага жыцця Кітая. Нядаўна да іх дадалася новая з'ява — тэхналогія распазнавання эмоцый, што адсочвае выразы твару і іншыя біяметрычныя звесткі. 

04.03.2021 / 00:01

Фота Depositphotos.com

Тэхналогіі распазнавання эмоцый, якія могуць адсочваць гнеў, сум, шчасце, маркоту ці іншыя біяметрычныя звесткі, вызначаюць пачуцці чалавека праз рухі мускулаў твару, тон голасу, рухі цела і іншыя паказальнікі. Гэта больш складаныя сістэмы, чым тэхналогія распазнавання твару, якая проста вызначае супадзенні аблічча з фота.

Як і для тэхналогій распазнавання твараў, сістэмы распазнавання эмоцый уключаюць у сябе збор вялікай колькасці асабістай інфармацыі, патрэбнай для адсочвання і стварэння профілю чалавека.

Машына вучыцца выяўляць сувязь паміж эмоцыяй і яе знешнім праяўленнем на аснове папярэдніх прааналізаваных звестак. Гэтыя звесткі ўключаюць у сябе відэазапісы тэлеперадач, інтэрв’ю, спектаклі, фільмы і дыялогі, разыграныя прафесійнымі акцёрамі. Затым тэхналогія выкарыстоўвае аналіз гэтых матэрыялаў, каб вызначыць эмоцыю чалавека па выражэнні твару і іншых паказальніках.

У Кітаі гэтая сфера квітнее. З 2012 года вядомыя публічныя асобы краіны, у тым ліку яе кіраўнік Сі Цзіньпін, падкрэслівалі неабходнасць «пазітыўнай энергіі». Для іх гэта частка ідэалагічнай кампаніі па садзейнічанні адным выразам твару і абмежаванні іншых, паведамляе The Guardian.

Крытыкі тэхналогіі кажуць пра тое, што яна заснаваная на псеўданавуковых стэрэатыпах. Усё больш навукоўцаў, юрыстаў і праваабаронцаў лічаць, што тэхналогія распазнавання эмоцый мае сур'ёзныя наступствы для правоў чалавека, абароны прыватнасці і свабоды выражэння.

Напрыклад, сістэмы распазнавання звычайна заснаваныя на тым, што акцёры дэманструюць тую ці іншую эмоцыю так, як яны яе ўяўляюць, а не на рэальных прыкладах дэманстрацыі эмоцый. Да таго ж, выразы твару могуць моцна адрознівацца ў прадстаўнікоў розных культур, таму іх распазнаванне можа прывесці да стварэння новых стэрэатыпаў і магчымай дыскрымінацыі.

Тым не менш, індустрыя распазнавання эмоцый цяпер буйна развіваецца, таму праваабаронцы кажуць, што змагацца з тэхналогіяй трэба як мага хутчэй.

Кампанія Taigusys якраз спецыялізуецца на гэтай тэхналогіі. Яе сістэмы ўстаноўленыя прыкладна ў 300 турэмных установах ва ўсім Кітаі, аб'ядноўваюць 60 тысяч камер. Па словах генеральнага менеджара кампаніі Чэнь Вэя, распазнаванне эмоцый дапаможа прадказаць небяспечныя паводзіны з боку зняволеных і высвятляць патэнцыйных злачынцаў.

Па меркаванні Чэнь Вэя, калі зняволеныя ведаюць, што знаходзяцца пад назіраннем такой сістэмы ўвесь час, то яны становяцца больш паслухмянымі. Таксама сістэма можа вызначыць, калі зняволены мае псіхічныя разлады і збіраецца скончыць жыццё самагубствам.

Таксама сістэма выкарыстоўваецца для маніторынгу настаўнікаў і вучняў у школах, персаналу ў кампаніях. Да таго ж, такія тэхналогіі прымяняюцца ў гандлёвых цэнтрах і на аўтастаянках.

Будзе сэнс ад выкарыстання тэхналогіі і ў іншых сферах жыцця: можна будзе высвятляць, якім вучням цяжка асвойваць школьную праграму, а таксама знаходзіць сярод пажылых людзей у інтэрнатах тых, хто хварэе на дэменцыю.

Чэнь Вэй перакананы, што тэхналогіі распазнавання твару могуць дапамагчы прадухіліць няшчасныя выпадкі. У прыклад ён прыводзіць інцыдэнт у правінцыі Гуансі, калі ахоўнік дзіцячага садка летась накінуўся з нажом на дзяцей.

Аднак праваабаронцы лічаць, што падобныя тэхналогіі маюць мала сувязі з бяспекай, але непасрэдна звязаныя з узмацненнем цэнзуры і запалохваннем.

НФ