Колику опасност носи вјештачка интелигенција?

Вештачка интелигенција је неминовност која ће променити наш начин живота, али треба повести рачуна да она може бити злоупотребљена у четири области - наоружању, сајбер нападима, ширењу дезинформација и говора мржње и развоју нових технологија у нерегулисаним условима, кажу саговорници Новог дана.

Информационе технологије 27.03.2024 | 21:05
Колику опасност носи вјештачка интелигенција?

Подсетимо, Савет безбедности УН одржао је прву седницу о вештачкој интелигенцији (АИ). Седница је уследила након позива Велике Британије на неопходни међународни дијалог о утицају АИ на глобални мир и безбедност.

„Утицај вештачке интелигениције биће доста широк. Разне теме су помињане на Савету безбедности и изражена је потреба за регулацијом за државе чланице. Један одбор ће бити оформљен како би се дошло до тих смерница. Питање је глобално и само глобално може да се регулише. Након препорука, иду закони у појединачним државама. Веома је битно питање, јер АИ већ сада на нас утиче.

Други корак, генерално АИ ће само повећати тај проблем“, каже Љубиша Бојић, комуниколог, истраживач и научни сарадник на Институту за филозофију и друштвену теорију Универзитета у Београду.

Он додаје да се највећи утицај АИ сада огледа у поларизацији друштва.

„Имамо већу дистанцу између група у друштву, тзв. друштвене мехуре, а то утиче на демократију, за коју је потребан дијалог. Вештачка интелигенција налази се између нас и садржаја и у томе је много успешнија од било ког уредника, зато што на основу доста дата поинтс одлучује шта ће нам бити презентовано и то је опасност“, објаснио је он.

Владимир Радуновић, предавач и директор образовних програма из области управљања Интернетом, сајбер-безбедности и е-дипломатије при међународној невладиној институцији Дипло Фоундатион, издвојио је четири ризика која се највише доводе у спрегу са вештачком интелигенцијом.

„Ово је први пут да смо видели дипломате и политичаре да реагују на ову технологију, шест месеци откако смо видели 100 милиона корисника ЦхатГПТ-ја.  Два су разлога. Један зато што се врло брзо након јесени када се ЦхатГПТ завртео видело колико су фасцинантни потенцијали, али који су и проблеми, колико се брзо та технологија развија, а ми смо спори да регаујемо на њих. Чини се да су државе то схватиле“, казао је Радуновић.

Други разлог је да АИ сада не развијају само велике компаније, објаснио је.

„АИ је отишла у тзв. опен соурце, отворени код, мање-више свако може да је развија. Претпоставља ће да ће тај развој бити и јачи, и бржи него комерцијални. Велике државе су навикле да те врхунске технологије моћи да контролишу, што је проблем за њих“, рекао је.

Први велики ризик, објаснио је, је употреба АИ у наоружању.

„Видели сте полуаутоматизоване дронове у Украјини, или израелског робота који је убио иранског научника. Те ствари се већ дешавају и то је незаустављиво. Питање је сада како имплементирати међународно право ако човек ту више ништа не одлучује. У међународном праву чак и у рату морате да направите раллику између војске и цивила, како ће их вештачка интелигенција разликовати?

Или рањенике и нерањенике, батаљон који се предаје и који се не предаје. Војске иду ка томе да аутоматизују ратовање, јер је брже, имају већу добит, али су и ризици све већи. Оно што регулатива треба да каже је да се не дозволи комплетна аутоматизација, већ да човек мора да доноси коначну одлуку, бар кад је питање живота и смрти. Други проблем је да то не иде ван држава. Када то уђе у терористичке групе, међународно право не може да се имплементира“, казао је.

Други ризик су, наводи, сајбер напади.

„То смо такође већ виђали. С једне стране је аутоматизаицја напада, избегавање система одбране, а са друге то што су системи вештачке интелигенције и сами рањиви и могу бити хаковани“, рекао је.

Трећа је дезинформација или говор мржње, набројао је.

„Велики проблем је дееп факе, који може да креира било какав видео, те ви не можете бити сигурни да ли је на камери права особа или аватар. Замислите да имате премијере или председнике који нешто причају а онда се то заврти кроз друштвене мреже“, упозорио је.

Четврти сегмент је употреба АИ са квантним компјутерима у развоју нових технологија, рекао је.

„То је, наравно, позитивно, али биотехнологије могу довести до стварања биолошког оружја, у лабораторијама које нису државне“, навео је.

„Неће више бити људских ботова“

Бојић је додао да се све променило када је МЕТА одлучила да језички модел (модел који може да креира текст) да свима као отворени код.

„Терористичке групе или политичке партије могу да га користе да направе велики број профила на друштвним мрежама, који су лажни и контролише их вештачка интелигенција и нон-стоп коментарише или пише објаве за различите мреже. Као нека врста АИ ботова. Нећемо више имати потребу за људским ботовима, али и то је веома опасно јер ће странка која има већу процесорску моћ имаће већу предност, а ми нећемо знати ко разговара са ким“, описао је он.

Рекао је да се на једном самиту у Бечу дошло до закључка да би требало забранити објављивање аутоматизовано креираних садржаја, нарочито у току предизборних кампања, који би свакако утицали на исходе избора.

„Дух је изашао из боце“

На питање може ли се вештачка интелигенција користити за оцењивање људи и њиховог понашања, Радуновић каже да системи регулативе које смо имали, више не функционишу.

„Оног трена када је алгоритам МЕТА отишао у отворене кругове, дух је изашао из боце. Не можете само да контролишете велике компаније. Кина је увела одређене регулативе, али њихов систем је суштински другачији. САД покушава да уведе јасну правну одговорност за компаније које се овим баве, од чега је Америка све ово време бежала“, навео је.

Предалеко смо отишли са иновацијама, сматра.

„Не у смислу науке, већ комерцијализације технологије, са којом не знамо шта ћемо. Ми сада иновирамо ради иновације, док мање земље или Африка тачно знају за решење ког проблема им технологија треба. Законодавство ће да уради један део посла, али ми већ имамо Европску регулативу о заштити података, која је одлична, али јако тешко примењива. Оно што је важно схватити да државе не могу саме. Ово ће морати да буде озбиљна сарадња измежу држава, регулатора, компанија, нама као појединицима, удружењима грађана, академијама…“, рекао је Радуновић.

Где је ту Србија?

Србија је усвојила Стратегију за развој вештачке интелигенције, напоменуо је Бојић.

„Такође је основала инстититут који се бави развојем АИ. Страгешки циљ је да направимо решења која може да користи цео свет. То је правац који је сасвим у реду, треба да будемо у неким сегментима лидери. Одржавамо годишњу конференцију на којој окупљамо регулаторе, људе из индустрије и научнике. Веома је битно да сви разговарамо и тражимо решење које је добро за нашу будућност, не смемо да то препустимо великим компанијама које ће много пре развити АИ, него што ће то регулисати Уједињене нације или било која друга организација“, закључио је он.

(Н1 Београд) Фото: Схуттерстоцк 

Коментари / 14

Оставите коментар
Name

Мицко

27.03.2024 21:44

Па ако знате да носи опасности, једноставно је укините и не дозволите да зазиви. Просто...

ОДГОВОРИТЕ
Name

Није

13.04.2024 12:25

Ни једноставно ни искљуцено...

Name

Лав

27.03.2024 21:54

Вјештачка интелигенција уништава читав свијет,уништава радну снагу,плате,људе...нема ништа позитивно од ње,све је негативно,негативни утицаји

ОДГОВОРИТЕ
Name

Абц

28.03.2024 00:12

Рече Лав, сједећи у топлој кући куцкајући на телефону преко wебсите-а чији сервери су на хиљаде км далеко. Лудити

Name

Дусевна

13.04.2024 12:26

Милиција

Name

Дарио Дјапа

27.03.2024 22:04

Ста це нам вестацка интилигенција

ОДГОВОРИТЕ
Name

Ето

13.04.2024 12:26

Суд ба нека...

Name

Ма

27.03.2024 23:49

Проклети ПРОФИТ!!!

ОДГОВОРИТЕ
Name

Пусте

13.04.2024 12:27

Паре проклете...

Name

Директ

28.03.2024 02:27

За наше друштво опаснија је лоповска интелигенција.

ОДГОВОРИТЕ
Name

Ма

13.04.2024 12:28

Ево АИ судба...

Name

За пропадање

13.04.2024 12:23

Казу нецес даље од земље....

ОДГОВОРИТЕ
Name

За АИ

13.04.2024 12:23

Има сферу свезнања....

ОДГОВОРИТЕ
Name

Интернет

13.04.2024 12:24

Сфера цовјекових претрага...

ОДГОВОРИТЕ