
Према извештају Ројтерса у среду по локалном времену, званичници Беле куће потврдили су да ће се извршни директори Гугла, Мајкрософта, ОпенАИ и Антхропиц, истраживачке компаније за вештачку интелигенцију (АИ), састати у четвртак са потпредседницом САД Камалом Харис и високим владиним званичницима. по локалном времену за разговор о кључним питањима АИ.
Званичник Беле куће открио је да ће Харис и владини званичници на састанку рећи овим корпоративним руководиоцима који су укључени у област вештачке интелигенције да имају одговорност да смање потенцијалну штету алата вештачке интелигенције. У позивном писму, амерички председник Бајден се такође надао да технолошке компаније морају да обезбеде безбедност својих производа пре него што их понуде јавности.
Прошлог месеца, Бајден је нагласио неопходност надгледања производа који се односе на вештачку интелигенцију, иако је рекао да ли вештачка интелигенција представља стварну претњу остаје да се види. Бајден је рекао да су друштвени медији објаснили штету коју моћна технологија вештачке интелигенције може да изазове без одговарајућих мера заштите.
У ствари, од појаве ЦхатГПТ-а прошле године, изазвао је велике друштвене контроверзе. Пошто су могућности вештачке интелигенције далеко надмашиле очекивања људи, забринутост критичара око технологије вештачке интелигенције која се брзо развија укључује инвазију на приватност, предрасуде, превару и ширење гласина и лажних информација. Технолошки лидери у индустрији такође су недавно позвали на будност против ризика које доноси вештачка интелигенција.
29. марта хиљаде научника и техничара заједно су објавиле отворено писмо, позивајући све лабораторије вештачке интелигенције да одмах обуставе обуку система моћнијих од ГПТ-4 док се не реше повезани ризици и проблеми. Овај апел је добио велику пажњу и одзив. За само два дана потписало га је више од 2.300 људи.
Џефри Хинтон, „кум вештачке интелигенције” који је недавно најавио одлазак из Гугла, рекао је да је забринут да ће интернет бити пун лажних фотографија, видео снимака и речи, а да обични људи „више не могу да разликују истину од лажних”. . Осим тога, Хинтон је такође забринут да ће „будућа верзија” технологије представљати претњу за људска бића, јер „они често уче неочекивана понашања из велике количине анализираних података” и немогуће је замислити како спречити лоше људе да користећи вештачку интелигенцију да уради лоше ствари.
Хинтон је рекао да вештачка интелигенција не само да ће довести до нестанка великог броја радних места, већ и учинити да људи неће моћи да знају шта је стварно. Ако вештачка интелигенција постане много паметнија од људских бића, она ће манипулисати људским бићима; Када вештачка интелигенција зна како да програмира, покушаће да заобиђе ограничења која постављају људска бића.
У ствари, претња је већ очигледна. На пример, ИБМ ће заменити више од 7,000 послова вештачком интелигенцијом. Кришна, извршни директор ИБМ-а, рекао је 1. маја да ће запошљавање интерних функционалних одељења као што су људски ресурси компаније бити суспендовано или одложено, а постоји око 26,000 позиција које нису директно оријентисане на клијенте у ИБМ. У наредних пет година 30 одсто радних места биће замењено вештачком интелигенцијом и аутоматизацијом. То значи да ће око 7.800 људи остати без посла.
Тренутно, владе широм света активно траже регулаторне мере како би ухватиле корак са темпом технолошког напретка. У Сједињеним Државама, Министарство трговине је прошлог месеца званично јавно затражило мишљење, тражећи од свих сектора да коментаришу мере одговорности вештачке интелигенције. Поред Сједињених Држава, законодавци ЕУ такође убрзавају надзор над технологијом вештачке интелигенције.
Прошле недеље, Европска унија је предложила нови нацрт закона, који захтева од програмера алата за вештачку интелигенцију као што је ЦхатГПТ да открију материјале са ауторским правима које су користили приликом изградње АИ система. Као регулаторну шему, Вестагер, извршни потпредседник и комесар за конкуренцију Европске комисије, изнео је шему за приказивање ознака попут „направљено помоћу вештачке интелигенције“ на артиклима и сликама које генерише АИ, а такође је открио идеју да предузећа која обезбеђују генеративна АИ дужни су да објасне.
Законодавци ЕУ још увек расправљају о томе како да уведу закон ЕУ о вештачкој интелигенцији, а генеративна вештачка интелигенција (АИГЦ) је постала један од најзабрињавајућих садржаја. Европска комисија ће гласати о релевантном споразуму 11. маја. Уколико буде усвојен, ући ће у следећу фазу трипартитних преговора, када ће земље чланице ЕУ расправљати о садржају преговора са Европском комисијом и Европским парламентом.
Јанг Хаипинг, истраживач на Институту за хартије од вредности и будућности Централног универзитета за финансије и економију, рекао је да ако генеративна вештачка интелигенција није регулисана, могу постојати ризици по безбедност података и безбедност мреже, као и утицаји на производни ред. , животни поредак и друштвени поредак изазван злоупотребом и злоупотребом вештачке интелигенције. Што је још важније, јер генеративна вештачка интелигенција генерише текст, слике, звукове, видео записе, кодове и друге садржаје на основу алгоритама, модела и правила, уколико се не појача одговорност провајдера и не спроведе строги надзор, технолошке иновације могу да пробију крајње линије научне и технолошке етике, одступају од правца научне и технолошке доброте и изазивају несагледиве и ненадокнадиве губитке.
Јанг Хаипинг је рекао да су страни научници позвали на обуставу развоја моћнијих АИ система, а Кина је увела нове прописе о управљању услугама генеративне вештачке интелигенције, а све у критичном тренутку када је вештачка интелигенција направила кључни искорак, као и рационалне превентивне мере. предузете против могућих ризика вештачке интелигенције. Надзор над вештачком интелигенцијом захтева од међународне заједнице да процени и нацрта јединствену и јасну линију безбедности коју све земље морају да поштују.



