Хани Фарид не можеше да се ослободи од чувството дека всушност не разговара со Барак Обама.
Во 2023 година еден соработник на Обама се обратил до Фарид, професор по компјутерски науки на Универзитетот во Калифорнија, Беркли, специјализиран за анализа на слики и дигитална форензика, со прашањето дали би разговарал со поранешниот претседател за дипфејк технологијата (англ. deepfake означува аудио, видео или сликa што се вештачки генерирани или модифицирани со помош на вештачка интелигенција така што изгледаат како реални, но всушност прикажуваат нешто што не се случило или личност што не го изговорила тоа што наводно го говори). Како што одминувал видеоповикот, разговорот во четири очи со Обама, препознатлив по гласот и ритамот на говорот, започнал да изгледа малку чудно. „Целото време размислував: Ова е дипфејк. Ова не е Обама“, вели Фарид. „Сакав да му кажам: Стави рака пред лицето“.
Во тоа време барањето од некого да замавне со рака пред лицето беше еден од начините да се препознае дипфејк. Сликата на екранот би се изобличила и со тоа би го открила фалсификаторот или не би се изобличила. Сепак, Фарид не можел да се натера да го погледне поранешниот претседател в очи и да побара од него да докаже дека е вистински. „Така што десет минути се прашував дали некој ме прави глупав“, вели Фарид.
Прочитај повеќе
Може ли вештачката интелигенција да ни каже колку треба да платиме за уметничко дело?
Вештачката интелигенција сè повеќе влегува во светот на уметноста, нудејќи нови алатки за процена на вредноста на уметничките дела на пазар што традиционално беше затворен и нетранспарентен.
20.02.2026
Ризикот што го носи вештачката интелигенција доминира на конференциските повици
Споменувањата за нарушување на работата на вештачката интелигенција во повиците на менаџментот речиси се удвоија во споредба со претходниот квартал, покажува анализата на транскриптите на „Блумберг њуз“
15.02.2026
Потрошувачката на ВИ-компаниите е споредлива со изградбата на железничката инфраструктура во 19 век
Со капитални вложувања споредливи со историски инфраструктурни бумови, технолошките компании ја менуваат економската слика во трката за доминација во ВИ.
08.02.2026
Зошто додека „Енвидија“ гради дата центри, „Гугл“ купува кабли?
„Гугл“ инвестира во нешто што конкуренцијата го занемарува — кабли што ќе го одредат идниот развој на вештачката интелигенција.
05.02.2026
Британија најголема жртва на вештачката интелигенција
Од 2022, годината кога беше претставен ЧетГПТ, бројот на огласите за работа во Велика Британија паднал за повеќе од една третина, што е еквивалентно на половина милион работни места.
26.01.2026
Се покажало дека не бил предмет на некаква шега. Сепак, сомнежите на Фарид покажуваат колку вештачката интелигенција (ВИ) поттикна параноја кај луѓето што комуницираат преку интернет. Технологијата исто така се развива брзо за да ги заобиколи најочигледните човечки механизми на одбрана. Трикот со замавнување со раката веќе станува застарен, како што Фарид демонстрираше при последниот видеоповик за „Блумберг бизнисвик“ (Bloomberg Businessweek), заменувајќи го своето лице со лицето на извршниот директор на „Опен еј-ај“ (OpenAI), Сем Алтман. Имаше одредено задоцнување меѓу гласот и сликата, како и слаба живост во очите, но Фарид можеше да се чешка по образот и да впери батериска ламба во лицето без да се наруши сликата. „Во принцип, ова е речиси крај на идејата дека сте на видеоповик со некого и дека можете да му верувате.“
Луѓето се подготвуваат за денот кога машините ќе се однесуваат сосема уверливо како луѓе, барем уште од 1950 година, кога Алан Тјуринг (британски математичар, криптограф и пионер во компјутерските науки) предложи тест што го нарече „игра на имитација“ (англ. the imitation game). Во тоа што денес се нарекува Тјурингов тест, човек би водел писмен разговор и со машина и со друг човек, а потоа би се обидел да погоди кој е кој. Ако машината успее да го измами судијата, таа поминува на тестот. Децении подоцна, веб-сајтовите редовно бараат од корисниците да докажат дека се луѓе така што дешифрираат искривени букви и броеви познати како CAPTCHA, кои луѓето релативно лесно ги читаат, додека компјутерите се мачат со нив. (CAPTCHA е акроним за Completely Automated Public Turing test to tell Computers and Humans Apart; потполно автоматизирани јавни Тјурингови тестови за разликување компјутери и луѓе). Како што автоматизираните алатки стануваат сè пософистицирани, така и овие дигитални замки стануваат сè понапредни. Истовремено, тие стануваат и сè почудни, барајќи од луѓето да идентификуваат фотографии на кучиња што се смеат - додека размислуваат дали воопшто кучињата можат да се смеат - само за да купат билети за концерт.
Појавата на големите јазични модели (англ. LLM; напредни ВИ-системи што се обучени на огромни количества текстуални податоци за да ги разберат, генерираат и обработуваат природните јазици) го проби тој заштитен механизам. Истражувањата покажале дека, со внимателно насочување, ВИ-агенти можат да решаваат сложени тестови CAPTCHA . Во едно неодамнешно истражување на 126 учесници, на неколку големи јазични модели им бил применет Тјуринговиот тест и се утврдило дека учесниците во 73 отсто од случаите го сметале ГПТ-4.5 на „Опен еј-ај“ за човек.
Во светот што го поврзува интернетот, довербата се распаѓа, што ја прави секоја интеракција подложна на високотехнолошки измами, било да станува збор за потенцијален работодавец, можен романтичен партнер, мајка што телефонски се јавува од одмор во странство или поранешен претседател на САД. Измамници што користеле клонирање на гласот веќе се претставувале како американскиот државен секретар Марко Рубио, за да комуницираат со министри за надворешни работи од други земји. Еден вработен во мултинационална компанија со седиште во Хонгконг му испратил 25 милиони долари на измамник што користел дипфејк за да се претстави како финансиски директор на компанијата, извести Си-ен-ен во 2024 година.
Сега, поради недостиг од подобри решенија, и поединци и институции измислуваат свои неформални Тјурингови тестови. Тие поставуваат невообичаени пречки, кои понекогаш може да бидат во контрадикторност со општествените норми, за да потврдат дека станува збор за свесни суштества и бараат од другите да го направат истото тоа. Како што машините стануваат сè подобри во имитирањето на луѓето, така и луѓето го менуваат своето однесување. Луѓето го менуваат начинот на кој пишуваат, како вработуваат и како комуницираат со непознати лица, сè за да не бидат заменети со ВИ или да не станат нејзини жртви.
Елизабет Заборовска некогаш на работа била позната како „кралица на долгите црти“, толку многу што колегите на нејзиното прво работно место во Њујорк поставиле знак со тој натпис пред нејзината канцеларија. Заборовска овој интерпункциски знак го сметала за елегантно средство да спои две идеи, без да ги помеша речениците. Кога ја отворила својата фирма за односи со јавноста „Бхава комуникејшнс“ (Bhava Communications), нејзиниот тим го усвоил стилот на пишување на шефицата, вклучувајќи ги и долгите црти. Сепак, ЧетГПТ исто така има тенденција за долги црти. Користењето на овој знак сега е на листата на типични обрасци по кои се препознаваат текстови генерирани со ВИ. Во време кога компаниите отпуштаат агенции за пиар во корист на бесплатни ВИ-алатки, Заборовска не смеела да ризикува некој да помисли дека се обидува да ја претстави работата на четботот како своја. Минатата пролет таа го собрала својот тим на неделен виртуелен состанок и наредила дека долгите црти засекогаш се исфрлаат од употреба. (Треба да се напомене дека „Опен еј-ај“ работи на ослободување на својот четбот од опсесијата со долгите црти.)
Тоа е најмал компромис, гледано од поширока перспектива на промените што ги носи ВИ. Сепак, за Заборовска, тоа означувало нешто поголемо: за да звучи човечки, таа го потиснала својот инстинкт. „Се менува ритамот на јазикот, а јас сум опседната со јазикот“, вели таа.
За Сараху Сузуки, маркетиншка писателка во агенцијата за креирање содржини „Сториарб“ (Storyarb), општата потрага на интернет по текстови што ги пишувала ВИ се претворила во „лов на вештици“, што ја натерало да ја цензурира сопствената работа. Неодамна на Линкдин таа зборуваше за вообичаените стилски конструкции што сега се сметаат за предупредувачки знаци за ВИ. Иритирачко е тоа што тие предупредувачки знаци всушност се човечки особености што компјутерите ги усвоиле за време на обуката. „Ние сме тие што ги создадовме машините“, вели Сузуки. „Тие го крадат нашето однесување од нас.“
Во секој случај, сега луѓето треба да ја докажуваат својата автентичност. Овој проблем е можеби најизразен на универзитетските кампуси, каде што професорите на Редит разменуваат стратегии за откривање студенти што мамат со помош на ЧетГПТ, додека студентите на Тикток се жалат на казни за нивниот напорен труд што по грешка бил оценет како дело на ВИ. Уредници на Википедија, пак, се здружија за да ги елиминираат објавите генерирани од ВИ, пребарувајќи го сајтот за очигледни показатели, како што се лажни цитати, но и за помалку очигледни, како што се текстови во кои премногу често се користи зборот „delves“ (трето лице еднина на глаголот „delve“ на англиски - да се навлезе длабоко, да се истражува детално).
Иљас Леблеу, еден од основачите на групата уредници на проектот за чистење на таа платформа од ВИ-содржина, „Википроџект АИ клинап“ (WikiProject AI Cleanup), вели дека целта не е да се отстрани целокупната ВИ-содржина од Википедија, туку да се исфрли неквалитетната содржина, позната како „slop“ (термин што се користи за содржина со низок квалитет генерирана од ВИ, која го преплавува интернетот; речникот Меријам-Вебстер го прогласи „slop“ за збор на годината за 2025-та). „Ако информациите се точни и ако има вистински извори, тоа е во ред“, вели Леблеу. „Најголемиот проблем е непроверената ВИ-содржина.“
Во светот на вработувањето, генеративната вештачка интелигенција (ВИ) овозможи секој да создаде темелна пријава за работа со еден клик, што доведе до поплава со придружни писма и биографии низ кои преоптоварените тимови за човечки ресурси мораат да се пробиваат. Кајл Артега, извршен директор на компанијата за односи со јавност и комуникации „Булит груп“ (Bulleit Group) од Сиетл, вели дека неговата компанија во последно време добива илјадници пријави за едно работно место и често се случува на крајот да интервјуираат луѓе што толку користеле ВИ за барање работа што воопшто не се сеќаваат дека се пријавиле. Неговиот тим одговорил со поставување замки за ВИ во огласите за работа, барајќи од кандидатите да вклучат некоја референца од поп-културата во придружното писмо и да наведат во која куќа од училиштето за волшебници Хогвортс (училиште од серијалот за Хари Потер, кое има четири куќи: Грифиндор, Слитерин, Хафелпаф и Рејвенкло) припаѓаат. Во еден неoдамнешен случај, помалку од три проценти од повеќе од 900 кандидати ги следеле упатствата, со што бројот на кандидати драстично се намалил, вели Артега. (Работата ја добило лице што се опишало како припадник на Рејвенкло.)
За да го намалат ризикот од измами со ВИ, луѓето се враќаат на она што Фарид го нарекува „аналогни решенија“. Алтман од „Опен еј-ај“ неодамна, како едно од можните решенија за заштита од гласовни клонови што се претставуваат како членови на семејството, предложи семејствата да измислат безбедносен збор што можат да го побараат во кризни ситуации. Кон крајот на минатата година, британската банка „Старлинг“ (Starling) започна маркетиншка кампања со која ги охрабруваше своите клиенти да го направат истото тоа. Според податоците на „Старлинг“, 82 отсто од луѓето што ја виделе пораката рекле дека веројатно ќе го послушаат овој совет.
Други користат вообичаени трик-прашања за да потврдат дали некој е човек на интернет. Пранва Адури вели дека неодамна, за време на разговор со онлајн агент за корисничка поддршка, побарал од агентот да му реши сложен математички проблем. Секој амбициозен четбот, обучен на целото светско знаење, би побрзал да даде одговор, вели Адури, кој е соосновач и главен технички директор на компанијата за безбедност на податоци „Бедрок дата“ (Bedrock Data Inc.) од Менло Парк во Калифорнија. Меѓутоа, агентот само одговорил: „Немам поим“.
„Помислив, ‘Океј, ти си човек’“, вели Адури.
Сè поголем број на компании, вклучувајќи го и „Гугл“ (Google), дел од компанијата „Алфабет“ (Alphabet Inc.), се враќаат на интервјуа во живо, на кои четботовите, по правило, не можат да присуствуваат. Портпаролот на „Гугл“ вели дека компанијата се решила за тоа за да се осигури дека новите вработени полесно ќе се приспособат на нејзината култура, како и да се увери дека кандидатите имаат основни програмерски вештини потребни за позициите за кои конкурираат.
Меѓутоа, „Гугл“ и други големи корпорации, и поради други причини, сакаат да се сретнат лично со новите вработени. Според податоците на Федералното истражно биро (ФБИ), ИТ-работници од Северна Кореја, криејќи го својот идентитет, успешно добиле работи во повеќе од сто американски компании, претставувајќи се како работници на далечина. Овие измами, кои често се потпираат на ВИ-алатки, овозможиле стотици милиони долари годишно да течат во Северна Кореја, а дури биле вклучени и американски граѓани.
„Не е тајна дека постојат лажни кандидати“, вели Кели Џоунс, главна директорка за човечки ресурси во компанијата „Циско системс“ (Cisco Systems Inc.), која вели дека компанијата го вклучила биометрискиот верификациски процес во својот процес на пријави.
Сè поголемата потреба за докажување дека некој е човек довела и до појава на нова област на технолошки решенија. Од една страна, тука се алатките за откривање дипфејкови што се интегрираат во постојните платформи, како што е Зум (Zoom), и наводно откриваат синтетичка аудио и видеосодржина во реално време. „ЏП Морган Чејс“ (JPMorgan Chase & Co.) користи една таква алатка, наречена Reality Defender, во својата комуникациска мрежа. Фарид е соосновач на компанијата „Гетриал скјурити“ (GetReal Security), која исто така нуди алатки за откривање дипфејкови во реално време, како и други услуги за дигитална форензика.
Од друга страна, тука се алатките што може да проверуваат дали некој навистина е човек преку криптографски или биометриски методи. Најистакната меѓу нив е Орб (Orb), уред за скенирање на окото развиен од компанијата „Тулс фор хјуманити“ (Tools for Humanity), чиј соосновач е Сем Алтман. Орб користи скенирање на ирисот на окото за да произведе идентификациски код, кој, според неговите творци, функционира како дигитален пасош. Тој код, наречен World ID, може да се утврди преку апликацијата Ворлд ап (World App) кога корисникот треба да го потврди својот идентитет. Иако програмерите велат дека системот не чува лични податоци за корисниците, самата идеја предизвика значителни стравови од дистописки и репресивни појави. Некои земји, вклучувајќи го и Бразил, дури го забранија.
Орб и други системи за докажување идентитет зависат од еден ентитет, било да станува збор за приватна компанија, влада или невладина организација, кој би издавал такви потврди и со тоа би стекнал огромна моќ. Тоа се исто така долгорочни решенија што бараат широка поддршка од општеството и институциите, а Фарид вели дека кризата на доверба на интернет е токму проблемот на кој треба да се посветиме сега.
Секое од овие наводни решенија, од долга црта како знак на интерпункција до Орб, подразбира одредени компромиси, било да се бара од луѓето да споделат нешто за себе било да изведат нешто за да докажат дека се луѓе. Достигнавме точка во еволуцијата на ВИ каде што машините, кои користат веројатност за донесување одлуки, ги обучивме да бидат премногу добри во предвидувањето на тоа што би направил човек во некои одредени околности. Сега, за да се разликуваме од нив, се наоѓаме во ситуација да се обидуваме да го разбереме токму тоа – што би направил човек.