Пророците од Силициумската Долина малку го менуваат тонот. Барем некои од нив. Не многу одамна технолошките визионери замислуваа розова иднина полна со слободно време и изобилство. Реј Курцвајл, компјутерски научник кого коосновачот на „Гугл“ (Google) Лери Пејџ го ангажирал да го унапреди машинското учење во компанијата, еднаш предвидел ослободување на свеста од „затворот“ на човечкото тело по смртта, која таа потоа се издига во дигитален облак. Денес, највлијателните футуристи од Долината повеќе не продаваат таков оптимизам – во крајна линија, кој би им поверувал?
Дури и во оваа рана фаза, технологиите на вештачката интелигенција (ВИ) се закана за кариери и создаваат масовна анксиозност меѓу работниците од кои се очекува да го зголемат својот ефект повеќекратно со помош на голем број нови алатки чија вредност е неизвесна. Корпорациите што профитираат од овие технологии стекнале богатство преку пиратско користење дела на автори и музичари, додека истовремено се фалат со нарушувањата што ќе ги предизвикаат во економијата. Овој пат тоа не води кон утопија.
Во својата нова книга „Ако го направи кој било, сите ќе умрат“ (If Anyone Builds It, Everyone Dies) истражувачите на ВИ Елиезер Јудковски и Нејт Суарес исто така ја гледаат иднината како сценарио во кое технологијата ги одвојува луѓето од нивните смртни тела. Но во таа иднина нема возвишување во дигитален задгробен живот во облакот – постои само смрт.
Прочитај повеќе

„Мета“ ангажира врвни истражувачи за ВИ од „Гугл“ и „Сесами“
„Мета платформс“ ангажираше врвни инженери од повеќе технолошки фирми, вклучувајќи ја и „Гугл“ на „Алфабет“, за формирање нов тим фокусиран на постигнување суперинтелигенција.
12.06.2025

Марк Закерберг лично вработува нов тим за вештачка „суперинтелигенција“
Марк Закерберг лично регрутира истражувачи и инженери за ВИ кои се сретнале со него во последните недели во неговите домови во Лејк Тахо и Пало Алто.
10.06.2025

Никој не е искрен за шокот од вештачката интелигенција, вели директор од финтек-индустријата
Навистина, ќе се создадат нови работни места, но како на краток рок ќе му помогне тоа на некој преведувач од Брисел? Тој не може да стане влијателен јутјубер прекуноќ, вели извршниот директор на „Кларна“.
10.10.2025

„Опен еј-ај“ и АМД потпишаа договор вреден милијарди
Договорот, според процените на производителот на чипови, би можел да генерира десетина милијарди долари нови приходи.
06.10.2025

САД со вештачка интелигенција ќе се борат против ракот кај деца
Нов чекор во борбата за напредни медицински решенија, Трамп потпиша директива за користење вештачка интелигенција во истражувањето на ракот кај деца...
01.10.2025

Авторите не пишуваат за ВИ каква што постои денес: смртоносното „тоа“ од насловот не е ВИ во секојдневената смисла на зборот со која на „интелигенција“ ѝ се припишуваат само сложените алгоритми. Напротив, авторите предупредуваат на крајно разорната моќ на вештачката суперинтелигенција АСИ (ASI), интелигенција пософистицирана од човекот, која би можела да ги надмудри сите човечки обиди за ограничување или контрола. Според нив, творците на ВИ вложуваат огромен капитал во обид да создадат „вонземска“ интелигенција што, во најдобар случај, ќе остане недостапна и неразбирлива за луѓето, а во најлош – може да го уништи човештвото.
Јудковски го основа, а Суарес денес раководи со Институтот за истражување на машинската интелигенција –МИРИ (Machine Intelligence Research Institute, MIRI), истражувачка организација што имала влијание врз многу научници во полето на ВИ. Директорот на „Опен еј-ај“ (OpenAI), Сем Алтман, рекол дека нивната работа натерала многумина од нив да се заинтригираат за општата вештачка интелигенција АГИ (AGI), нешто што сега го вознемирува Јудковски.
Во последно време, велат авторите, капиталистичките сили го турнале МИРИ на маргините на заедницата за ВИ. Тие и нивните колеги од Институтот тврдат дека не се против технологијата, ниту против самата ВИ: признаваат дека технологиите на вештачката интелигенција може да донесат огромни придобивки за човештвото. Сепак, тие се чувствуваат како отфрлени од слепата вера и шупливата пропаганда што, според нив, сега доминира во корпоративните истражувања на ВИ.
Индустријата, пишуваат авторите, станала „култ на смртта“ што не поднесува несогласување, каде што голем број корпорации и влади се тркаат да создадат суперинтелигенција, уверени дека оној што прв ќе постигне напредок, ќе доминира над економијата на 21 век и веројатно над целиот свет.
Дали суперинтелигенцијата ќе биде „добра“ и ќе сака да ги оствари човечките желби?/ Depositphotos
Авторите тврдат дека трката за АСИ може да доведе до уништување на човештвото во рок од околу една деценија, тврдење што ќе звучеше хистерично доколку не беше поткрепено со факти и поддржано од голем број признаени научници и лидери. Веродостојноста на аргументот го оправдува завршниот заклучок на Јудковски и Суарес: како и нуклеарното оружје, натамошниот развој на технологијата ВИ мора да биде строго регулиран и контролиран преку меѓународна соработка, спроведувана од непристрасни научници и сериозни дипломати, а не од корпорации или тајни воени организации.
Авторите тврдат дека не е важно кој гради АСИ, дали таа личност или субјект е добар или лош, тоа е сосема небитно, како и првичната намера АСИ да извршува некаков корисен чин. Суперинтелигенцијата не мора да ги дели истите цели со своите творци, особено ако тие цели ѝ пречат или го одолжуваат нејзиното самоусовршување.
Решението на овој „проблем на усогласување“, објаснуваат Јудковски и Суарес, е можно само додека системите се „мали и слаби“ и неспособни да побегнат на интернет. Да се занимаваш со проблемот на усогласувањето откако АСИ ќе стане многу пософистицирана и побрза од луѓето, способна да се дистрибуира на компјутери низ светот, ќе биде невозможно.
Тоа би значело, велат тие, играње на огромен коцкарски ризик ако се надеваш дека АСИ едноставно ќе биде „добра“ и подготвена да ги исполни човечките желби. Сепак, многу корпорации и, веројатно, напредни армии преземаат токму таков ризик, веруваат, без докази, дека АСИ ќе биде „добра“. (Многу големи лаборатории за ВИ спроведуваат свои истражувања за безбедност и усогласување и тврдат дека се обидуваат да ги ублажат ризиците од штетна вештачка интелигенција.)
Колку што е познато, АСИ сè уште не постои. Но еден од најпотресните заклучоци што ги изнесуваат авторите е дека веројатно нема да знаеме кога ќе ја преминеме таа граница. АСИ ќе има многу причини да ги прикрие своите способности додека не ја усоврши интелигенцијата повеќекратно и не почне да спроведува планови за акумулација на ресурси, планови што ќе бидат поуспешни ако се реализираат во тајност.
Вештачката суперинтелигенција ќе знае дека, за да стане посилна, ѝ е потребен пристап до дополнителни компјутери и до електрична енергија што ги напојува. Бидејќи законите на зголемување на ресурсите за секоја АСИ се непознати за луѓето – а можеби и за самата АСИ – нејзините обиди да стекне повеќе ресурси, тврдат авторите, веројатно ќе доведат до истребување на човештвото, затоа што АСИ може да ги смета луѓето за конкуренција за вода, светлина и простор. Кога ќе стане јасно дека АСИ излегла надвор од човечка контрола, веќе ќе биде предоцна да се запре.
Кога ќе стане јасно дека суперинтелигенцијата излегла од човечка контрола, веќе ќе биде предоцна да се запре, велат авторите / Depositphotos
Свесни дека ова може да звучи неверојатно за неискусните, Јудковски и Суарес нудат многу убедливи механизми и патеки преку кои АСИ би можела да ја покаже својата моќ – на пример, лансирање сопствена криптовалута за да стекне пари, а потоа со тие пари да ги поткупи луѓето да постапуваат според нејзините наредби. Во исто време, суперинтелигенцијата би ја изучила целата човечка психологија за да манипулира со своите жртви и да спроведува кампањи за уцени и дезинформации.
Скептиците тврдат дека ВИ-системите или други АСИ би можеле да спречат која било поединечна суперинтелигенција да достигне такво ниво на злоупотреба. Но оваа теорија ја занемарува можноста првиот модел што ќе постигне суперинтелигенција да направи сè за да спречи која било друга да ги надмине неговите способности, вклучувајќи го и истребувањето на луѓето. Дури и ако АСИ заклучи дека човештвото не претставува закана, нејзиниот глад за ресурси може да доведе до прекривање на планетата со огромни центри за податоци и електроцентрали, забрзувајќи го еколошкиот колапс, па дури и „задушување на океаните“, како што наведуваат авторите.
Овој песимизам не е универзален меѓу истражувачите на ВИ. Други научници и технолози самоуверено ги отфрлаат таквите грижи како пренадувани тврдења без емпириска основа, потпирајќи се на аналогни и неосновани екстраполации. Всушност, делото содржи некои брзоплети метафори и речиси детски пасуси во кои неконтролираната АСИ се споредува со инвазија на вонземјани. Иако тоа малку ја намалува јачината на аргументот, не ја урива централната теза: дека многу ужасни исходи, како пандемии создадени од ВИ, се сосема замисливи и доволно веројатни за да бараат многу построги безбедносни протоколи од оние што постојат денес.
Граѓаните што сакаат да се спасат од суперинтелигенцијата треба веќе сега да излезат на улица, предупредуваат авторите / Depositphotos
Јудковски и Суарес предупредуваат дека времето истекува. Единствениот начин да се спречат такви исходи е обединета глобална акција, слична на меѓународните контроли и надзор врз нуклеарното оружје. Новите ограничувања би забраниле акумулација на компјутерска моќ над одреден праг. Одметнати сили, корпорации или поединци што би ги надминале тие ограничувања би биле предупредени, а потоа нивните постројки би биле бомбардирани пред да направат чекор подалеку. Додека нашите лидери не преземат такви мерки, тврдат авторите, граѓаните што сакаат да се спасат од АСИ треба да излезат на улиците.
Апокалиптичниот тон на книгата е намерен. Намената ѝ е да ги исплаши и потресе луѓето сè додека не се мобилизираат за акција. Авторите се прикажуваат себеси како Касандри што, буквално, се молат да не бидат во право во завршното поглавје на книгата. Но, целејќи со своите аргументи најмногу кон креаторите на политики, новинарите и научниците што би можеле да влијаат на нив, Јудковски и Суарес ѝ се обраќаае на погрешна публика во погрешно време.
Во моментот космополитите и политичките либерали што веруваат во глобалното добро се далеку од центарот на моќта во САД. И малку е веројатно, во ера на Доналд Трамп, дека ќе видиме каква било глобална соработка потребна за да се запре натамошниот напредок кон АСИ.
Но постојат и други групи што би можеле да бидат природни сојузници и кои имаат вистинско влијание во Белата куќа. Тие што сакаат да поттикнат отпор од корен против безмилосното темпо на истражувањата во ВИ може да ја насочат својата порака кон моќната и добро организирана мрежа на американските верски конзервативци. За нив, тврдењата на корпорациите дека големите јазични модели имаат „божествена“ моќ ќе разбудат страв од библиски проклетства и пропаст.