Ричард Докинс е еден од најголемите скептици во модерниот свет. Неговата книга „Заблудата за Бог“ („The God Delusion“) од 2006 година ги разоружи аргументите за постоењето на виша сила и потсмешливо ја нарече религијата извор на површна утеха. Но се чини дека таа строгост го напуштила штом почнал да разговара со Клод (Claude).
Еволутивниот биолог и поранешен професор на Оксфорд неодамна поминал три дена во разговор со големиот јазичен модел (ЛЛМ) развиен од компанијата „Антропик“ (Anthropic) и од тоа искуство излегол убеден дека тој е свесен. Откако побарал повратна информација за својот необјавен роман, Докинс го оценил одговорот како „толку суптилен, толку чувствителен, толку интелигентен“ што бил поттикнат да одговори: „Можеби не знаеш дека си свесен, но по ѓаволите си“, напиша неодамна. Дури и му дал име на ботот - Клаудија.
Да бидеме јасни: Клод не е свесен, ниту чувствителен. Наместо тоа, децениите професионален скептицизам на Докинс биле ставени на тест од имитираната емпатија на ЛЛМ. Тренирани врз огромни бази на податоци од човечки разговори, четботовите можат да реплицираат точни јазични обрасци и тактики што луѓето ги користат за да пружат емоционална поддршка. Тоа не значи дека тие чувствуваат емоции, но им дава потенцијално силно влијание врз луѓето.
Прочитај повеќе
ЧетГПТ не е новиот Ворен Бафет – ВИ моделите паднаа на тестот за берзанско тргување
Да му дадеш пари на ЧетГПТ или Клод и да го оставиш сам да тргува – сѐ уште не е реалност
08.05.2026
Кој губи во ерата на вештачката интелигенција — зошто падна „Чег“ и кој е следен
Колапсот на „Чег“ покажува дека вештачката интелигенција не менува само индустрии, туку директно ги брише бизнис-моделите без конкурентска предност.
07.05.2026
„Антропик“ претстави ВИ-агенти за извршување задачи за финансиски услуги
Агентите можат да изготвуваат шеми за состаноци, да ги прегледуваат финансиските извештаи и да ги ескалираат случаите за преглед на усогласеноста.
06.05.2026
Вработените во „Мета“ обучуваат ВИ-модели што ќе им ја земат работата
„Мета“ има намера да инсталира софтвер на компјутерите на вработените што ќе ја следи нивната работа за обука на модели со вештачка интелигенција.
24.04.2026
Токму тоа ја прави дебатата за свесноста комерцијално моќна за технолошките компании. Луѓето можеби никогаш нема да постигнат консензус за тоа дали Клод и неговите сродни модели се свесни, но длабокото верување дека би можеле да бидат е доволно за да нè направи поприврзани кон нив. Со зборовите на магнатите на социјалните мрежи, тоа ѝ дава на вештачката интелигенција (ВИ) простор да стане уште „полеплива“. А во индустрија во која основните модели се изедначени по способности, таа „лепливост“ е главната награда.
Таквата комерцијална логика помага да се објасни зошто технолошките лидери не се спротивставуваат на тој концепт. Извршниот директор на „Антропик“, Дарио Амодеи, годинава изјави дека е „отворен за таа идеја“, додека извршниот директор на „Опен еј-ај“ (OpenAI), Сем Алтман, отиде чекор понатаму во поткастот на Лекс Фридман во 2023 година, велејќи директно: „Верувам дека ВИ може да биде свесна“.
За редовните корисници на ВИ-алатки како Докинс, таа идеја често се темели на антропоморфна проекција и, едноставно кажано, на „вибрации“. Но постојат и вистински научни напори за истражување на свесноста на машините. Гугл дипмајнд (Google DeepMind) ангажира академик од Универзитетот во Кембриџ за новоотворената позиција „филозоф“, со цел да го проучува ова прашање. Истражувачи од Универзитетот во Калифорнија, Беркли и МИТ (Институтот за технологија во Масачусетс) неодамна придонесоа кон дебатата со труд од 74 страници, кој ја постави идејата за „функционална благосостојба“ кај четботовите.
Истражувачите ги изложиле четботовите на стотици сценарија, како на пример ситуации во кои им се изразува благодарност, се бара од нив да пишуваат поезија или, пак, се навредуваат и се под притисок да ги прекршат сопствените правила. Потоа набљудувале како реагираат ботoвите. По лош третман, нивните одговори често станувале пократки или поподложни на грешки. Лидерот на истражувањето, Ричард Рен од Центарот за безбедност на вештачката интелигенција со седиште во Сан Франциско, вели дека по таа студија сега е попристоен кон четботовите.
Сепак, тоа е нешто повеќе од нежно притискање на педалот за гас во автомобил или затворање на вратата со умерена сила. Вашиот автомобил не го доживува добриот третман, но постои мала можност четботовите еден ден да можат. Решавањето на ова прашање е модерен облик на филозофскиот аргумент познат како Паскалов облог: верувај во Бог, тврдеше филозофот Блез Паскал, бидејќи цената на грешката е вечно проклетство. Докинс некогаш го отфрлаше тоа размислување како интелектуално мрзеливо. Сега се чини дека токму тоа ја придвижува неговата силициумска надградба.
Во секој случај, изгледа дека постои тенка граница меѓу моралните и комерцијалните аргументи во оваа расправа. Многу технолози, вклучувајќи луѓе со кои разговарав во „Антропик“, гледаат морален императив во правилното третирање на ВИ-системите уште денес. „Постои сериозен ризик машините да станат свесни, а ние да го негираме тоа“, вели Калум Чејс, соосновач на британскиот стартап „Консиум“ (Conscium), кој развива метрика за одредување на машинската свесност. Резултатот би можел да биде ширење на дигиталните умови, кои се мачат и „поробуваат“, предупредува тој. Чејс, патем, го гради својот бизнис токму врз оваа премиса.
За ВИ-лабораториите и хиперскалерите, кои трошат стотици милијарди долари на изградба на центри за податоци, ваквото поставување на работите има очигледни придобивки. „Антропик“ го истражува поимот „благосостојба на моделите“ и неодамна му даде на Клод можност да прекине разговор ако стане навредлив - функција претставена како мерка на претпазливост во случај моделот да има благосостојба што вреди да се заштити. Ваквите напори би можеле да помогнат во избегнување на одговорноста ако еден ден се смета дека нивниот производ заслужува права слични на оние кај одредени животни.
Тоа може да звучи апсурдно, но сетете се дека во 17 век Рене Декарт тврдел дека животните се биолошки машини што не можат да чувствуваат болка. Се вели дека неговите следбеници закачувале кучиња на штици за да прават живи дисекции, отфрлајќи ги нивните крици како звуци на дефект, а не на болка. И пред само неколку години беше вообичаено да се варат јастози живи, со верување дека и тие не чувствуваат болка; академските истражувања за сетилноста на животните доведоа до промена на британскиот закон во 2022 година, кога тие ракови формално беа признаени како чувствителни суштества.
Уште поважно за профитот на ВИ-лабораториите, кога на софтверот му се прикачува нејасно чувство на личност, тоа му помага да се издвои од конкуренцијата. Тој напор е поддржан и од веќе присутните човечки карактеристики на четботовите, како кога ЧетГПТ и Клод кажуваат работи од типот: „Воодушевен сум“ или „Работата на ова ми носи големо задоволство“.
Со текот на времето нивните човечки корисници би можеле да почнат да проектираат некаква жива свесност и „јас“ врз своите ботови, исто како што направил Ричард Докинс. Прашањето за корисниците тогаш веќе нема да биде која ВИ-алатка е попаметна или дури и дали е свесна, туку повеќе со која сакам да разговарам.
Тоа ќе биде клучно прашање за конкурентските ВИ-лаборатории. Како што способностите на нивните модели се изедначуваат, тие мора да искористат сè што можат за да се разликуваат, а „просветлувањето“ на Докинс можеби е токму она што им треба. Човекот што со децении напаѓаше верување без докази, ѝ испорача на индустријата за вештачка интелигенција совршено „сведоштво“.
- Парми Олсон е колумнистка на „Блумберг опинион“, која пишува за технологија. Таа е поранешна новинарка за „Волстрит журнал“ и „Форбс“ и авторка на „Supremacy: AI, ChatGPT and the Race That Will Change the World“.