Како што дигитализацијата на светот забрзано се шири, нашите паметни телефони се трансформираат во пософистицирани машини и незаменливи алатки, кои имаат големо влијание врз секојдневниот живот. Тие повеќе не се само уреди за комуникација; тие се паметни, интуитивни асистенти, а најновите генерации целат да бидат уште попаметни преку вградување на технологијата за вештачка интелигенција (ВИ).
Добар патоказ за тоа е неодамнешната промоција на најновите паметни телефони од „Епл“ (Apple), од линијата „ајфон 16“ (iphone 16), за кои извршниот директор на компанијата Тим Кук рече дека се изградени со вештачка интелигенција „од самата основа“.
Прочитајте повеќе: Највидлива новина во новиот ајфон е копчето за контрола на камерата
Прочитај повеќе
Стартап открива дали одреден глас е реален или генериран со вештачка интелигенција
„Пиндроп“ е една од сè поголемиот број компании кои се борат против заканата од фалсификати и измами со вештачка интелигенција.
26.08.2024
Колку струја троши вештачката интелигенција?
Големата потрошувачка на струја на вештачката интелигенција стои на патот на зелената транзиција.
13.08.2024
Вештачката интелигенција ќе згасне многу работни места, но какви ќе создаде?
Како што се развива вештачката интелигенција, таа не само што ги автоматизира задачите туку и отвора нови можности и предизвици.
07.08.2024
Влијанието на ВИ врз економијата само што започна, вели директорка во „Опен еј-ај“
Најновиот модел ГПТ-4о на „Опен еј-ај“ им помага на корисниците да генерираат содржини како текст, презентации и видеа.
30.05.2024
Македонските банки им посакуваат големо добредојде на четботовите
„Комерцијална банка“ и „Халк банка“ веќе користат вештачка интелигенција и анализираат можна употреба на нови решенија базирани на ВИ.
09.05.2024
„Мајкрософт“ им нуди помош на политичарите против длабоко лажни содржини пред изборите во САД
Компанијата им нуди на американските политичари и изборни штабови алатка што има цел да помогне во борбата против порастот на лажни визуелни содржини.
08.11.2023
Сепак, еволуцијата на паметните уреди управувана од вештачката интелигенција со себе носи мноштво нови ризици и закани, кои корисниците можеби не ги сфаќаат доволно сериозно.
„Вештачката интелигенција е сè подостапна, па сега со еден клик на вашиот паметен телефон може да направите визуелно пребарување на она што го гледате или да лекторирате или, пак, целосно да одговорите на некоја порака или мејл-конверзација. Но никој не би сакал сензитивни податоци од тие содржини да бидат откриени или злоупотребени, намерно или случајно.
Дополнително, постои ризик тие податоци да бидат користени за тренинг на големите јазични модели (LLM) без согласност на корисникот, што може да влијае на приватноста и безбедноста“, објаснува Нино Карас, извршен директор и соосновач на компанијата „Кодвел еј-ај“ (CodeWell AI).
ВИ: Предност што носи ризик
Вештачката интелигенција, во нејзините различни форми, станува составен дел од функционалноста на современите паметни телефони. Од гласовни асистенти, како Сири (Siri) и Гугл асистент (Google Assistant), до понапредни функции, како што се опции за предвидување текст и персонализирани препораки, вештачката интелигенција го подобрува корисничкото искуство со тоа што ги прави уредите попрецизни и интуитивни.
Сепак, токму оваа софистицираност е она што ги прави ранливи на злоупотреба.
Една од главните грижи се податоците што ги собираат овие паметни уреди. Системите за вештачка интелигенција бараат огромни количества на податоци за да функционираат ефективно, а тие податоци често вклучуваат чувствителни лични информации. Тоа создава златна шанса за сајбер-криминалците. На пример, ако системот за вештачка интелигенција може да ги разбере вашите гласовни команди, тој потенцијално може да пресретне и злоупотреби лични или финансиски информации.
За илустрација, замислете сценарио во кое на вашиот виртуелен асистент му давате гласовна команда: „Провери го моето банкарско салдо“. Виртуелниот асистент пристапува до вашата банкарска сметка и го кажува салдото. Ако овој асистент нема соодветна заштита, некој што може да го пресретне овој податок или има пристап до системот, би можел да ги добие информациите за вашата банкарска сметка.
Еден начин на злоупотреба би бил ако хакер успее да пристапи до серверот каде што се складираат и обработуваат овие команди, па, така, да добие чувствителни информации како банкарски сметки, лозинки или податоци за кредитна картичка. Во најлош случај, таквиот напаѓач може да ги искористи информациите за да прави неовластени трансакции или други видови финансиски измами.
Врз основа на овој пример, може да се заклучи дека интеграцијата на вештачката интелигенција со различни апликации и услуги значи дека едно безбедносно нарушување може да го загрози целиот екосистем на податоци.
Големите јазични модели сè повеќе се користат поради нивната способност да информираат и да извршуваат задачи со висока прецизност, што веќе овозможува дел од секојдневните активности речиси целосно да се пренесе на вештачката интелигенција. Но доколку информациите што ги генерираат не се проверени, тоа може да доведе до сериозни последици за општеството.
„Дезинформацијата не е секогаш намерна - чест проблем кај големите јазични модели е појавата на т.н. ‘халуцинации’, кога обезбедената информација звучи веродостојно, но е целосно погрешна. Тоа е и една од причините поради кои сè уште нема широка примена на овие модели во индустрии каде што дезинформацијата може да предизвика големи финансиски штети и да резултира со правни реперкусии“, вели Карас.
Во тој контекст, нашиот соговорник посочува уште еден пример, со четботот базиран на ЧетГПТ (ChatGPT) изработен за потребите на авиопревозникот „Ер Канада“ (Air Canada) во февруари годинава.
„Нивниот четбот ненамерно измисли нова политика за рефундирање на клиентите, што доведе до правна одлука според која компанијата мораше да ги рефундира сите корисници што ја добиле таа информација. Иако политиката беше сосема неповолна за ‘Ер Канада’, судот пресуди дека е обврзувачка бидејќи информацијата доаѓала од официјален извор на компанијата“.
Ранливост на експлоатација
Паметните телефони сè повеќе се цел на хакери што сакаат да ги искористат слабите страни на релативно новата технологија. Озлогласен пример е потенцијалот за малициозен софтвер со вештачка интелигенција, кој може да се приспособи и да се развива за да избегне откривање преку конвенционални безбедносни мерки. За разлика од традиционалниот малициозен софтвер, заканите управувани од вештачка интелигенција можат да учат од нивната околина и да го модифицираат своето однесување за да ги заобиколат безбедносните протоколи.
Понатаму, алгоритмите за вештачка интелигенција што се користат во паметните телефони може да се манипулираат за да служат за злонамерни цели.
Слично на тоа, системите за вештачка интелигенција што учат од однесувањето на корисниците може да бидат измамени да донесат неточни одлуки или дејства врз основа на лажни внесувања на податоци.
Според Севдали Селмани, раководител на Националниот центар за одговор на компјутерски инциденти (MKD - CIRT), ако уредите со вештачка интелигенција бидат хакнати или компромитирани, постојат неколку потенцијални ризици за корисниците.
„Прво, може да дојде до неовластен пристап до чувствителни податоци, што може да резултира со злоупотреба на лични информации или финансиски загуби. Второ, компромитираните уреди може да донесат неточни или изманипулирани одлуки, што може да влијае на корисничкото искуство и безбедност. Трето, напаѓачите може да ги користат овие уреди за да извршуваат други сајбер-напади, како DDoS напади, проширувајќи го ризикот кон други системи“, вели Селмани.
Опасност од дипфејк содржини и лажно претставување
Со напредокот во сферата на вештачката интелигенција, создавањето лажни содржини, познати како „дипфејк“ (deepfakes), стана вистинска и опасна закана. Оваа технологија овозможува создавање убедливи видео или аудиоснимки, кои изгледаат како да се направени од вистински луѓе, но всушност се целосно измислени. Овие видеа може да се користат за дезинформации, измами, па дури и за клевета.
Прочитајте повеќе: Во „Ферари“ за влакно избегната дипфејк измама што го имитирала извршниот директор
Постојат многубројни примери за злоупотреба на дипфејк содржини. Лажни видеа на јавни личности или политичари може да се користат за ширење пропаганда или поттикнување паника. Лажното претставување преку такви видеа може да има сериозни последици, како што е нарушување на угледот или дури и правни последици.
Корисниците може да бидат измамени од таквите видеа, верувајќи дека се сведоци на вистински настани кога всушност се соочуваат со вештачки манипулирана содржина.
„Со оглед на способноста на ВИ да обработува и генерира големи количества податоци, паметните уреди значително го олеснуваат креирањето лажни сценарија што изгледаат како вистински. Таквите манипулации може да поттикнат социјални или политички немири или да ја нарушат довербата во релевантните информации, со што сериозно се нарушуваат општата безбедност и стабилност“, посочува Селмани.
Приватност и етички грижи
Употребата на вештачка интелигенција во паметните телефони предизвикува значителна загриженост за приватноста. Системите за вештачка интелигенција често бараат постојан пристап до личните податоци за да ги усовршат своите алгоритми. Ова постојано собирање податоци може да доведе до потенцијални нарушувања на приватноста доколку не се соодветно заштитени. Корисниците можеби не го разбираат целосно обемот на податоците што се собираат или како тие се користат, што доведува до недостиг од транспарентност.
„Процесирањето и искористувањето информации од страна на корисниците сè уште е голема проблематика, која и покрај обидите за решавање и законско регулирање од типот на ГДПР (General Data Protection Regulation) на ЕУ, и натаму претставува голем проблем и секојдневно гледаме многу пропусти дури и од високо етаблирани компании. Вештачката интелигенција додава комплексност на постојната ситуација, која, за жал, сè уште е сива зона преку која компаниите се оградуваат користејќи правни механизми и предолги и за обичниот корисник нејасни политики за приватност и користење“, посочува Карас.
Дополнително, стапуваат во игра и етичките дилеми. Способноста на вештачката интелигенција да предвидува и да влијае на однесувањето на корисниците може да доведе до манипулации, без разлика дали се за комерцијална добивка или за позлобни цели. Истите алгоритми што препорачуваат производи и услуги може да се искористат за ширење штетна содржина или дезинформации.
На пример, во политички контекст, вештачката интелигенција може да се користи за да предвиди кои корисници се подложни на одредени пораки, со цел да им се прикажат целни политички реклами или дезинформации.
Алгоритмите би можеле да ги анализираат вашите емоции, ставови и уверувања и потоа да креираат персонализирани пораки што ќе влијаат врз вашето мислење или однесување. Ова веќе се случувало во минатото, како што беше случајот со „Кембриџ аналитика“ (Cambridge Analytica), каде што податоци од социјалните мрежи беа користени за манипулација на гласачи.
Ова покажува како вештачката интелигенција може да се користи за да се влијае на луѓето на суптилни начини, кои не се секогаш очигледни, но можат да имаат големи последици.
Ублажување на ризиците
За да се справат со овие закани, производителите и програмерите мора да им дадат приоритет на силните безбедносни мерки.
„Тоа вклучува шифрирање на податоците, строга контрола на пристап со двоен фактор за автентикација, постојан мониторинг за детекција на закани, редовни софтверски ажурирања, сегментација на мрежата и примена на правни и етички стандарди. Дополнително, се користат и алгоритми за откривање аномалии што можат да укажат на потенцијална манипулација“, објаснува Селмани.
Корисниците исто така имаат улога во заштитата на нивните уреди. Користењето силни, уникатни лозинки, претпазливоста во контекст на дозволите за апликациите и информирањето за потенцијалните закани може да ублажат некои ризици.
Згора на тоа, може да биде неопходен зголемен регулаторен надзор за да се осигури дека технологиите за вештачка интелигенција се развиваат и се користат на начини што ги почитуваат приватноста и безбедноста на корисниците. Транспарентните практики и согласноста од корисникот треба да бидат фундаментални во примената на технологиите со вештачка интелигенција.
Насока за иднината
Како што вештачката интелигенција продолжува да напредува, така ќе напредуваат и стратегиите што ги користат оние што сакаат да ги искористат нејзините слабости. Предизвикот и за корисниците и за програмерите е да останат чекот пред овие закани, осигурувајќи дека придобивките од вештачката интелигенција не доаѓаат на сметка на безбедноста и приватноста.
„Неопходни се стриктно тестирање и верификација пред масовна употреба на алгоритмите, но и транспарентност и надзор во процесот на тренирање. Вклучувањето човечки надзор исто така помага да се избегнат погрешни или неетички одлуки“, посочува Карас.
Во свет во кој паметните уреди се централни во нашиот секојдневен живот, разбирањето и справувањето со скриените закани од вештачката интелигенција не се само мерка на претпазливост туку и неопходност.