Највисокиот претставник за вештачка интелигенција на Министерството за одбрана на САД рече дека институцијата треба да знае повеќе за алатките за вештачка интелигенција пред целосно да се посвети на користење на технологијата и ги повика програмерите да бидат потранспарентни.
Крег Мартел, главен офицер за дигитална и вештачка интелигенција на Пентагон, сака компаниите да споделат информации за тоа како се создава нивниот софтвер за вештачка интелигенција без да ја загубат интелектуалната сопственост, а за да може Пентагон „да се чувствува удобно и безбедно“ при прифаќањето.
Софтверот за вештачка интелигенција се потпира на големи јазични модели или ЛЛМ (LLM), кои користат огромни збирки на податоци за напојување на алатките како што се чет-ботови и генератори на слики. Услугите обично се нудат без да се прикаже нивната внатрешна работа - во таканаречената црна кутија. Тоа им отежнува на корисниците да разберат како технологијата доаѓа до одлуки или што ја прави подобра или полоша во својата работа со текот на времето.
Прочитај повеќе
Вештачката интелигенција доаѓа на Инстаграм, Месинџер и Ватсап
Компанијата „Мета“ воведува функции за вештачка интелигенција (ВИ) во своите апликации.
28.09.2023
ЦИА креира алатка во стилот на ЧетГПТ наменета за шпионажа
Американските разузнавачки агенции добиваат сопствена алатка во стилот на ЧетГПТ за да чешлаат големи количества јавно достапни информации.
27.09.2023
„Опен еј-ај“ се шири во Европа, најави второ претставништво
„Опен еј-ај“, креаторот на ЧетГПТ, планира да отвори канцеларија во Даблин, која би била негова втора база надвор од САД.
15.09.2023
Факултетски образованите работници ги обзема страв дека ќе застарат
Околу 22 отсто од американските работници сега стравуваат дека не би можеле да фатат чекор со технологијата.
12.09.2023
„Само го добиваме крајниот резултат од изградбата на моделот - тоа не е доволно“, рече Мартел во интервјуто. „Пентагон нема идеја како се структурирани моделите или кои податоци се користени“, рече тој.
Мартел додаде дека компаниите исто така не објаснуваат какви опасности би можеле да донесат нивните системи.
„Тие велат: Еве го. Ние не ви кажуваме како го изградивме. Ние не ви кажуваме што е добро или лошо. Не ви кажуваме дали е пристрасно или не“, рече тој.
Тој ги опиша таквите модели како еквивалент на „пронајдена вонземска технологија“ за Министерството за одбрана. Тој, исто така, е загрижен дека само неколку групи луѓе имаат доволно пари за да изградат ЛЛМ. Мартел не идентификуваше ниту една компанија по име, но „Мајкрософт“ (Microsoft Corp.), „Алфабет“ (Alphabet Inc.), „Гугл“ (Google) и „Амазон“ (Amazon.com Inc.) се меѓу оние кои развиваат ЛЛМ за комерцијалниот пазар, заедно со стартапите „Опен-еј-ај“ (OpenAI) и „Антропик“ (Anthropic).
Мартел ги покани претставниците на индустријата и академиците во Вашингтон во февруари за да ги решат проблемите.
„Симпозиумот на Пентагон за одбранбените податоци и вештачката интелигенција има за цел да открие кои работни места би можеле да бидат соодветни за ЛЛМ“, рече тој.
Тимот на Мартел, кој веќе води работна група за проценка на ЛЛМ, веќе нашол 200 потенцијални употреби за нив во Министерството за одбрана.
„Не сакаме да ги запреме големите јазични модели“, рече тој. „Ние само сакаме да ја разбереме употребата, придобивките и опасностите“.
Има „голем пораст“ во одделот на луѓе кои би сакале да користат ЛЛМ, рече Мартел. Но, тие исто така признаваат дека ако технологијата халуцинира - термин што се користи кога софтверот со вештачка интелигенција фабрикува информации или дава неточен резултат, што не е невообичаено - тие се оние кои мора да преземат одговорност за тоа.
Тој се надева дека февруарскиот симпозиум ќе помогне да се изгради она што тој го нарече „модел на зрелост“ за да се воспостават одредници во врска со халуцинации, пристрасност и опасност. Иако може да биде прифатливо првиот нацрт на извештајот да вклучува грешки поврзани со вештачката интелигенција - нешто што човекот подоцна би можел да го отстрани - тие грешки не би биле прифатливи во поризични ситуации, како што се информациите што се потребни за донесување оперативни одлуки.
Класифицираната сесија на тридневниот настан во февруари ќе се фокусира на тоа како да се тестираат и оценуваат моделите и да се заштитат од хакирање.
Мартел рече дека неговата канцеларија има консултантска улога во Министерството за одбрана, помагајќи им на различни групи да го откријат вистинскиот начин за мерење на успехот или неуспехот на нивните системи. Агенцијата има повеќе од 800 проекти за вештачка интелигенција во тек, некои од нив вклучуваат системи за оружје.
Со оглед на вклучените влогови, Пентагон ќе примени построги граници за тоа како да се користат алгоритамски модели отколку приватниот сектор, рече тој.
„Ќе има многу случаи кога животите се на линија“, рече тој. „Значи, да се дозволи халуцинирање или како и да веќе го наречеме - тоа едноставно нема да биде прифатливо“.