Ако губещите амфетамин в Невада не бяха достатъчно лоши, Пентагонът работи, за да отприщи дронове с изкуствен интелект

Селяните от трети свят вече могат да гледат към бъдещето, където са преследвани от роботи-убийци

Мислите ли, че войните на Империята с безпилотни самолети са лоши сега?

Да предположим, че знаете, че аз произвеждам пушка на прах. И цевите на пушките, спусковите механизми и прицелното оборудване. И аз бях открит за това, не се опитвах да скрия своите дейности и проекти от никого. Наистина съм абсолютно непримиримо за моите дейности. Да предположим, че съм твърдял, че не планирам да правя пушки и боеприпаси, а само компоненти, а дори и да бях, тези пушки няма да се използват за стрелба по нищо и със сигурност не за убиване на нищо или никого.

За да бъда ясен, бих подчертал, че дори ако напълно функциониращите пушки и боеприпаси всъщност бяха сглобени от тези части, които изработвах, пушките просто щяха да седят в калъф и никога нямаше да позволя да бъдат използвани. Бих направил няколко коментара за това как пушките и боеприпасите не са били особено полезни, когато са сглобени така или иначе - това не беше целта - и че съставните части са наистина по-ценни, а също и безобидни.

За да съм сигурен, че сте разбрали, бих твърдял, че компонентите на моята пушка и боеприпаси винаги ще трябва да бъдат проектирани така, че човек да се намеси, ако някой се опита да събере частите или да използва сглобените пушки. Но също така бих искал да се уверя, че сте знаели това други хора, които не бяха толкова етични и честни, както казвам аз работеха много усилено върху пушки и боеприпаси.

Бихте ли повярвали, че това, което правя и това, което възнамерявам, няма да доведе до съществуването на пушки, които да бъдат използвани за изстрелване на каквото и да било или някой в ​​даден момент?

Мисловната каша по-горе е подобна на твърденията на Пентагона, че той агресивно преследва автономни способности, но не изгражда автономни оръжейни системи. Но това, че те наистина работят за роботи-убийци, не би трябвало да е изненада, защото автономните, насочени към изкуствения интелект (AI) оръжейни системи са очевидната, неизбежна кулминация на над 50 години съгласувани усилия за създаване и усъвършенстване на технологичните градивни елементи и за развитие. оперативните концепции.

Пентагонът работи в продължение на десетилетия върху машинни помощни средства и машини за замяна на човешките решения. По време на Студената война Пентагонът за първи път разработи интегрирани, базирани на радари системи за индикация на движещи се цели въздушна и балистична ракетна отбрана системи и тази работа еволюира до въздушно откриване на движещи се наземни превозни средства. Усъвършенстваните торпеда, ракетата "Феникс", носена от F-14 Tomcat, и версията Longbow на ракетата Hellfire са проектирани да се изстрелват по цели извън зрителния обхват, като се свързват откритите целеви сигнали с целевите библиотеки. Изстрелването на антибалистична ракета на системата за предупреждение и системите за противовъздушна отбрана като системата за затваряне на оръжията на ВМС, ракетната система Aegis или израелския Железен купол са проектирани да бъдат полу или напълно автономни, за да преодолеят или допълнят сроковете, необходими за човешки решения.

Военните също искаха да ускорят рутинните си въздушни удари. След оперативни разочарования и неуспехи в елиминирането на движещи се наземни превозни средства като мобилни ракетни установки през 1990-те години в операции като Desert Storm и Allied Force, висши военни лидери - по-специално от ВВС - отстояваха технологично ускорение, което би компресирало цикъла за насочване и убиване „Едноцифрени минути“.

Терминът на военните за намиране на цел и стрелба по нея се нарича „верига за убиване“. Обща формулировка на стъпките в тази верига е Find-Fix-Track-Target-Engage-Assess. Към днешна дата, и то сравнително наскоро, най-зрялата част от тази убийствена верига е частта „убийство“ - „Включване“ - след десетилетия на изследвания и развитие в технологиите за насочване.

Пентагонът и пресата изобразиха Desert Storm като високотехнологичен фестивал на точно доставените боеприпаси, но по-голямата част от доставените с въздух оръжия са били неуправлявани, точно както са били през Първата и Втората световни войни, Корея и Виетнам. Всъщност повечето от "прецизните" оръжия, използвани в пустинята Буря, бяха реколта във Виетнам. Полуактивната лазерна технология от 1960-те години на миналия век и GPS-помощ за инерционни системи за насочване от 1990-те години на миналия век са често срещани в най-популярните оръжия на Пентагона, като ракетата Hellfire и Joint Direct Attack Munition (JDAM) за стандартни въздушни бойни глави.

Днес САЩ и повечето съвременни военни рядко използват неуправляеми бомби и през последните няколко години Пентагонът е хвърлил толкова много бомби, че е недостиг в инвентара му.

Но за всички подобрения в насоките за оръжия, най-трудните части от веригата за убиване идват преди и след „Engage“. Тези други части от веригата за убиване са както най-важните, така и там, където военните имат най-малка способност. Tнай-трудните части от веригата за убиване са там, където военните се опитват да открият, идентифицират и локализират цели и след това да оценят щетите след въздушния удар, често се използва оборудване като оптично увеличение или дистанционно зондиране, базирано на радар, монтирано на пилотирани и безпилотни самолети.

Техническите предизвикателства са в изобилие. Съдържанието на влага, замъгляването на частиците и температурните градиенти в атмосферата усложняват оптичните и радарните сензори. Видимите, инфрачервените, лазерните и радарните дължини на вълните са ограничени по различни начини от физиката. И дизайнът на сензорите трябва да прави инженерни компромиси между мощността, доставяна от самолета, изчислителната обработка на връщанията на сигнала и програмната логика, която определя какво ниво на обработка на сигнала ще обърне всеки пиксел на видеоекрана от бял на сив на черен или към който цвят на дисплея.

Освен това, всички системи за дистанционно наблюдение, независимо от технологията, винаги включват триизмерна степен на неопределеност на местоположението, наречена грешка в целевото местоположение. Добавете закъснение между времето, когато системата за откриване на целта записва оценката на местоположението и когато тази информация е получена, и добавяте четвърто измерение на несигурността на целевото местоположение.

Разбира се, тези технически проблеми са сравнително лесната част. Пентагонът знае, че не винаги ще може да бомбардира безнаказано, както през последните години. Някой ден, някъде американските военни отново ще се сблъскат със способна заплаха земя-въздух и това ще удължи и разшири веригата за убиване геометрично и във времето, изтласквайки самолетите и техните сензори и оръжия по-далеч от целите, изостряйки ъгловите предизвикателства за измерване на целта откриване и идентификация.

Например, един пиксел на видеодисплея на сензора, който може да се равнява на шепа инча от няколко мили, ще бъде равен на десетки фута от десетки мили. С други думи, винаги има някакво разстояние между цел и сензор, при което една радарна дължина на вълната или един видеопиксел ще бъдат по-големи от целта и така пилотът, операторът на безпилотен самолет или AI на безпилотния самолет няма да може да види, камо ли да идентифицира мишена.

Пентагонът работи по тези проблеми. Бързо търсене на последните искания на военните за изследвания чрез програмата за иновативни изследвания на малкия бизнес (SBIR) показва това строителните блокове за автономни оръжейни системи работят. 

Една молба има за цел да автоматизира едновременното проследяване на множество движещи се наземни цели от множество сензори на множество безпилотни самолети.

Друг се стреми да „подкрепят стратегическите разсъждения”Чрез компютърен синтез и оптимизация на множество информационни информационни потоци за използване от командири и анализатори в центъра за въздушни операции.

Друг изразява желанието да се обърне “сензорни данни в действаща информация”Чрез интегриране на множество източници на информация за подобряване на подаването на сензори за военни превозни средства.

Още един иска да намери начин да намали „когнитивна тежест от екип от хора и роботи”За обстоятелства, при които един човек е обединен с множество роботизирани партньори.

В момента армията разработва роботизиран „виртуален екипаж“, за да помогне на войниците през сложността и хаоса на войната. Директорът на програмата, армейската система ATLAS, твърди, че това е само помощно средство, а не заместител на човешкото вземане на решения. “Алгоритъмът всъщност не прави преценка дали нещо е враждебно или не. Това просто предупреждава войника, [и] те трябва да използват обучението и разбирането си, за да вземат това окончателно решение"

Но нека помислим как трябва да работи такава система, за да бъде полезна на войника. Системата за разпознаване на целите не добавя никаква стойност, ако предупреждава войника за всяко дърво, куче, сграда или цивилно лице в полезрението. По-скоро компютърните алгоритми могат да добавят стойност към вземането на човешки решения, само ако синтезират информационни потоци, филтрират ненужното от околната среда и оптимизират неща, които са вероятни цели.

Следователно по дефиниция полезният „виртуален екипаж“ ще трябва много по-често да предоставя това, което е програмиран и обучен да вижда като цели на своите човешки съотборници. Въпреки че не знаем как е обучен AI за системата ATLAS, е неизвестно, знаем, че историята е пълна с грешки при идентифициране на целите и че пристрастия могат да бъдат вградени или обучени в AI.

Когато машините оптимизират информацията, човешките войници ще разполагат с ограничен набор от информация, която да сортират и с която да правят избор. Така че твърдението, че хората ще вземат „решението“ да стрелят, е изпълнено и подвеждащо. Информационният контекст и наборът от решения ще бъдат намалени до едно от натискането на спусъка или не. Това почти ще бъде аналогията на стрелец в разстрел с може би само малко по-човешка преценка в комбинацията.

Ние можем лесно да предвидим призивите за пълна автономност на спусъка след неизбежния шум когато ATLAS (или други подобни системи) не успее в някои случаи да предупреди войниците за заплахи или когато комуникационната връзка между безпилотен самолет за наблюдение и човешки оператор от другата страна на света се провали в критичен момент, водещ до американски смъртни случаи. Любителите на технологиите ще твърдят, че „ще бъде възможно роботите да са толкова добри (или по-добри) в идентифицирането на враждебно настроени вражески бойци, колкото хората”И, при други условия, автономната целева атака става по този начин необходима за защита на американския живот.

Такива ентусиасти заявяват, че етичните правила за ангажираност ще бъдат програмирани в автономни системи. Но как да изравним това розово твърдение с човешката логика за вземане на решения, че приемливите цели за убийство трябва просто да бъдат оценени като мъже от военна възраст, държащи нещо, което прилича на оръжие, или че поведението им с течение на времето създава определен „подпис“ на подлост или просто да сте близо до целта с висока стойност? Ще бъде ли по-строга логиката на автономното оръжие за проверка на целите? Това е фантазия.

Привържениците на увеличаващата се автономия сочат към Пентагона AI стратегия и да Директива на Министерството на отбраната (DoDD) 3000.9 като доказателство за предпазливост, сочеща към твърдения за необходимостта от системния дизайн за човешки интерфейс и надзор.

Просто защото автономна система осигурява човешка намеса чрез дизайн не означава, че функционирането на летална автономна система изисква човешко участие. Това е разликата между „Контрол по дизайн“ и „контрол в употреба“. Всъщност ръководството на САЩ е активно опити за блокиране при международно регулиране или официално заклеймяване на разработването и използването на автономни роботи-убийци, подкопавайки твърденията, че такава способност не е цел на САЩ.

AI във всичките му потенциални форми е перфектният ловец на националната сигурност. В близко бъдеще на практика за всяко лично или национално неудобство или аномалия може да бъде обвинен злонамерен ИИ. Руснаците са работя върху това в края на краищата и Пентагонът се притеснява от технологични пропуски, както реални, така и измислени.

Всъщност, ако руските тролове в социалните медии са способни да вдъхнат хаос на частица от цената за експлоатация на радио „Свободна Европа“ - да не говорим за свалянето на режима - човек лесно си представя как изявленията на руските генерали, които „Широката употреба на прецизни и други видове нови оръжия, включително роботизирани, ще бъдат основните характеристики на бъдещите конфликти“ са уверени да запазят американските военни и разузнавателни бюджети да растат в бъдеще.

Дейв Фостър е анализатор на данни в частния сектор. От 1988-2018 г. той е бил пилот на морската пехота и договор по Министерството на отбраната и граждански инженер по оръжия и оперативен анализатор. Той е завършил инженерство, бизнес и история.

Източник: Antiwar.com

Запиши се
Известие за
guest
1 коментар
-старите
Най-новите Повечето гласували
Вградени отзиви
Вижте всички коментари

CHUCKMAN
Преди 4 месеца

„Ако губещите от амфетамин в Невада не бяха достатъчно лоши, Пентагонът работи, за да отприщи дронове с изкуствен интелект

„Селяните от третия свят вече могат да гледат към бъдещето, където са преследвани от роботи-убийци“

Просто обичайте заглавието и lede.

Антиимперия