undark.org
#1
Jāsaka nosaukums "undark" angliski ir kaut kas līdzīgs "apgaismībai" bet izklausās, ka tas ir tāda gana praktiskā nozīmē

https://undark.org/2024/11/26/unleashed-...s-weapons/

Pastāv autonomo ieroču tehnoloģija. Ko tagad?

Nākotnē cilvēki, iespējams, nebūs vienīgie šķīrējtiesneši, kas dzīvo un mirst karā, jo ieroči iegūst lēmumu pieņemšanas varu.

2021. gada zilo putnu dienā uzņēmuma Fortem Technologies darbinieki devās uz līdzenu Jūtas tuksneša daļu. Zeme bija laba vieta, kur izmēģināt uzņēmuma jauno inovāciju: DroneHunter pielikumu, kas, kā norāda nosaukums pusceļā, ir drons, kas medī citus dronus.

Eksperimenta sākumā DroneHunter, gluds, melnbalts gaisa kuģis ar rotoru, kura garums ir 2 pēdas un kura spārnu izpletums ir tikpat plats kā pieaugušam cilvēkam, sāka saņemt radara datus uz zemes, kas liecināja, ka gaisā atradās lidmašīnas formas drons. kas citos apstākļos varētu pārvadāt munīciju, kas paredzēta, lai kaitētu cilvēkiem. 

"DroneHunter, dodieties medībās," satraucošā mākslīgā intelekta balss sacīja pakalpojumā YouTube ievietotajā notikuma videoklipā. Tā rotori pagriezās uz augšu, un skats pacēlās virs izžuvušās zemes.

Radara sistēma automātiski izsekoja mērķa dronu, un programmatūra vadīja tā vajāšanu, nav nepieciešams vadītājs. Dažu sekunžu laikā abas lidmašīnas saskārās viens ar otru. No DroneHunter izšāva tīkls, kas apvijās ap ienaidnieku kā no Zirnekļcilvēka. Savienots izpletnis — jauna tehnoloģija, kas paredzēta lielāku lidmašīnu nolaišanai — no tīkla gala izlidoja ar gaisa balonu, nolaižot savu upuri uz Zemi.

Mērķis: uzvarēts, bez medībām nav nepieciešams cilvēks. "Mēs atklājām, ka bez izņēmuma mūsu klienti vēlas, lai šajā cilpā būtu cilvēks," sacīja Adams Robertsons, līdzdibinātājs un galvenais tehnoloģiju speciālists Fortem, aizsardzības uzņēmumā, kas orientēts uz droniem, kas atrodas Pleasantgrovā, Jūtā.

Lai gan Fortem joprojām ir salīdzinoši mazs uzņēmums, tā pretdronu tehnoloģija jau tiek izmantota kaujas laukā Ukrainā, un tā pārstāv sistēmu, kurā ASV Aizsardzības departaments investē: mazas, salīdzinoši lētas sistēmas, kas var darboties neatkarīgi. Amerikas Savienotās Valstis pašlaik neizmanto pilnībā autonomus ieročus, proti, tādus, kas paši pieņem lēmumus par cilvēka dzīvību un nāvi.

Tā kā daudziem lietotājiem ir nepieciešama cilvēka operatora iesaiste, Fortem's DroneHunter pilnībā neatbilst Starptautiskās Sarkanā Krusta komitejas autonomā ieroča definīcijai — "jebkuri ieroči, kas atlasa un pielieto spēku mērķiem bez cilvēka iejaukšanās", iespējams, ir vistuvākais standarta skaidrojumam. kas pastāv šajā joprojām brīvajā laukā, taču tas ir viens mazs solis no šīs iespējas, lai gan tas nav paredzēts cilvēkiem.

Tas, kā turpmāk darbosies autonomās un daļēji autonomās tehnoloģijas, ir aktuāls, un ASV valdībai būs jāizlemj, kādus ierobežojumus noteikt tās izstrādei un lietošanai. Šie lēmumi var tikt pieņemti ātrāk nekā vēlāk — tehnoloģijām attīstoties, globāliem konfliktiem turpina plosīties, un citas valstis saskaras ar līdzīgām izvēlēm, kas nozīmē, ka nākamā Trampa administrācija var papildināt vai mainīt esošo Amerikas politiku. Taču eksperti saka, ka autonomām inovācijām ir potenciāls būtiski mainīt kara norisi: nākotnē cilvēki, iespējams, nebūs vienīgie šķīrējtiesneši, kas dzīvo un mirst, bet lēmumus pieņems algoritmi.

Dažiem ekspertiem tas ir pozitīvs: tas varētu samazināt upuru skaitu un karavīru stresu. Taču citi apgalvo, ka tā vietā tas varētu izraisīt nekritisku nāvi bez tiešas atbildības, kā arī saasināt konfliktus starp kodolieroču valstīm. Pīters Asaro, pretautonomijas aizstāvības organizācijas Stop Killer Robots pārstāvis un Starptautiskās Robotu ieroču kontroles komitejas vicepriekšsēdētājs, ir noraizējies par inovāciju galīgo parādīšanos kaujas laukā. "Tas, kā šīs sistēmas faktiski tiek izmantotas, ne vienmēr ir atkarīgs no tā, kā tās tiek veidotas," viņš teica.

Tikmēr aktīvisti un zinātnieki ir arī pauduši bažas par tehnoloģiju nonākšanu nepareizās rokās, norādot, ka pat tad, ja cilvēks paliek pie lēmumu pieņemšanas stūres, gala rezultāts var nebūt ētisks.

Gan optimisti, gan kritiķi mēdz vienoties, ka vajadzētu pastāvēt starptautiskiem aizsardzības pasākumiem un noteikumiem — ideālā gadījumā tādā veidā, kas nodrošina zināmu cilvēku atbildību. Tomēr šādu ierobežojumu ieviešana tiek veikta vairāk nekā desmit gadus, un tas ir neliels progress, pat ja tehnoloģija ir attīstījusies.

Autonomie ieroči var šķist futūristiski, taču tehniski tie pastāv jau vairāk nekā gadsimtu. Ņemiet, piemēram, mīnas, kuras pirmo reizi plaši izmantoja pilsoņu kara laikā un kuras darbojas neatkarīgi, bez jebkādas uztveres. Vai pundži nūjas — asas tapas, kas paredzētas, lai kaitētu karavīriem vai notvertu tos. Kad kāds uzkāpj uz caurumā paslēpto pundži nūju pārsega — Vjetnamas kara laikā plaši izmantots slazda veids — viņš nokrīt lejā un piezemējas uz smailēm.

Pēc tam ir siltumu meklējošas raķetes, kuras vienas pašas dzenā infrasarkano staru izstarojošos objektus kopš pagājušā gadsimta piecdesmitajiem gadiem. Un flote joprojām izmanto sistēmu, kas pirmo reizi tika izstrādāta 1960. gados, lai autonomi pārtvertu lādiņus, kas slūžas pret kuģiem.

"Tas, kā šīs sistēmas faktiski tiek izmantotas, ne vienmēr ir atkarīgs no tā, kā tās tiek veidotas."

Mūsdienās autonomija izskatās nedaudz savādāka: mākslīgais intelekts var identificēt cilvēkus pēc viņu fiziskajām īpašībām, teorētiski padarot militārpersonām iespējamu mērķēt uz konkrētiem ienaidnieka kaujiniekiem. Tikmēr automātiskā navigācija un izsekošana ir daudz sarežģītāka. Tomēr, sacīja Zakarijs Kallenborns, Stratēģisko un starptautisko pētījumu centra domnīcas palīgstrādnieks, termins “autonoms ierocis” ietver pārāk daudz. "Tā ir neticami plaša dažādu lietu skala, no kurām dažas, iespējams, ir ļoti nozīmīgas," viņš teica. "Citi, iespējams, vispār nav."

Saskaņā ar Apvienoto Nāciju Organizācijas ziņojumu pirmā pilnībā autonomā modernā ieroča potenciālā izmantošana Lībijā notika 2020. gadā, kad bezpilota lidaparāts, iespējams, bija pašmērķis uzbrukt milicijas kaujiniekiem (lai gan ir grūti pierādīt, ka cilvēks nav bijis cilpā. kaut kur). Kopš tā laika kaujas laukā turpināja parādīties daļēji autonomi ieroči ar dažādu cilvēku iesaistīšanās pakāpi: Ukrainā autonomie bezpilota lidaparāti spēj mērķēt uz cilvēkiem, lai gan pašlaik cilvēks to liek darīt. Tiek ziņots, ka notiekošajā konfliktā Gazā Izraēlas Aizsardzības spēki ir izmantojuši ar AI iespējotu datu sistēmu ar nosaukumu Lavender, kas izvēlas cilvēku mērķus, pamatojoties uz uzvedības modeļiem ar "mazu cilvēku pārraudzību", liecina žurnāla +972 un Local Call veiktā izmeklēšana. Tiek ziņots, ka Izraēla kaujā ir izmantojusi arī vietējā uzņēmuma Elbit Systems autonomos bezpilota lidaparātus un AI programmatūru, kas ir nogalinājusi palestīniešu civiliedzīvotājus.

Iespējams, ka nāks vēl vairāk šādu ieroču: amerikāņu kompānija Anduril plāno būvēt rūpnīcu, kas ļautu tai ražot autonomus ieročus plašā mērogā, un tai jau ir piedāvājumi, piemēram, ALTIUS-700M, autonomijas drons, kas var lidināties un uzbrukums ar sprādzienbīstamu munīciju.

Šādi ieroči ir aizskaroši, preventīvi mērķējot un iznīcinot cilvēkus vai sistēmas ar bumbām vai raķetēm. Šie roboti nav nekļūdīgi, sacīja Ērihs Rīsens, Teksasas A&M universitātes filozofs, kura darbu militārās ētikas jomā šajā jaunajā autonomajā laikmetā ir pieminējuši ietekmīgi aizsardzības domātāji. Bet viņi darbojas saskaņā ar noteikumiem, kuriem viņi nevar nepakļauties: viņi vismaz vēl nav morāli autonomi. Cilvēki un viņu rakstītā programmatūra nosaka ieroču morāli.

Cilvēki vienmēr sāk cilpu, sacīja T.X. Hammes, izcils Nacionālās aizsardzības universitātes pētnieks, pat ja kādu dienu viņi tajā nav. "Cilvēkam joprojām ir jābūt iesaistītam no paša sākuma," viņš teica, izstrādājot ieroci un izklāstot tā parametrus, kas nozīmē, ka, viņaprāt, nav tādas lietas kā pilnīga autonomija.

Tomēr mākslīgais intelekts hipotētiski varētu pieņemt šo sākotnējo programmu un pieņemt lēmumus ārpus tā, ko sākotnējie cilvēki iedomājās.

Noteikumi, ko ievēro robots, var nebūt perfekti un var izraisīt kļūdas, taču cilvēki arī pieļauj kļūdas un savus morālos lēmumus. Karavīrs var nogurt vai nobīties, un viņam var pasliktināties spriestspēja.

Tomēr citi daļēji autonomie ieroči tiek galā tikai ar ienākošajiem draudiem. Tieši tur iekristu Fortema darbs vai Izraēlas Dzelzs kupola darbs, kas bloķē raķetes pret ienākošajām raķetēm.

Lielu daļu jaunākās tehnoloģiskās attīstības veicina valdības un uzņēmumi, kas vēlas pārvarēt ieroču sacensību. Šķiet, ka tas attiecas uz neseno ASV iniciatīvu Replicator, kuras mērķis ir līdz 2025. gada augustam izvietot tūkstošiem mazu, lētu bezpilota transportlīdzekļu: kuģus, lidaparātus un pretdronu ierīces, kas varētu būt tādas pašas kā Fortem ražotās ierīces. “Tehnoloģija ir gatava ,” komentārā, kas nosūtīts pa e-pastu, sacīja aizsardzības sekretāra vietnieka pārstāvis Ēriks Pahons.

"Nozare ir gatava," viņš piebilda.

"Cilvēkam joprojām ir jābūt iesaistītam no paša sākuma."

Dažas no replikatora sistēmām būs bruņotas, taču ne vienmēr ir skaidrs, kādā veidā tiks izmantoti to dažādie ieroči vai kā tie tiks izmantoti.

Tomēr, neskatoties uz neskaidrību, viens ir skaidrs: Replicator ir sava veida sagatavošanas programma privātiem uzņēmumiem. Tas parāda komerciālo sektoru, ka valdība vēlēsies un ir gatava maksāt par autonomām tehnoloģijām. Šis solījums mudina uzņēmumus sākt ieguldīt savus resursus atbilstošu inovāciju izstrādē, teikts Aizsardzības inovāciju vienības tiešsaistes programmas aprakstā. Aizsardzības inovāciju vienība pastāv DOD, un tai ir vadošā loma projektā. Korporāciju iekšējie ieguldījumi autonomijā varētu ļaut viņiem vēlāk pārdot nobriedušu tehnoloģiju Aizsardzības departamentam. (Vienība nepiešķīra Undark interviju.) "Mūsu panākumiem izšķiroša nozīme ir darbam ar nozari," sacīja Pahons e-pastā. "Ja mēs vēlamies saglabāt savu tehnoloģisko priekšrocību, mums ir jānodrošina, ka mēs izmantojam labākos talantus un zināšanas, ko var piedāvāt katra nozare."

Korporācijas patiešām virzās uz priekšu attīstībā, tāpat kā Fortem. Jautāts, vai viņi pretendē uz Replicator, Robertsons, kurš divus termiņus strādāja Jūtas Pārstāvju palātā, hedžē. "Par to nav daudz zināms," viņš teica, norādot, ka uzņēmums tomēr ir "ciešā saiknē" ar Aizsardzības inovāciju vienību, kas "ļoti informēta" par Fortema darbu.

Nesenās ASV iniciatīvas ar nosaukumu Replicator mērķis ir līdz 2025. gada augustam izvietot tūkstošiem mazu, lētu bezpilota transportlīdzekļu: kuģus, lidmašīnas un pretdronu ierīces.

Arī citi mazie uzņēmumi izstrādā savas autonomās tehnoloģijas. Piemēram, viens ar nosaukumu Saronic ražo mazus pašvadošus okeāna kuģus, uz kuriem var novietot ieroci vai citu kravnesību. (Saroniks nepiekrita intervijai ar Undark.)

Lielie, tradicionālie uzņēmumi, piemēram, Lockheed Martin, dara to pašu. Lai gan daži no Lockheed ieguldījumiem autonomijā, kas bieži notiek tās eksperimentālajā nodaļā, kas sarunvalodā tiek dēvēta par Skunk Works, tiek izstrādāti tiešā sadarbībā ar militārpersonām, citi jauninājumi nāk no uzņēmuma iekšējās izpētes, lai Lockheed varētu būt gatavs nākotnes līgumiem.

Šīs Lockheed vadītās pētniecības programmas ietver viņu pašu valdības sadarbību. "Mums ir patiesi priviliģēts, ka mums ir šīs ilgstošās attiecības, kurās mums ir patiešām labas diskusijas par "Ko valdība redz nākotnē?"," sacīja Renē Pasmena, Skunk Works integrēto sistēmu viceprezidente. Lockheed sadarbības ar valdību vēstures dēļ. 

Izmantojot visas šo esošo un ienākošo autonomo ieroču iespējas, saskaņā ar Riesen pētījumu, kas publicēts Journal of Military Ethics, to varētu uzskatīt par daļu no militārpersonu pienākuma pret karavīriem: “Pamatideja ir tāda, ka nācijai ir morāls pienākums pakļaut savus karavīrus nevajadzīgam letālam riskam," sacīja Rīsens. Riski, piemēram, nāve, kā arī, piemēram, PTSS, ko pētījumi liecina, ka karavīri var iegūt pat no dronu kontroles termināļa Nevadā.

Ja militārpersonas izvilktu dronu pilotus un uz zemes esošos spēkus tālāk no lēmumu pieņemšanas loka, kā tas notiktu ar autonomiem ieročiem, viņš teica: "tad mēs glābjam savus karavīrus ne tikai no letāla riska, bet arī no varbūt psiholoģiska un morāls risks."

Lai gan nav skaidrs, kā militārpersonas nākotnē domās par šādiem riskiem — un kādai lomai vajadzētu būt tās karavīriem — tādiem jaunizveidotiem uzņēmumiem kā Fortem, paredzot, ko valdības varētu pasūtīt nākotnē, var būt izšķiroša nozīme viņu ilgtermiņa panākumiem. Un uzņēmuma attīstības sākumā viņiem kļuva skaidrs, ka autonomas skrejlapas izmantošana bezpilota lidaparātu aizsardzībai bija interešu joma.

Robertsons bija studējis elektrotehniku un maģistra grāda ietvaros strādājis pie kompaktajām radaru sistēmām. Gadiem vēlāk viņš dzirdēja, ka viņa izstrādātā radara tehnoloģija izrādījās noderīga nelielam armijas dronam, un nodibināja uzņēmumu, pamatojoties uz šo priekšnoteikumu.

"Tautai ir morāls pienākums nepakļaut savus karavīrus nevajadzīgam letālam riskam."

Pēc tam, 2016. gadā, viņš līdzdibināja Fortem, lai, piemēram, Amazon, nodrošinātu paku piegādi bezpilota lidaparātiem. Taču drīz pēc uzņēmuma dibināšanas Robertsons domāja par citiem lietojumiem.

Viņa bezpilota lidaparātu algoritma maiņa no citu bezpilota lidaparātu vai lidmašīnu noteikšanas un izvairīšanās no citiem bezpilota lidaparātiem vai lidmašīnām, kas ir svarīgas paku piegādei, uz to atklāšanu un uzbrukumiem bija gandrīz tikpat vienkārša kā pluszīmes pārslēgšana uz mīnusa zīmi kaut kur kodā.

Fortem saņēma 1,5 miljonu ASV dolāru attīstības dotāciju no Gaisa spēkiem, un tā radaru sistēma drīz vien bija "izvairīšanās" režīmā.

Pretdronu sistēmas, piemēram, Fortem, atbilst tam, ko DOD meklē savā Replicator programmā, kas šobrīd ir būtiska autonomijas iniciatīva militārajā jomā. Un uzņēmums, kā vēlējās DOD, lielu daļu pētniecības un izstrādes veica pats, attīstot DroneHunter no bezpilota lidaparāta un tīkla, kas izgatavots no Home Depot detaļām, līdz pielāgotam transportlīdzeklim ar rūpnīcā ražotu tīklu. Pateicoties šai radaru sistēmai, tā lidojums, dzīšana un uztveršana ir autonoma un notiek gaisā virs Ukrainas.

DroneHunter tagad ir piedzīvojis vairākas paaudzes un tūkstošiem testu aiz savas ēkas, blakus ūdenim, piemēram, Jūtas ezeram, virs fermu laukiem un militārās iekārtās, cenšoties panākt, lai mākslīgā intelekta sistēma iemācītos darboties dažādos apstākļos un apgūtu būtisku. atšķirības — piemēram, kā atšķirt dronu no putna (vienam ir dzenskrūves, otram nav). "Mēs varam burtiski pārbaudīt savā pagalmā," sacīja Robertsons, Fortem CTO.

Fortem daudzajos testos programmatūra ir arī iemācījusies atšķirt draudus no nekaitīgām ierīcēm: "Vai tas ir drons?" bet arī "Vai drons pieder bērnam, kas fotografē, vai teroristam?"

Daļa no šīs apņēmības ir saistīta ar spēka eskalāciju. DroneHunter var brīdināt citus lidaparātus ar gaismām un sirēnām. Ja mērķis negriežas, bet tuvojas, DroneHunter ir noteicis, ka tas, visticamāk, ir nelietīgs. Vismaz tas ir tas, ko ierīces AI ir iemācījies no kataloģizētām tikšanās reizēm un ar tām saistītajiem uzvedības modeļiem.

Uzņēmums šobrīd izstrādā tehnoloģiju, kas ar munīciju var iznīcināt aizskarošu bezpilota lidaparātu, nevis vienkārši to sagūstīt, kā arī tehnoloģiju, kas varētu izvadīt barus, nevis atsevišķus. 

Daudzi amerikāņu jaunizveidotie uzņēmumi, piemēram, Fortem, cenšas galu galā pārdot savu tehnoloģiju ASV Aizsardzības departamentam, jo ASV ir vislabāk finansētā armija pasaulē — un līdz ar to arī pietiekami daudz naudas līgumu slēgšanai — un tāpēc, ka ir salīdzinoši vienkārši pārdot ieročus savai valstij. , vai sabiedrotajam. To produktu pārdošana citām valstīm prasa zināmu administratīvu darbu. Piemēram, Ukrainā izvietoto DroneHunters gadījumā Fortem tieši noslēdza vienošanos ar valsti. Tomēr tehnoloģiju eksportam bija jānotiek ar ASV Valsts departamenta starpniecību, kas ir atbildīgs par politikas ieviešanu attiecībā uz to, kuras tehnoloģijas kam var pārdot ārzemēs.

Uzņēmums arī tirgo DroneHunter komerciāli, piemēram, kravas kuģu operatoriem, kuri vēlas būt droši strīdīgos ūdeņos, vai stadionu īpašniekiem, kuri vēlas noteikt, vai drons, kas lido pie lielās spēles, pieder potenciālajam terorisma draudam, vai bērns, kurš vēlas fotografēt.

Tā kā Fortem tehnoloģija nav vērsta uz cilvēkiem un lēmumu pieņemšanas procesā uztur cilvēku, ētiskie jautājumi ne vienmēr attiecas uz dzīvību un nāvi.

Situācijā, kurā ir iesaistīti cilvēki, joprojām ir atklāts jautājums, vai autonomais ierocis var precīzi atšķirt civiliedzīvotājus no kaujinieka katru reizi. Tāpat kā tas, vai militārie vadītāji ieprogrammētu ieročus, lai tie darbotos konservatīvi, un vai šī programmēšana paliks neatkarīgi no tā, kura rokās ierocis iekrita.

Galu galā ieroču ražotāji ne vienmēr kontrolē to radīšanu, tiklīdz tas ir iznācis pasaulē — Manhetenas projekta zinātnieki, no kuriem daudzi bija iebildumi pret kodolieroču izmantošanu pēc atombumbas izstrādes, smagi uzzināja. veidā.

Lai ilustrētu šo punktu, Future of Life Institute — bezpeļņas organizācija, kuras mērķis ir samazināt jaudīgu tehnoloģiju radīto risku — izveidoja vīrusu video ar provokatīvu nosaukumu “Slaughterbots”.

Situācijā, kurā ir iesaistīti cilvēki, joprojām ir atklāts jautājums, vai autonomais ierocis katru reizi varētu precīzi atšķirt civiliedzīvotājus no kaujinieka.

"Slaughterbots" sākas ar korporatīvo runu TED Talk stilā, kad pie skaļruņa lidinās mazs dūcošs drons: "Šeit ir trīs grami formas sprāgstvielas," paziņo izpilddirektors. Pēc tam drons dodas uz uz skatuves esošo manekenu, ar sitienu ietriecoties tā pierē. "Ar šo mazo sprādzienu pietiek, lai iekļūtu galvaskausā," viņš saka, "un iznīcinātu saturu."

Pēc tam viņš parāda kadrus, kuros drons iet pēc vīriešiem autostāvvietā. "Tie visi bija sliktie puiši," viņš stāsta auditorijai.

Pēc tam video pārvēršas par izdomātiem ziņu materiāliem. Autonomie droni ir nonākuši nepareizās rokās; AI programmatūra ir nopludināta. Automatizētā bezpilota lidaparāta uzbrukumā iet bojā 11 senatori. Un tad bars dodas pēc koledžas bērniem, masveidā nogalinot studentus.

"Kas to varēja izdarīt?" ziņu raidītājs jautā intervētajam.

"Ikviens," intervējamā atbild.

Kā norāda Slaughterbots, tiklīdz pastāv autonoma letāla tehnoloģija (ko tā jau dara, pat ja vēl nav apstiprināta, ka tā tiek izmantota šādā veidā), labi regulēta valdība var nebūt vienīgā, kas to izmantos — it īpaši, ja tā ir komerciāla. pārdošanai pieejama tehnoloģija. Iespēja, ka tehnoloģija nonāks nepareizās rokās, satrauc Annu Hehiru, Future of Life institūta autonomo ieroču sistēmu programmas vadītāju.
"Kā cilvēks, kam trūkst pašcieņas, nav dīdzējs, bet nīcējs, tā arī tauta, kurai nav pašapziņas." K.Mīlenbahs
Atbilde
« Vecāks | Jaunāks »


Pārlēkt uz:


Users browsing this thread: 1 Guest(s)