Dirbtinio intelekto ginklavimas



<div _ngcontent-c14 = "" internalhtml = "

Autonominių ginklų sistemų augimo realybė„CogWorld“ sustiprino „Depositphotos“

Įvadas

Technologinė plėtra tapo žiurkių lenktynėmis. Konkurse, vedančioje naujų technologijų lenktynes ​​ir futuristinį karo mūšį, dirbtinis intelektas (AI) sparčiai tampa pasaulinės galios žaidimo centru. Kaip matyti daugelyje tautų, autonominių ginklų sistemos (AWS) vystymasis sparčiai vyksta, ir šis dirbtinio intelekto ginkluotės padidėjimas, atrodo, tapo labai destabilizuojančiu vystymusi. Tai kelia sudėtingus saugumo iššūkius ne tik kiekvienos šalies sprendimų priėmėjams, bet ir žmonijos ateičiai.

Dabartinė realybė yra ta, kad dirbtinis intelektas veda mus į naują algoritminį karo mūšio lauką, neturintį sienų ar sienų, gali turėti ar neturėti žmonių, ir bus neįmanoma suprasti ir galbūt kontroliuoti žmogaus ekosistemą kibernetinėje erdvėje, geospazėje ir erdvėje. (CGS). Dėl šios priežasties pati mintis dėl dirbtinio intelekto ginklavimo, kai ginklų sistema, kuri, aktyvavus CGS, gali pasirinkti ir įtraukti žmones ir ne žmones taikomus tikslus be tolesnio žmogaus dizainerio ar operatoriaus įsikišimo, yra sukelia didelę baimę.

Bet kokios sumanios mašinos ar mašininio intelekto mintis turi galimybę atlikti bet kokią numatomą karo užduotį be žmogaus įsikišimo ir įsikišimo – naudojant tik įterptųjų jutiklių sąveiką, kompiuterių programavimą ir algoritmus žmogaus aplinkoje ir ekosistemoje. tapti realybe kuri negali būti ignoruojama.

Dirbtinio intelekto ginklavimas

Kadangi AI, mašinų mokymasis ir gilus mokymasis toliau vystosi ir pereina nuo koncepcijos prie komercializacijos, spartus skaičiavimo galios, atminties, didelių duomenų ir greitųjų ryšių pagreitis ne tik sukuria naujoves, investicijas ir taikymą, bet ir intensyvina paiešką AI lustams. Tai vykstančią sparčią pažangą ir plėtrą reiškia, kad dirbtinis intelektas yra kelyje į revoliuciją karo srityje ir kad tautos, be abejo, toliau plėtos automatizuotą ginklų sistemą, kurią leis AI.

Kai tautos individualiai ir kolektyviai paspartina savo pastangas įgyti konkurencinį pranašumą mokslo ir technologijų srityje, tolesnis AI ginklavimas yra neišvengiamas. Atitinkamai, reikia vizualizuoti, kaip atrodytų algoritminis rytojaus karas, nes savarankiškų ginklų sistemų kūrimas yra vienas dalykas, tačiau jų naudojimas algoritminiame kare su kitomis tautomis ir kitais žmonėmis yra kitas.

Kaip ataskaitos jau atsiranda sudėtingų algoritminių sistemų, palaikančių vis daugiau karo kovos aspektų visoje CGS sistemoje, tiesa yra ta, kad AI commoditization yra realybė. Kaip matyti kibernetinėje erdvėje, automatizuotas karas (cyberwarfare) jau prasidėjo – kur kiekvienas ir visi yra tikslai. Taigi, kas toliau, geo-karas ir kosmoso karas? Ir kas ir koks bus tikslas?

Sparti AI ginkluotės plėtra akivaizdi: navigacija ir nepilotuojamų laivų naudojimas, antenos, vietovės ir reljefo transporto priemonės, įvertinančios įkaitus, diegti „ugnies ir pamiršti“ raketų sistemas ir stacionarių sistemų naudojimas, kad automatizuotų viską nuo personalo sistemų ir įrangos priežiūros iki priežiūros dronai, robotai ir visi yra pavyzdžiai. Taigi, kai algoritmai remia vis daugiau ir daugiau karo aspektų, tai mums kelia svarbų klausimą: kokie AI naudojimo būdai šiandien ir rytoj karas turėtų būti leidžiami, apriboti ir visiškai uždrausti?

Nors manoma, kad autonominės ginklų sistemos suteikia galimybę sumažinti ginklų sistemos eksploatacines išlaidas, ypač veiksmingiau naudojant darbo jėgą, ir greičiausiai leis ginklų sistemoms pasiekti didesnį greitį, tikslumą, patvarumą, tikslumą, pasiekiamumą ir koordinavimą. CGS mūšio laukas, vis dar išlieka poreikis suprasti ir įvertinti technologinius, teisinius, ekonominius, visuomeninius ir saugumo klausimus.

Programuotojų ir programavimo vaidmuo

Šių sudėtingų saugumo iššūkių ir nežinomų jūrų, esančių mūsų kelyje, esmė – tai, kas išlieka esminė žmogaus rasės saugai ir saugumui, yra programuotojų vaidmuo ir programavimas kartu su puslaidininkių lustų vientisumu. Dėl šios priežasties programuotojai gali apibrėžti ir nustatyti AWS pobūdį (bent jau pradžioje), kol AI pradės pati programuoti.

Tačiau jei ir kada programuotojas, kuris tyčia ar netyčia užprogramuoja savarankišką ginklą, veikdamas pažeidžiant dabartinę ir būsimą tarptautinę humanitarinę teisę (IHL), kaip žmonės kontroliuos AI ginklus? Be to, kadangi AWS yra orientuota į programinę įrangą, kur turėtų būti atsakinga už klaidas ir manipuliavimą AWS sistemų projektavimu ir naudojimu? Tai atneša mums klausimą į širdį – kada ir jei nužudo savarankiška sistema, kas yra atsakinga už nužudymą, nepriklausomai nuo to, ar tai yra pagrįsta, ar ne?

Kibernetinio saugumo iššūkiai

Trumpai tariant, algoritmai jokiu būdu nėra saugūs, taip pat jie nėra atsparūs klaidoms, kenkėjiškoms programoms, šališkumui ir manipuliavimui. O kadangi mokymasis mašinomis naudoja mašinas kitų mašinų mokymui, kas atsitiks, jei yra kenkėjiškų programų arba manipuliuojama mokymo duomenimis? Nors saugumo rizika yra visur, prijungti įrenginiai padidina kibernetinio saugumo pažeidimų atokumą nuo nutolusių vietovių ir todėl, kad kodas yra nepermatomas, saugumas yra labai sudėtingas. Taigi, kai AI eina į karą su kitais AI (nepriklausomai nuo to, ar tai yra kibernetinis saugumas, geografinis saugumas, ar kosmoso saugumas), nuolatinės kibernetinio saugumo problemos sukels monumentalią pavojų žmonijos ateičiai ir žmogaus ekosistemai CGS.

Nors atrodo, kad čia yra savarankiškos ginklų sistemos, mums visiems individualiai ir kolektyviai reikia atsakyti į klausimą, ar dirbtinis intelektas vairuos ir nustatys mūsų žmonių išlikimo ir saugumo strategiją, ar mes?

Pripažindama šią kylančią realybę, rizikos grupė inicijavo labai reikalingą diskusiją apie autonomines ginklų sistemas su Markus Wagner, Wollongong universiteto leidyklos autoriu ir teisės profesoriumi Australijoje.

Atskleidimas: Rizikos grupė LLC yra mano įmonė

Rizikos grupė aptaria autonominę ginklų sistemą ir įstatymus su Markus Wagner, Wollongongo universiteto Teisės fakulteto ir teisės profesoriaus asocijuotu profesoriumi, įsikūrusiame Australijoje dėl „Risk Roundup“.

Kas toliau?

Kadangi tautos individualiai ir kartu paspartina savo pastangas įgyti konkurencinį pranašumą mokslo ir technologijų srityje, tolesnis AI ginklavimas yra neišvengiamas. Dėl šios priežasties AWS padėties nustatymas pakeistų pačią reikšmę žmogui, o ne neapibrėžtomis sąlygomis pakeistų pačius saugumo ir žmonijos ir taikos ateities pagrindus.

Svarbu suprasti ir įvertinti, ar negali būti užkirstas kelias savarankiškoms ginklų lenktynėms, kas gali suklysti. Atėjo laikas pripažinti, kad paprasčiausiai dėl to, kad technologija gali padėti sėkmingai plėtoti AWS, tai nereiškia, kad turėtume. Galbūt ne žmonijos interesas ginkluoti dirbtinį intelektą! Atėjo laikas pristabdyti.

">

Autonominių ginklų sistemų augimo realybė„CogWorld“ sustiprino „Depositphotos“

Įvadas

Technologinė plėtra tapo žiurkių lenktynėmis. Konkurse, vedančioje naujų technologijų lenktynes ​​ir futuristinį karo mūšį, dirbtinis intelektas (AI) sparčiai tampa pasaulinės galios žaidimo centru. Kaip matyti daugelyje tautų, autonominių ginklų sistemos (AWS) vystymasis sparčiai vyksta, ir šis dirbtinio intelekto ginkluotės padidėjimas, atrodo, tapo labai destabilizuojančiu vystymusi. Tai kelia sudėtingus saugumo iššūkius ne tik kiekvienos šalies sprendimų priėmėjams, bet ir žmonijos ateičiai.

Dabartinė realybė yra ta, kad dirbtinis intelektas veda mus į naują algoritminį karo mūšio lauką, neturintį sienų ar sienų, gali turėti ar neturėti žmonių, ir bus neįmanoma suprasti ir galbūt kontroliuoti žmogaus ekosistemą kibernetinėje erdvėje, geospazėje ir erdvėje. (CGS). Dėl šios priežasties pati mintis dėl dirbtinio intelekto ginklavimo, kai ginklų sistema, kuri, aktyvavus CGS, gali pasirinkti ir įtraukti žmones ir ne žmones taikomus tikslus be tolesnio žmogaus dizainerio ar operatoriaus įsikišimo, yra sukelia didelę baimę.

Bet kokios sumanios mašinos ar mašininio intelekto mintis turi galimybę atlikti bet kokią numatomą karo užduotį be žmogaus įsikišimo ir įsikišimo – naudojant tik įterptųjų jutiklių sąveiką, kompiuterių programavimą ir algoritmus žmogaus aplinkoje ir ekosistemoje. tapti realybe kuri negali būti ignoruojama.

Dirbtinio intelekto ginklavimas

Kadangi AI, mašinų mokymasis ir gilus mokymasis toliau vystosi ir pereina nuo koncepcijos prie komercializacijos, spartus skaičiavimo galios, atminties, didelių duomenų ir greitųjų ryšių pagreitis ne tik sukuria naujoves, investicijas ir taikymą, bet ir intensyvina paiešką AI lustams. Tai vykstančią sparčią pažangą ir plėtrą reiškia, kad dirbtinis intelektas yra kelyje į revoliuciją karo srityje ir kad tautos, be abejo, toliau plėtos automatizuotą ginklų sistemą, kurią leis AI.

Kai tautos individualiai ir kolektyviai paspartina savo pastangas įgyti konkurencinį pranašumą mokslo ir technologijų srityje, tolesnis AI ginklavimas yra neišvengiamas. Atitinkamai, reikia vizualizuoti, kaip atrodytų algoritminis rytojaus karas, nes savarankiškų ginklų sistemų kūrimas yra vienas dalykas, tačiau jų naudojimas algoritminiame kare su kitomis tautomis ir kitais žmonėmis yra kitas.

Kaip ataskaitos jau atsiranda sudėtingų algoritminių sistemų, palaikančių vis daugiau karo kovos aspektų visoje CGS sistemoje, tiesa yra ta, kad AI commoditization yra realybė. Kaip matyti kibernetinėje erdvėje, automatizuotas karas (cyberwarfare) jau prasidėjo – kur kiekvienas ir visi yra tikslai. Taigi, kas toliau, geo-karas ir kosmoso karas? Ir kas ir koks bus tikslas?

Sparti AI ginkluotės plėtra akivaizdi: navigacija ir nepilotuojamų laivų naudojimasantžeminių transporto priemonių ir antžeminių transporto priemonių, t diegti „ugnies ir pamiršti“ raketų sistemas ir stacionarių sistemų naudojimas, kad automatizuotų viską nuo personalo sistemų ir įrangos priežiūros iki priežiūros dronai, robotai ir visi yra pavyzdžiai. Taigi, kai algoritmai remia vis daugiau ir daugiau karo aspektų, tai mums kelia svarbų klausimą: kokie AI naudojimo būdai šiandien ir rytoj karas turėtų būti leidžiami, apriboti ir visiškai uždrausti?

Nors manoma, kad autonominės ginklų sistemos suteikia galimybę sumažinti ginklų sistemos eksploatacines išlaidas, ypač veiksmingiau naudojant darbo jėgą, ir greičiausiai leis ginklų sistemoms pasiekti didesnį greitį, tikslumą, patvarumą, tikslumą, pasiekiamumą ir koordinavimą. CGS mūšio laukas, vis dar išlieka poreikis suprasti ir įvertinti technologinius, teisinius, ekonominius, visuomeninius ir saugumo klausimus.

Programuotojų ir programavimo vaidmuo

Šių sudėtingų saugumo iššūkių ir nežinomų jūrų, esančių mūsų kelyje, esmė – tai, kas išlieka esminė žmogaus rasės saugai ir saugumui, yra programuotojų vaidmuo ir programavimas kartu su puslaidininkių lustų vientisumu. Dėl šios priežasties programuotojai gali apibrėžti ir nustatyti AWS pobūdį (bent jau pradžioje), kol AI pradės pati programuoti.

Tačiau jei ir kada programuotojas, kuris tyčia ar netyčia užprogramuoja savarankišką ginklą, veikdamas pažeidžiant dabartinę ir būsimą tarptautinę humanitarinę teisę (IHL), kaip žmonės kontroliuos AI ginklus? Be to, kadangi AWS yra orientuota į programinę įrangą, kur turėtų būti atsakinga už klaidas ir manipuliavimą AWS sistemų projektavimu ir naudojimu? Tai atneša mums klausimą į širdį – kada ir jei nužudo savarankiška sistema, kas yra atsakinga už nužudymą, nepriklausomai nuo to, ar tai yra pagrįsta, ar ne?

Kibernetinio saugumo iššūkiai

Trumpai tariant, algoritmai jokiu būdu nėra saugūs – jie nėra imuniniai nuo klaidų, kenkėjiškų programų, šališkumo ir manipuliavimo. O kadangi mokymasis mašinomis naudoja mašinas kitų mašinų mokymui, kas atsitiks, jei yra kenkėjiškų programų arba manipuliuojama mokymo duomenimis? Nors saugumo rizika yra visur, prijungti įrenginiai padidina kibernetinio saugumo pažeidimų atokumą nuo nutolusių vietovių ir todėl, kad kodas yra nepermatomas, saugumas yra labai sudėtingas. Taigi, kai AI eina į karą su kitais AI (nepriklausomai nuo to, ar tai yra kibernetinis saugumas, geografinis saugumas, ar kosmoso saugumas), nuolatinės kibernetinio saugumo problemos sukels monumentalią pavojų žmonijos ateičiai ir žmogaus ekosistemai CGS.

Nors atrodo, kad čia yra savarankiškos ginklų sistemos, mums visiems individualiai ir kolektyviai reikia atsakyti į klausimą, ar dirbtinis intelektas vairuos ir nustatys mūsų žmonių išlikimo ir saugumo strategiją, ar mes?

Pripažindama šią kylančią realybę, rizikos grupė inicijavo labai reikalingą diskusiją apie autonomines ginklų sistemas su Markus Wagner, Wollongong universiteto leidyklos autoriu ir teisės profesoriumi Australijoje.

Atskleidimas: Rizikos grupė LLC yra mano įmonė

Rizikos grupė aptaria autonominę ginklų sistemą ir įstatymus su Markus Wagner, Wollongongo universiteto Teisės fakulteto ir teisės profesoriaus asocijuotu profesoriumi, įsikūrusiame Australijoje dėl „Risk Roundup“.

Kas toliau?

Kadangi tautos individualiai ir kartu paspartina savo pastangas įgyti konkurencinį pranašumą mokslo ir technologijų srityje, tolesnis AI ginklavimas yra neišvengiamas. Dėl šios priežasties AWS padėtis pakeistų pačią žmogiškąją reikšmę ir neabejotinai pakeis pačius saugumo pagrindus ir žmonijos bei taikos ateitį.

Svarbu suprasti ir įvertinti, ar negali būti užkirstas kelias savarankiškoms ginklų lenktynėms, kas gali suklysti. Atėjo laikas pripažinti, kad paprasčiausiai dėl to, kad technologija gali padėti sėkmingai plėtoti AWS, tai nereiškia, kad turėtume. Galbūt ne žmonijos interesas ginkluoti dirbtinį intelektą! Atėjo laikas pristabdyti.