Przesłane przez dr Binoy Kampmark
South Front
Duch Edwarda Tellera musiał krążyć między członkami Krajowej Komisji ds. Sztucznej Inteligencji. Ojca bomby wodorowej nigdy nie przeszkadzały etyczne drobiazgi, które pojawiły się wraz z wynalezieniem morderczej technologii. Na przykład „zadaniem naukowca nie było ustalenie, czy należy skonstruować bombę wodorową, czy powinna być użyta, czy też w jaki sposób”. Odpowiedzialność, jakkolwiek wykonywana, spoczywała na narodzie amerykańskim i jego wybranych urzędnikach.
Zastosowanie sztucznej inteligencji w systemach wojskowych nękało etyków, ale ekscytowało niektórych przywódców i wynalazców. Prezydent Rosji Władimir Putin wypowiadał się w twierdzeniu, że „nie byłoby możliwe zabezpieczenie przyszłości naszej cywilizacji” bez opanowania sztucznej inteligencji, genetyki, bezzałogowych systemów broni i broni hipersonicznej.
Rośnie liczba bojowników przeciwko użyciu autonomicznych systemów uzbrojenia w czasie wojny. Sekretarz generalny ONZ António Guterres jest jednym z nich. „Autonomiczne maszyny z mocą i swobodą wybierania celów i odbierania życia bez udziału człowieka”, napisał na Twitterze w marcu 2019 roku, „są politycznie nie do przyjęcia, moralnie odrażające i powinny być zabronione przez prawo międzynarodowe”. Międzynarodowy Komitet Kontroli Broni Robotów, kampania na rzecz powstrzymania zabójczych robotów i Human Rights Watch są również zaangażowane w zakazanie śmiercionośnych autonomicznych systemów broni. Analitycy broni, tacy jak Zachary Kallenborn, uważają tę absolutną pozycję za nie do utrzymania, preferując skromniejszy zakaz dotyczący „broni największego ryzyka: rojów dronów i autonomicznej broni chemicznej, biologicznej, radiologicznej i nuklearnej”.
Krytycy takich systemów uzbrojenia byli daleko w projekcie raportu Komisji dla Kongresu. Dokument zawiera więcej niż nutkę szalonego naukowca w krwawej służbie mistrza. Było to uzasadnione, biorąc pod uwagę, że jej przewodniczącym był Eric Schmidt, doradca techniczny Alphabet Inc., spółki macierzystej Google, której był wcześniej dyrektorem generalnym. Z Schmidtem trzymającym wodze, mielibyśmy gwarancję pokazu pozbawionego moralnej powściągliwości. „Obietnica sztucznej inteligencji - że maszyna może dostrzegać, decydować i działać szybciej w bardziej złożonym środowisku i dokładniej niż człowiek - stanowi przewagę konkurencyjną w każdej dziedzinie. Będzie wykorzystywany do celów wojskowych, przez rządy i grupy niepaństwowe ”.
W swoim zeznaniu przed Senacką Komisją Sił Zbrojnych 23 lutego Schmidt skupiał się na „podstawach” utrzymania pozycji USA na pozycji lidera. Wiązało się to z zachowaniem konkurencyjności narodowej i kształtowaniem sił zbrojnych z uwzględnieniem tych podstaw. Jednak aby to zrobić, trzeba było mieć szeroko otwarte oczy ochrony dla każdego niebezpiecznego konkurenta. (Schmidt rozumie Kongres na tyle dobrze, by wiedzieć, że skoki w finansowaniu i wydatkach są zwykle związane z promowaniem zagrożeń.) „Groźbę chińskiego przywództwa w kluczowych obszarach technologicznych” postrzega jako „kryzys narodowy”. Jeśli chodzi o sztuczną inteligencję, „tylko Stany Zjednoczone i Chiny” miały niezbędne „zasoby, siłę handlową, pulę talentów i ekosystem innowacji, aby przewodzić światu”. W ciągu następnej dekady Pekin może nawet „prześcignąć Stany Zjednoczone jako światowe supermocarstwo AI”.
Świadectwo jest hojnie wzbogacone tezą o zagrożeniu dla Chin. „Nigdy w życiu” - twierdził - „nie martwiłem się bardziej, że wkrótce zostaniemy zastąpieni przez rywala lub bardziej świadomi tego, co oznacza drugie miejsce dla naszej gospodarki, naszego bezpieczeństwa i przyszłości naszego narodu”. Obawiał się, że urzędnicy nie podzielają takich obaw, a Departament Obrony traktuje „oprogramowanie jako niski priorytet”. Tutaj mógłby udzielić rady na temat wniosków wyciągniętych z młodych przedsiębiorstw w Dolinie Krzemowej, gdzie pryncypialni żyją krótko. Osoby zaangażowane w obronę mogą „tworzyć inteligentne zespoły, dostarczać twardych wyników i działać szybko”. Twierdził, że pociski rakietowe powinny być budowane „tak, jak teraz budujemy samochody: używaj studia projektowego do opracowywania i symulacji w oprogramowaniu”.
To wszystko oznaczało koniecznie wychwalanie niebios mniej represyjnej formy sztucznej inteligencji, zwłaszcza w jej zastosowaniach militarnych. Podczas dwóch dni publicznej dyskusji wiceprzewodniczący panelu Robert Work wychwalał zalety sztucznej inteligencji w walce. „Jest moralnym imperatywem przynajmniej podążanie za tą hipotezą”, twierdząc, że „autonomiczna broń nie będzie bezkrytyczna, jeśli nie zaprojektujemy jej w ten sposób”. Diabeł jest w człowieku, jak zawsze.
W sposób przypominający debaty na temat dzielenia się technologią atomową w następstwie drugiej wojny światowej, Komitet nalega, aby Stany Zjednoczone „realizowały kompleksową strategię w ścisłej koordynacji z naszymi sojusznikami i partnerami w zakresie innowacji i wdrażania sztucznej inteligencji (AI), która promuje wartości krytyczne dla wolnych i otwartych społeczeństw ”. Proponowana koalicja wschodzących technologii składająca się z podobnie myślących mocarstw i partnerów skupiłaby się na roli „powstających technologii zgodnych z normami i wartościami demokratycznymi” oraz „koordynowaniu polityk mających na celu przeciwdziałanie złośliwemu wykorzystywaniu tych technologii przez autorytarne reżimy”. Szybko zapomina się o fakcie, że takie rozróżnienia, jak autorytaryzm i demokracja, mają niewielkie znaczenie na końcu broni.
Sugeruje się również wewnętrzne zmiany, aby potargać kilka piór. Na specjalną wzmiankę zasługuje Departament Stanu USA, który potrzebuje reform. „Obecnie w Departamencie Stanu nie ma wyraźnego tropu dla nowej polityki technologicznej lub dyplomacji, co ogranicza zdolność Departamentu do podejmowania strategicznych decyzji technologicznych”. Sojusznicy i partnerzy byli zdezorientowani, kiedy zwracali się do Departamentu Stanu, „który urzędnik wyższego szczebla byłby ich głównym punktem kontaktowym” w wielu kwestiach, takich jak sztuczna inteligencja, informatyka kwantowa, 5G, biotechnologia czy nowe pojawiające się technologie.
Ogólnie rzecz biorąc, rząd Stanów Zjednoczonych zostaje pobity, zarzucany za działanie „z prędkością człowieka, a nie maszyny”. Był opóźniony w stosunku do komercyjnego rozwoju sztucznej inteligencji. Cierpiał z powodu „technicznych deficytów, od niedoborów cyfrowej siły roboczej po nieodpowiednie polityki akwizycji, niewystarczającą architekturę sieci i słabe praktyki w zakresie danych”.
Zgodnie z oficjalną polityką Pentagonu w obecnym kształcie autonomiczne i półautonomiczne systemy uzbrojenia powinny być „zaprojektowane tak, aby umożliwić dowódcom i operatorom stosowanie odpowiedniego poziomu ludzkiej oceny użycia siły”. W październiku 2019 roku Departament Obrony przyjął różne zasady etyczne dotyczące wojskowego wykorzystania sztucznej inteligencji, stawiając Centrum Sztucznej Inteligencji DoD w centrum uwagi. Należą do nich postanowienie, że „personel DoD będzie zachowywał odpowiedni poziom oceny i ostrożności, pozostając jednocześnie odpowiedzialny za rozwój, wdrażanie i wykorzystywanie zdolności AI”. Zasada „identyfikowalności” jest również połączona z zasadą kontroli człowieka, w której personel musi „posiadać odpowiednią wiedzę na temat technologii, procesów rozwojowych i metod operacyjnych mających zastosowanie do możliwości sztucznej inteligencji”.
Komisja Narodowa deklaruje otwarcie takich protokołów, uznając, że operatorzy, organizacje i „naród amerykański” nie będą wspierać maszyn AI, które nie są „zaprojektowane z myślą o przewidywalności” i „jasnych zasadach”. Ale ostrzeżenie, by nie dać się zbyt moralnie spętać, staje się krzykiem. Ryzyko było „nieuniknione”, a niewykorzystywanie sztucznej inteligencji „do rozwiązywania rzeczywistych wyzwań związanych z bezpieczeństwem narodowym groziło postawieniem Stanów Zjednoczonych w niekorzystnej sytuacji”. Zwłaszcza jeśli chodzi o Chiny.
Dr Binoy Kampmark był stypendystą Wspólnoty Narodów w Selwyn College w Cambridge. Wykłada na Uniwersytecie RMIT w Melbourne.
___
https://southfront.org/war-mongering-for-artificial-intelligence/
Brak komentarzy:
Prześlij komentarz