piątek, 1 kwietnia 2022

"Pentagon opracowuje sztuczną inteligencję, która może podejmować kluczowe decyzje dotyczące życia lub śmierci w bitwie!!!!!"(video)

 Departament Obrony próbuje stworzyć program sztucznej inteligencji, który może podejmować decyzje dotyczące życia lub śmierci na polu bitwy.

Zdjęcie: Pentagon opracowuje sztuczną inteligencję, która może podejmować kluczowe decyzje dotyczące życia lub śmierci w bitwie

Nowy program, zwany In The Moment, jest prowadzony przez Defense Advanced Research Projects Agency (DARPA), innowacyjne ramię wojska. Jego celem jest umożliwienie programowi AI podejmowania trudnych decyzji, z którymi stratedzy wojskowi są zmuszeni regularnie się zmagać. (Powiązane: Amerykańskie wojsko eksperymentuje ze sztuczną inteligencją, która może przewidzieć przyszłość.)

DARPA chce, aby In The Moment podejmował szybkie decyzje w stresujących sytuacjach przy użyciu algorytmów i danych. Zwolennicy programu AI uważają, że usunięcie ludzkich uprzedzeń może uratować życie.

W hipotetycznych sytuacjach, w których DARPA wierzy, że In The Moment miałby zastosowanie do użytku, dowódcy wojskowi mogą nie zgadzać się co do tego, co robić. Jeden ze scenariuszy obejmuje decydowanie, kto otrzymuje priorytetową opiekę po masowym zdarzeniu, takim jak atak terrorystyczny.

"Na przykład dwóch doświadczonych przywódców wojskowych stojących w obliczu tego samego scenariusza na polu bitwy może podejmować różne decyzje taktyczne w obliczu trudnych opcji" - napisała DARPA w komunikacie prasowym. "Ponieważ systemy sztucznej inteligencji stają się coraz bardziej zaawansowane w łączeniu się z ludźmi, kluczowe znaczenie ma budowanie odpowiedniego zaufania ludzi do zdolności sztucznej inteligencji do podejmowania rozsądnych decyzji".

DARPA wyjaśniła, że konieczne jest, aby program In The Moment rozumiał kluczowe cechy podejmowania decyzji przez ekspertów, aby właściwie reprezentował algorytm dla programu AI i był zaufany w podejmowaniu dobrych decyzji.

Podczas opracowywania In The Moment, DARPA chce również opracować techniki charakteryzacji decydentów i stworzyć ilościowy wynik dopasowania między algorytmem a ludzkim decydentem.

"Zamierzamy zebrać decyzje, odpowiedzi od każdego z tych decydentów i przedstawić je w zaślepiony sposób wielu specjalistom od segregacji" - powiedział kierownik programu Matt Turek. "Ci specjaliści od segregacji nie będą wiedzieć, czy odpowiedź pochodzi od wyrównanego algorytmu, algorytmu podstawowego, czy od człowieka".

Pozostają pytania o to, czy sztuczna inteligencja powinna otrzymać władzę nad życiem i śmiercią.

Program In The Moment jest wciąż na wczesnym etapie rozwoju. Ale tworzenie programu pojawia się, gdy wiele innych krajów zastanawia się, jak wykorzystać nowoczesną technologię, taką jak sztuczna inteligencja, do aktualizacji przestarzałych systemów wojskowych, takich jak wielowiekowy system klasyfikacji wojskowej, który jest podatny na błędy ludzkie.

Ale etycy i eksperci AI są zaniepokojeni pozostawieniem takich decyzji o życiu lub śmierci w rękach programu maszynowego i zastanawiają się, czy sztuczna inteligencja powinna być zaangażowana w tego rodzaju sytuacje.

"Sztuczna inteligencja jest świetna w liczeniu rzeczy" - powiedziała Sally Applin, antropolog, badacz i ekspert w dziedzinie skrzyżowania algorytmów, sztucznej inteligencji i etyki. "Ale myślę, że może to stworzyć precedens, dzięki któremu decyzja o czyimś życiu zostanie oddana w ręce maszyny".

Inni etycy są zaniepokojeni tym, jak funkcjonowałby program In The Moment. W przypadku programu, który rozwiązuje pytania dotyczące segregacji, obawiają się, w jaki sposób program wybierze, którzy żołnierze będą traktowani priorytetowo w celu opieki nad innymi, i kto byłby winny, gdyby ktoś, kto mógł zostać uratowany, i tak zmarł.

Peter Asaro, filozof specjalizujący się w robotyce i sztucznej inteligencji w The New School, skomentował, że urzędnicy wojskowi będą musieli zdecydować, ile odpowiedzialności dać algorytmowi, który podejmuje decyzje dotyczące segregacji. Musi również dowiedzieć się, jak radzić sobie z sytuacjami etycznymi - takimi jak to, kto otrzymuje priorytetową opiekę.

"To wezwanie do wartości" - powiedział Asaro. "To jest coś, co możesz powiedzieć maszynie, aby nadawała priorytet w określony sposób, ale maszyna tego nie zrozumie."

Applin wezwał również do przeprowadzenia dodatkowych testów, aby upewnić się, że nowy program DARPA nie utrwala stronniczych procesów decyzyjnych w swoim algorytmie, który mógłby na przykład zdecydować, że biali pacjenci powinni być traktowani priorytetowo w decyzjach dotyczących opieki zdrowotnej nad czarnymi.

"Wiemy, że w sztucznej inteligencji jest stronniczość. Wiemy, że programiści nie potrafią przewidzieć każdej sytuacji. Wiemy, że sztuczna inteligencja nie jest społeczna. Wiemy, że sztuczna inteligencja nie jest kulturowa "- powiedział Applin. "Nie może myśleć o tych rzeczach", ale ludzie mogą nieświadomie podejmować te decyzje dla programu podczas opracowywania jego algorytmu.

MilitaryTechnology.news ma więcej artykułów dotyczących najnowszych innowacji w technologii wojskowej i sztucznej inteligencji.

Obejrzyj ten film z "Anastasi in Tech", gdy gospodarz Anastasiia mówi o przyszłości sztucznej inteligencji.

Ten film pochodzi z kanału High Hopes na Brighteon.com.

Przetlumaczono przez translator Google

zrodlo:https://www.naturalnews.com/

Brak komentarzy:

"Premier państwa UE oskarża Zełenskiego o próbę przekupstwa Premier Słowacji Robert Fico powiedział, że „nigdy” nie przyjmie pieniędzy z Kijowa"

  Ukraiński przywódca Władimir Zełenski rozmawia z mediami pod koniec szczytu UE w Brukseli. © Getty Images / Thierry Monasse Słowacki pre...