sobota, 14 maja 2022

""Zostałeś oznaczony jako zagrożenie": predykcyjna technologia sztucznej inteligencji stawia cel na plecach"

 AUTOR: TYLER DURDEN

SOBOTA, MAJ 14, 2022 - 02:20 AM

Autor: John W. Whitehead & Nisha Whitehead via The Rutherford Institute,

"Rządowe rozwiązanie problemu jest zwykle tak samo złe jak problem i bardzo często pogarsza problem".

- Milton Friedman

Zostałeś oznaczony jako zagrożenie.

Wkrótce każde gospodarstwo domowe w Ameryce zostanie podobnie oznaczone i otrzyma ocenę zagrożenia.

Nigdy świadomie nie popełniliście przestępstwa ani nie zostaliście za nie skazani, ty i twoi współobywatele prawdopodobnie zostaliście ocenieni pod kątem zachowań, które rząd może uznać za przebiegłe, niebezpieczne lub niepokojąceprzypisano ocenę zagrożenia na podstawie Twoich skojarzeń, działań i punktów widzenia; i skatalogowane w rządowej bazie danych zgodnie z tym, jak powinna do ciebie podejść policja i inne agencje rządowe w oparciu o twój konkretny poziom zagrożenia.

Jeśli nie jesteś zdenerwowany konsekwencjami tego, jak taki program może być używany i nadużywany, czytaj dalej.

To tylko kwestia czasu, zanim zostaniesz niesłusznie oskarżony, zbadany i skonfrontowany przez policję w oparciu o algorytm oparty na danych lub ocenę ryzyka zebraną razem przez program komputerowy prowadzony przez sztuczną inteligencję.

Rozważmy przypadek Michaela Williamsa, który spędził prawie rok w więzieniu za przestępstwo, którego nie popełnił. Williams siedział za kierownicą, gdy przejeżdżający samochód strzelił do jego pojazdu, zabijając jego 25-letniego pasażera Safariana Herringa, który złapał stopa.

Pomimo faktu, że Williams nie miał motywu, nie było naocznych świadków strzelaniny, w samochodzie nie znaleziono broni, a sam Williams zawiózł Herringa do szpitala, policja oskarżyła 65-letniego mężczyznę o morderstwo pierwszego stopnia na podstawie ShotSpotter, programu wykrywania strzałów, który wychwycił głośny huk w sieci mikrofonów monitorujących i triangulował hałas, aby korespondować z bezgłośnym filmem ochronnym pokazującym przejeżdżający samochód Williamsa. skrzyżowanie. Sprawa została ostatecznie umorzona z powodu braku dowodów.

Chociaż program do wykrywania postrzałów, taki jak ShotSpotter, zyskuje na popularności wśród organów ścigania, prokuratorów i sądów, są one pełne wad, myląc "śmietniki, ciężarówki, motocykle, helikoptery, fajerwerki, budownictwo, zbieranie śmieci i dzwony kościelne ... za strzały".

Jak wykazało dochodzenie Associated Press, "system może przegapić ostrzał na żywo bezpośrednio pod mikrofonami lub błędnie sklasyfikować odgłosy fajerwerków lub samochodów wystrzeliwujących w tył jako strzały".

W jednej społeczności ShotSpotter pracował mniej niż 50% czasu.

Jest też ludzki element korupcji, który niezmiennie jest dodawany do miksu. W niektórych przypadkach "pracownicy zmienili dźwięki wykryte przez system, aby powiedzieć, że są to strzały". Raporty kryminalistyczne przygotowane przez pracowników ShotSpotter zostały również "wykorzystane w sądzie, aby niewłaściwie twierdzić, że oskarżony strzelał do policji lub podać wątpliwe liczby strzałów rzekomo oddanych przez oskarżonych".

Ta sama firma, która jest właścicielem ShotSpotter, posiada również predykcyjny program policyjny, który ma na celu wykorzystanie danych wykrywania postrzałów do "przewidywania" przestępczości, zanim do niej dojdzieZarówno prezydenci Biden, jak i Trump naciskali na szersze wykorzystanie tych programów predykcyjnych do zwalczania przemocy z użyciem broni w społecznościach, pomimo faktu, że stwierdzono, że nie stwierdzono, aby zmniejszyły one przemoc z użyciem broni lub zwiększyły bezpieczeństwo społeczności.

Uzasadnieniem tego połączenia powszechnej inwigilacji, technologii przewidywania zachowań, eksploracji danych, technologii prekognitywnej oraz programów sąsiedzkich i rodzinnych jest rzekomo umożliwienie rządowi podjęcia kroków zapobiegawczych w celu zwalczania przestępczości (lub czegokolwiek, co rząd zdecydował się zakazać w danym momencie).

Jest to precrime, prosto ze sfery dystopijnych filmów science fiction, takich jak Raport mniejszości, który ma na celu zapobieganie przestępstwom, zanim się pojawią, ale w rzeczywistości jest to tylko kolejny sposób na umieszczenie obywateli na celowniku rządu w celu zablokowania narodu.

Nawet służby socjalne wkraczają do akcji, a algorytmy komputerowe próbują przewidzieć, które gospodarstwa domowe mogą być winne wykorzystywania i zaniedbywania dzieci.

Wystarczy bot AI oznaczający gospodarstwo domowe za potencjalne zaniedbanie, aby rodzina została zbadana, uznana za winną, a dzieci umieszczone w pieczy zastępczej.

Pamiętaj, że potencjalne zaniedbanie może obejmować wszystko, od nieodpowiednich warunków mieszkaniowych po złą higienę, ale różni się od przemocy fizycznej lub seksualnej.

Według raportu śledczego Associated Press, gdy przypadki potencjalnego zaniedbania są zgłaszane na gorącą linię ochrony dzieci, raporty są przeprowadzane przez proces przesiewowy, który gromadzi "dane osobowe zebrane od urodzenia, Medicaid, nadużywanie substancji, zdrowie psychiczne, więzienie i zapisy probacyjne, wśród innych zestawów danych rządowych". Następnie algorytm oblicza potencjalne ryzyko dziecka i przypisuje wynik od 1 do 20, aby przewidzieć ryzyko, że dziecko zostanie umieszczone w pieczy zastępczej w ciągu dwóch lat po zbadaniu. "Im wyższa liczba, tym większe ryzyko. Pracownicy socjalni następnie wykorzystują swoją dyskrecję, aby zdecydować, czy przeprowadzić dochodzenie. "

Inne modele predykcyjne stosowane w całym kraju mają na celu "ocenę ryzyka śmierci i poważnych obrażeń dziecka, czy dzieci powinny być umieszczone w pieczy zastępczej, a jeśli tak, to gdzie".

Niewiarygodne jest to, że rodzina nie może dowiedzieć się, czy technologia predykcyjna AI była odpowiedzialna za to, że byli atakowani, badani i oddzieleni od swoich dzieci. Jak zauważa AP: "Rodziny i ich adwokaci nigdy nie mogą być pewni roli algorytmu w ich życiu, ponieważ nie wolno im znać wyników".

Wiemy jednak, że system nieproporcjonalnie celuje w biedne, czarne rodziny w celu interwencji, zakłóceń i ewentualnie przesiedleń, ponieważ wiele wykorzystywanych danych pochodzi ze społeczności o niższych dochodach i mniejszości.

Technologia jest również daleka od nieomylności. Tylko w jednym hrabstwie usterka techniczna przedstawiała pracownikom socjalnym niewłaściwe wyniki, zaniżając lub przeceniając ryzyko dziecka.

Jednak omylny lub nie, program badań predykcyjnych AI jest szeroko stosowany w całym kraju przez agencje rządowe do inwigilacji i kierowania rodzin do badań. Skutkiem tego nadzoru, według Ayshy Schomburg, zastępcy komisarza Amerykańskiego Biura ds. Dzieci, jest "masowa separacja rodzin".

Wpływ tego rodzaju narzędzi predykcyjnych AI jest odczuwalny w prawie każdej dziedzinie życia.

Pod pretekstem pomocy przytłoczonym agencjom rządowym w bardziej wydajnej pracy, technologie predykcyjne i inwigilacyjne AI są wykorzystywane do klasyfikowania, segregacji i oznaczania ludności z niewielką troską o prawa do prywatności lub sprawiedliwy proces.

Całe to sortowanie, przesiewanie i obliczanie odbywa się szybko, potajemnie i nieustannie za pomocą technologii sztucznej inteligencji i stanu nadzoru, który monitoruje każdy twój ruch.

Tam, gdzie staje się to szczególnie niebezpieczne, rząd podejmuje kroki zapobiegawcze w celu zwalczania przestępczości lub nadużyć, lub czegokolwiek, co rząd zdecydował się zakazać w danym momencie.

W ten sposób agenci rządowi – z pomocą zautomatyzowanych oczu i uszu, rosnącego arsenału zaawansowanego technologicznie oprogramowania, sprzętu i technik, rządowej propagandy nakłaniającej Amerykanów do przekształcenia się w szpiegów i donosicieli, a także mediów społecznościowych i oprogramowania do wykrywania zachowań – kręcą lepką pajęczą sieć ocen zagrożeń, ostrzeżeń o wykrywaniu zachowań, oznaczonych "słów" i "podejrzanych" raportów o aktywności mających na celu usidlenie potencjalnych wrogów państwa.

Czy jesteś weteranem wojskowym cierpiącym na zespół stresu pourazowego? Czy wyrażałeś kontrowersyjne, przygnębiające lub gniewne poglądy w mediach społecznościowych? Czy kojarzysz się z osobami, które mają rejestry karne lub podpisują się pod teoriami spiskowymi? Czy widziałeś, jak patrzysz zły na sklep spożywczy? Czy twój wygląd jest zaniedbany publicznie? Czy twoja jazda była nieregularna? Czy poprzedni mieszkańcy twojego domu mieli jakieś starcia z policją?

Wszystkie te szczegóły i nie tylko są wykorzystywane przez technologię AI do stworzenia profilu, który wpłynie na twoje kontakty z rządem.

To amerykańskie państwo policyjne zwinięte w jeden opresyjny pakiet przed zbrodnią i z góry przemyślaną zbrodnię, a końcowym rezultatem jest śmierć sprawiedliwego procesu.

Krótko mówiąc, sprawiedliwy proces miał być bastionem przeciwko nadużyciom rządowym. Sprawiedliwy proces zabrania rządowi pozbawiania kogokolwiek "życia, wolności i własności" bez uprzedniego upewnienia się, że prawa jednostki zostały uznane i uszanowane oraz że dano jej możliwość poznania zarzutów przeciwko nim i obrony przed tymi zarzutami.

Wraz z pojawieniem się finansowanych przez rząd programów predykcyjnych AI, które inwigilują i oznaczają kogoś jako potencjalne zagrożenie, które należy zbadać i traktować jako niebezpieczne, nie można zagwarantować sprawiedliwego procesu: już zostałeś zamieniony w podejrzanego.

Aby uwolnić się od skutków takiej oceny zagrożenia, ciężar dowodu spoczywa na tobie, aby udowodnić swoją niewinność.

Widzisz problem?

Kiedyś każda osoba miała prawo do bycia uważaną za niewinną, dopóki nie udowodniono jej winy, a ciężar dowodu spoczywał na oskarżycielach. To założenie niewinności zostało od tego czasu postawione na głowie przez państwo nadzoru, które czyni nas wszystkich podejrzanymi i nadmierną kryminalizacją, która czyni nas wszystkich potencjalnie winnymi takiego czy innego wykroczenia.

Połącz predykcyjną technologię sztucznej inteligencji z inwigilacją i nadmierną kryminalizacją, a następnie dodaj zmilitaryzowaną policję rozbijającą się przez drzwi w środku nocy, aby spełnić rutynowy nakaz, a będziesz miał szczęście, że uciekniesz z życiem.

Bądź jednak ostrzeżony: gdy zostaniesz złapany przez kamerę monitorującą, oznaczony przez program predykcyjnych badań przesiewowych AI i umieszczony na rządowej liście obserwacyjnej - niezależnie od tego, czy jest to lista obserwacyjna za zaniedbywanie dzieci, lista obserwacyjna zdrowia psychicznego, lista obserwacyjna dysydentów, lista obserwacyjna terrorystów czy lista obserwacyjna broni czerwonej flagi - nie ma jasnego sposobu, aby wysiąść, czy rzeczywiście powinieneś tam być.

Będziesz śledzony, gdziekolwiek się udasz, oznaczony jako potencjalne zagrożenie i odpowiednio potraktowany.

Jeśli jeszcze się nie boisz, powinieneś być.

Zbyt łatwo ułatwiliśmy rządowi identyfikowanie, etykietowanie, celowanie, rozbrajanie i zatrzymywanie każdego, kogo postrzega jako potencjalne zagrożenie z różnych powodów, które obejmują całą gamę od chorób psychicznych przez posiadanie wojskowego pochodzenia, kwestionowanie jego autorytetu, po samo bycie na rządowej liście persona non grata.

Jak wyjaśniam w mojej książce Battlefield America: The War on the American People i w jej fikcyjnym odpowiedniku The Erik Blair Diariesnie musisz nawet być dysydentem, aby zostać oflagowanym przez rząd za inwigilację, cenzurę i zatrzymanie.

Wszystko, czym naprawdę musisz być, to obywatel amerykańskiego państwa policyjnego.


Przetlumaczono przz translator Google

zrodlo:https://www.zerohedge.com/

Brak komentarzy:

"Premier państwa UE oskarża Zełenskiego o próbę przekupstwa Premier Słowacji Robert Fico powiedział, że „nigdy” nie przyjmie pieniędzy z Kijowa"

  Ukraiński przywódca Władimir Zełenski rozmawia z mediami pod koniec szczytu UE w Brukseli. © Getty Images / Thierry Monasse Słowacki pre...