niedziela, 13 czerwca 2021

"Sztuczna inteligencja może spowodować wizje z roku 1984 do 2024, mówi prezes Microsoftu!!!!!"

Przez TOTT News

Dytopijna wizja świata George'a Orwella w 1980 roku „może się spełnić w 2024 roku”, jeśli sztuczna inteligencja nie będzie lepiej uregulowana, ostrzegł prezes Microsoftu.

Nowy dokument rzuca światło na ciemną stronę sztucznej inteligencji we współczesnym świecie i wzywa władze do wprowadzenia surowszych przepisów regulujących sztuczną inteligencję.

Science fiction becomes reality? Photo: WLO

1984 DO 2024?

Według prezesa Microsoftu, Brada Smitha, sztuczna inteligencja może doprowadzić do orwellowskiej przyszłości, jeśli wkrótce nie zostaną wprowadzone przepisy chroniące społeczeństwo.

Smith skomentowałto the BBC news program Panorama  26 maja podczas odcinka skoncentrowanego na potencjalnych zagrożeniach sztucznej inteligencji i wyścigu między USA a Chinami w celu opracowania technologii.

„Ciągle przypominają mi się lekcje George'a Orwella z jego książki 1984” – powiedział Smith.

„Podstawowa historia dotyczyła rządu, który mógł widzieć wszystko, co wszyscy robili i słyszeć wszystko, co wszyscy mówili przez cały czas.


Cóż, to się nie wydarzyło w 1984 roku, ale jeśli nie będziemy ostrożni, może się to wydarzyć w 2024 roku.”


Program bada rosnące wykorzystanie sztucznej inteligencji w Chinach do monitorowania obywateli.


Krytycy obawiają się, że dominacja państwa na tym obszarze może zagrozić demokracji.


„Jeśli nie wprowadzimy w życie przepisów, które będą chronić społeczeństwo w przyszłości, przekonamy się, że technologia pędzi do przodu i będzie bardzo trudno nadrobić zaległości” – powiedział Smith.


Ostrzeżenie pojawia się około miesiąc po tym, jak Unia Europejska opublikowała projekty przepisów próbujących ustalić limity wykorzystania sztucznej inteligencji.


Niewiele jest podobnych wysiłków w Stanach Zjednoczonych czy Australii, gdzie ustawodawstwo w dużej mierze koncentruje się na ograniczaniu regulacji i promowaniu sztucznej inteligencji do „celów bezpieczeństwa narodowego”.


Czy Brad Smith mógł mieć rację co do przyszłego orwellowskiego świata?


A może ten świat może już tu być na wiele sposobów?


Przyjrzyjmy się, jak (prawdziwa) sztuczna inteligencja jest wykorzystywana jako narzędzie wielkiej transformacji.


WYJŚĆ POZA ORWELL

To, w jaki sposób wykorzystuje się sztuczną inteligencję, to nie tylko kwestia techniczna — to tak samo kwestia polityczna i moralna. A te wartości różnią się znacznie w zależności od kraju.


„Rozpoznawanie twarzy jest pod pewnymi względami niezwykle potężnym narzędziem do robienia dobrych rzeczy, ale jeśli chcesz obserwować wszystkich na ulicy, jeśli chcesz zobaczyć wszystkich, którzy pojawiają się na demonstracji, możesz wykorzystać sztuczną inteligencję do pracy” – powiedział Smith. BBC.


Dodał: „I widzimy to w niektórych częściach świata”.


Chiny już zaczęły wykorzystywać technologię sztucznej inteligencji zarówno w przyziemny, jak i alarmujący sposób. Na przykład rozpoznawanie twarzy jest używane w niektórych miastach zamiast biletów w autobusach i pociągach.


Ale oznacza to również, że rząd ma dostęp do obszernych danych na temat ruchów i interakcji obywateli, stwierdziła Panorama BBC.


Amerykańska grupa adwokacka IPVM, która koncentruje się na etyce nadzoru wideo, znalazła dokumenty sugerujące plany w Chinach dotyczące opracowania systemu o nazwie „Jedna osoba, jedna dokumentacja”, który gromadziłby działania, relacje i przekonania polityczne każdego mieszkańca w aktach rządowych .


„Nie sądzę, żeby Orwell kiedykolwiek wyobrażał sobie, że rząd byłby zdolny do tego rodzaju analiz” – powiedział BBC Conor Healy, dyrektor IPVM.


Może mieć rację.


Słynna powieść Orwella, Nineteen Eighty-Four, opisuje społeczeństwo, w którym rząd obserwuje obywateli na teleekranach, nawet w domu.


Ale Orwell nie wyobrażał sobie możliwości, jakie sztuczna inteligencja mogłaby dodać do inwigilacji — w jego powieści bohaterowie znajdują sposoby na uniknięcie nadzoru wideo, tylko po to, by zostać oddanym przez współobywateli.

W autonomicznym regionie Xinjiang, gdzie mniejszość ujgurska oskarżyła chiński rząd o tortury i ludobójstwo kulturowe, gdzie sztuczna inteligencja jest wykorzystywana do śledzenia ludzi, a nawet do oceny ich winy, gdy są aresztowani i przesłuchiwani, ustaliła BBC.


Jest to przykład technologii ułatwiającej powszechne łamanie praw człowieka: Rada Stosunków Międzynarodowych szacuje, że od 2017 r. milion Ujgurów zostało przymusowo przetrzymywanych w „obozach reedukacyjnych”, zazwyczaj bez żadnych zarzutów karnych ani możliwości ucieczki.


Stosowane narzędzia są już z natury orwellowskie — być może wykraczające poza orwellowskie.


Ponieważ wyrafinowana sieć algorytmów kontroluje tę dystopię, napędzając współczesnych faszystów.


NARZĘDZIE Z CIEMNĄ STRONĄ

Sztuczna inteligencja to źle zdefiniowany termin, ale ogólnie odnosi się do maszyn, które mogą uczyć się lub rozwiązywać problemy automatycznie, bez kierowania przez operatora.


Wiele programów AI opiera się dziś na uczeniu maszynowym, zestawie metod obliczeniowych wykorzystywanych do rozpoznawania wzorców w dużych ilościach danych, a następnie zastosowania tych lekcji do następnej rundy danych, teoretycznie z każdym przejściem coraz bardziej dokładnym.


Eksperci twierdzą, że jest to niezwykle skuteczne podejście, które zostało zastosowane we wszystkim, od teorii matematycznej po rozpoznawanie twarzy, i może być niebezpieczne w przypadku zastosowania do danych społecznościowych.


Dane na temat ludzi są preinstalowane z ludzkimi uprzedzeniami.


Błąd uczenia maszynowego ma miejsce, gdy algorytmy uczenia maszynowego generują wyniki, które są systematycznie faworyzowane na korzyść lub przeciwko jednostce, grupie lub cechom uważanym za niesprawiedliwe, takim jak rasa, wiek, płeć, niepełnosprawność lub pochodzenie etniczne.


Chińskie start-upy zbudowały już algorytmy, których rząd używa do śledzenia i tłumienia członków muzułmańskich grup mniejszościowych. Napędza to uczenie maszynowe.


Istnieją obawy, że w miarę jak chiński „system kredytu społecznego” powoli dociera do Australii, a wkrótce zostanie włączony do „nieakceptowalnych zachowań” powiązanych z wytycznymi COVID, ten rodzaj sztucznej inteligencji będzie napędzał tłumienie w nowym wieku, takie jak apartheid szczepionkowy, paszporty odpornościowe i inne.


Ambicją Chin jest osiągnięcie pozycji światowego lidera w dziedzinie sztucznej inteligencji do 2030 r., a wielu uważa, że ​​ich możliwości wykraczają daleko poza UE. Stronniczości nigdy nie można całkowicie uniknąć, ale można się nimi zająć.


Natomiast zainteresowanie rządu federalnego USA sztuczną inteligencją w dużej mierze koncentrowało się na zachęcaniu do rozwoju sztucznej inteligencji do celów bezpieczeństwa narodowego i celów wojskowych.


Pentagon wydaje obecnie ponad 1 miliard dolarów rocznie na kontrakty na sztuczną inteligencję, a zastosowania uczenia maszynowego dla wojska i bezpieczeństwa narodowego są nieuniknione, biorąc pod uwagę entuzjazm Chin w osiąganiu dominacji AI.


Zdarzały się już przypadki oprogramowania do rozpoznawania twarzy prowadzące do fałszywych aresztowań. W czerwcu 2020 roku czarnoskóry mężczyzna w Detroit został aresztowany i przetrzymywany przez 30 godzin w areszcie, ponieważ algorytm błędnie zidentyfikował go jako podejrzanego w sprawie kradzieży sklepowej.


Badanie przeprowadzone w 2019 r. przez National Institute of Standards and Technology wykazało, że oprogramowanie zwracało więcej fałszywych dopasowań dla osób czarnoskórych i Azjatów w porównaniu z osobami białymi, co oznacza, że ​​technologia prawdopodobnie pogłębi rozbieżności w działaniach policyjnych wobec osób kolorowych.


Współczesny wyścig zbrojeń, ujawniony, gdy świat cierpi z powodu niedoboru półprzewodników.


Uczenie maszynowe jest niezgodne z wolnym społeczeństwem i należy je powstrzymać za wszelką cenę.


Poza opozycją społeczną, zmniejszenie uprzedzeń musi stać się najwyższym priorytetem zarówno w środowisku akademickim, jak i branży sztucznej inteligencji. Czy ktoś w społeczności jest świadomy tego problemu i próbuje go rozwiązać?

ZEPCHNIĘCIE

Potencjalna regulacja UE dotycząca sztucznej inteligencji zabroniłaby systemów, które próbują ominąć wolną wolę użytkowników lub systemów, które umożliwiają rządowi wszelkiego rodzaju „ocenę społeczną”.


Może to być ogromnym kamieniem milowym dla krajów takich jak Australia, jeśli pomyślnie przejdzie

Aplikacje z potężną sztuczną inteligencją zostałyby sklasyfikowane jako „wysokie ryzyko” i muszą spełniać wymogi przejrzystości, bezpieczeństwa i nadzoru, aby mogły zostać wprowadzone na rynek.


Obejmuje to takie elementy, jak sztuczna inteligencja dla infrastruktury krytycznej, egzekwowanie prawa, kontrola granic i identyfikacja biometryczna, np. systemy identyfikacji twarzy lub głosu.


Inne systemy, takie jak chatboty do obsługi klienta lub gry wideo obsługujące sztuczną inteligencję, są uważane za „niskie ryzyko” i nie podlegają ścisłej kontroli.


To krok we właściwym kierunku.


Ponadto władza ludzi może potencjalnie utrudnić dążenie obcego kraju do rozwijania tych technologii, przy wystarczającej luzie, aby wpłynąć na dynamikę rynku.


W 2018 r. Google zabił swojego Project Maven, kontrakt z Pentagonem, który miałby automatycznie analizować nagrania wideo zrobione przez samoloty wojskowe i drony.


Firma argumentowała, że ​​celem było jedynie oznaczanie obiektów do oceny przez człowieka, ale krytycy obawiali się, że technologia może zostać wykorzystana do automatycznego namierzania ludzi i miejsc do ataków dronów.


Whistleblowers w Google ujawnili projekt, co ostatecznie doprowadziło do presji opinii publicznej na tyle silnej, że firma odwołała ten wysiłek.


W międzyczasie wysiłki na rzecz ograniczenia AI są prowadzone przez władze stanowe i lokalne w USA.


Największy hrabstwo stanu Waszyngton, King County, właśnie zakazał rządowi używania oprogramowania do rozpoznawania twarzy. To pierwsze hrabstwo w USA, które to zrobiło, chociaż miasto San Francisco wykonało ten sam ruch w 2019 roku, a następnie kilka innych miast.


Niestety, władze australijskie nie mają kręgosłupa, aby wprowadzić takie zabezpieczenia dla obywateli w domu, ale mimo to są to pozytywne historie.


Najlepsze, co możemy zrobić, to ich zrozumieć i chronić się, będąc jednocześnie moralnym liderem.


TOTT News dostarczył poradniki, jak uniemożliwić sztucznej inteligencji rozpoznawanie Twojej twarzy na zdjęciach i jak powstrzymać dostawcę usług internetowych przed śledzeniem Ciebie. Wiedza to potęga.


Jeśli nie wprowadzimy teraz zabezpieczeń, które będą chronić społeczeństwo w przyszłości, rzeczywiście znajdziemy się w świecie, w którym technologia pędzi do przodu.


Podziel się tym utworem ze znajomymi/rodziną i obejrzyj prezentację poniżej, aby zobaczyć zbliżający się transhumanistyczny program w pracy. 

Więcej o tekście źródłowymWskaż tekst źródłowy, by wyświetlić dodatkowe informacje o tłumaczeniu

Przetlumaczyla GR przez translator google
https://tottnews.com/2021/06/08/ai-could-cause-1984-by-2024/

Brak komentarzy:

"USA tuszujące ukraiński terroryzm – Moskwa Zachód nie chce powstrzymywać swoich ukraińskich „marionetek” od ataków na ludność cywilną, powiedział ambasador Anatolij Antonow"

  Brak reakcji Stanów Zjednoczonych na niedawny śmiertelny ostrzał rosyjskiego miasta Biełgorod pokazuje chęć wybielenia zbrodni Ukrainy na ...