Szef ONZ ds. praw człowieka wezwał do moratorium na korzystanie z niektórych technologii sztucznej inteligencji, takich jak masowe rozpoznawanie twarzy, dopóki nie pojawią się „odpowiednie zabezpieczenia” przed ich potencjalnie „katastrofalnym” wpływem.
W środowym oświadczeniu Wysoka Komisarz ONZ ds. Praw Człowieka Michelle Bachelet podkreśliła potrzebę całkowitego zakazu stosowania sztucznej inteligencji, które nie są zgodne z międzynarodowym prawem dotyczącym praw człowieka, jednocześnie wzywając do wstrzymania sprzedaży niektórych technologii.
Zauważając, że sztuczna inteligencja i algorytmy uczenia maszynowego docierają teraz „do prawie każdego zakątka naszego życia fizycznego i psychicznego, a nawet stanów emocjonalnych”, Bachelet powiedział, że technologia ma potencjał, by być „siłą dobra”, ale może również mieć „negatywne, nawet katastrofalne skutki, jeśli są używane bez dostatecznego uwzględnienia tego, jak wpływają na prawa człowieka”.
Systemy sztucznej inteligencji służą do określania, kto korzysta z usług publicznych, decydowania, kto ma szansę na zatrudnienie i oczywiście wpływają na to, jakie informacje ludzie widzą i mogą udostępniać online.
Ostrzeżenie Bachelet pojawiło się, gdy Biuro Praw Człowieka ONZ opublikowało raport, w którym przeanalizowano wpływ systemów sztucznej inteligencji – takich jak profilowanie, automatyczne podejmowanie decyzji i inne technologie uczenia maszynowego – na różne prawa podstawowe, w tym do prywatności, zdrowia, edukacji, wolności słowa i ruch.
Raport podkreśla szereg niepokojących wydarzeń, w tym „rozciągający się ekosystem w dużej mierze nieprzejrzystego gromadzenia i wymiany danych osobowych”, a także sposób, w jaki systemy sztucznej inteligencji wpłynęły na „podejście rządu do działań policyjnych”, „wymiar sprawiedliwości” i „dostępność”. usług publicznych”.
Raport dodaje, że podejmowanie decyzji w oparciu o sztuczną inteligencję może być „dyskryminujące”, jeśli opiera się na nieaktualnych lub nieistotnych danych, podkreślając również, że technologia może być wykorzystywana do dyktowania, co ludzie widzą i udostępniają w sieci.
W raporcie zauważono jednak, że najpilniejszą potrzebą jest „wytyczne w zakresie praw człowieka” w odniesieniu do technologii biometrycznych – które mierzą i rejestrują unikalne cechy ciała oraz są w stanie rozpoznać określone ludzkie twarze – ponieważ „stają się one coraz bardziej poszukiwanym rozwiązaniem”. dla rządów, organów międzynarodowych i firm technologicznych do różnych zadań.
W szczególności raport ostrzega przed coraz częstszym wykorzystywaniem narzędzi, które próbują „wydedukować stan emocjonalny i psychiczny ludzi” poprzez analizę wyrazu twarzy i innych „prognozujących danych biometrycznych”, aby zdecydować, czy dana osoba stanowi zagrożenie dla bezpieczeństwa. Technologie, które mają na celu zebranie „wglądu w wzorce ludzkich zachowań” i dokonanie na tej podstawie prognoz, również rodzą „poważne pytania”, powiedział organ ds. praw człowieka.
Zauważając, że taka technologia nie ma „solidnych podstaw naukowych” i jest podatna na stronniczość, raport ostrzegał, że stosowanie przez władze „systemów rozpoznawania emocji” – na przykład podczas zatrzymań policyjnych, aresztowań i przesłuchań – podważa prawa osób do prywatności, wolności i sprawiedliwego procesu.
„Ryzyko dyskryminacji związane z decyzjami opartymi na sztucznej inteligencji – decyzjami, które mogą zmienić, zdefiniować lub zaszkodzić ludzkiemu życiu – jest aż nadto realne” – powiedział Bachelet, dodając, że świat nie może „stać na dalsze nadrabianie zaległości” z szybko rozwijającym się Technologia AI.
Przetlumaczyla GR przez translator Google
zrodlo:https://www.rt.com/news/534968-un-ai-human-rights/
Brak komentarzy:
Prześlij komentarz