Seria testów sztucznej inteligencji (AI) w Wielkiej Brytanii z udziałem tysięcy pasażerów pociągów, którzy zostali nieświadomie poddani oprogramowaniu wykrywającemu emocje, wzbudziła obawy dotyczące prywatności.
Technologia, opracowana przez Amazon i stosowana na różnych głównych stacjach kolejowych, w tym w londyńskim Euston i Waterloo, wykorzystywała sztuczną inteligencję do skanowania twarzy i oceny stanów emocjonalnych wraz z wiekiem i płcią. Dokumenty uzyskane przez grupę zajmującą się wolnościami obywatelskimi Big Brother Watch na podstawie wniosku o dostęp do informacji ujawniły te praktyki, które wkrótce mogą wpłynąć na strategie reklamowe.
W badaniach tych wykorzystano technologię CCTV i starsze kamery połączone z systemami opartymi na chmurze do monitorowania szeregu działań, w tym wykrywania wtargnięcia na tory kolejowe, zarządzania wielkością tłumu na peronach i identyfikowania zachowań antyspołecznych, takich jak krzyki lub palenie. W ramach testów monitorowano nawet potencjalne kradzieże rowerów i inne incydenty związane z bezpieczeństwem.
(Powiązane:Technologia nadzoru AI może dowiedzieć się, kim są Twoi znajomi.)
Dane pochodzące z tych systemów mogą być wykorzystane do zwiększenia przychodów z reklam poprzez pomiar satysfakcji pasażerów na podstawie ich stanów emocjonalnych, uchwyconych, gdy osoby przekraczają wirtualne przewody w pobliżu barier biletowych. Krytycy twierdzą, że technologia ta jest zawodna i wzywają do jej zakazania.
W ciągu ostatnich dwóch lat osiem stacji kolejowych w całej Wielkiej Brytanii przetestowało technologię nadzoru AI, a kamery CCTV mają ostrzegać personel o incydentach związanych z bezpieczeństwem i potencjalnie ograniczać niektóre rodzaje przestępczości.
W szeroko zakrojonych testach, nadzorowanych przez instytucję zajmującą się infrastrukturą kolejową, Network Rail, wykorzystano rozpoznawanie obiektów – rodzaj uczenia maszynowego, które może identyfikować elementy w kanałach wideo. W oddzielnych próbach wykorzystano czujniki bezprzewodowe do wykrywania śliskich podłóg, pełnych pojemników i odpływów, które mogą się przepełniać.
"Wprowadzenie i normalizacja nadzoru AI w tych przestrzeniach publicznych, bez wielu konsultacji i rozmów, jest dość niepokojącym krokiem" – powiedział Jake Hurfurt, szef badań i śledztw Big Brother Watch.
Używanie technologii do wykrywania emocji jest zawodne
Naukowcy zajmujący się sztuczną inteligencją często ostrzegali, że używanie tej technologii do wykrywania emocji jest "zawodne", a niektórzy twierdzą, że technologia ta powinna zostać zakazana ze względu na trudności w ustaleniu, jak ktoś może się czuć na podstawie dźwięku lub obrazu. W październiku 2022 r. brytyjski organ regulacyjny ds. danych, Biuro Komisarza ds. Informacji, wydał publiczne oświadczenie ostrzegające przed stosowaniem analizy emocji, mówiąc, że technologie te są "niedojrzałe" i "mogą jeszcze nie działać, a nawet nigdy".
Zwolennicy prywatności są szczególnie zaniepokojeni nieprzejrzystym charakterem i potencjalnym nadmiernym wykorzystaniem sztucznej inteligencji w przestrzeni publicznej. Hurfurt wyraził poważne zaniepokojenie normalizacją takiej inwazyjnej inwigilacji bez odpowiedniego publicznego dyskursu lub nadzoru.
"Network Rail nie miała prawa stosować zdyskredytowanej technologii rozpoznawania emocji przeciwko nieświadomym osobom dojeżdżającym do pracy na niektórych z największych brytyjskich stacji, a ja złożyłem skargę do Komisarza ds. Informacji w związku z tym procesem" – powiedział Hurfurt.
"Niepokojące jest to, że jako organ publiczny zdecydował się na przeprowadzenie zakrojonej na szeroką skalę próby nadzoru sztucznej inteligencji wyprodukowanego przez Amazon na kilku stacjach bez świadomości społecznej, zwłaszcza gdy Network Rail połączyła technologię bezpieczeństwa z pseudonaukowymi narzędziami i zasugerowała, że dane mogą być przekazywane reklamodawcom" – dodał.
"Technologia może odegrać rolę w zwiększaniu bezpieczeństwa kolei, ale potrzebna jest solidna debata publiczna na temat konieczności i proporcjonalności stosowanych narzędzi. Inwigilacja oparta na sztucznej inteligencji może zagrozić całej naszej prywatności, zwłaszcza jeśli zostanie niewłaściwie wykorzystana, a lekceważenie tych obaw przez Network Rail świadczy o pogardzie dla naszych praw".
Odwiedź stronę FutureTech.news, aby zapoznać się z podobnymi historiami.
Obejrzyj poniżej wypowiedź profesora Michaela Snydera z Uniwersytetu Stanforda, który wyjaśnia, w jaki sposób sztuczna inteligencja jest wykorzystywana do zbierania danych o ludziach.
Ten film pochodzi z kanału Nonvaxer420 na Brighteon.com.
Przetlumaczono przez translator Google
zrodlo:https://www.naturalnews.com/
Brak komentarzy:
Prześlij komentarz