Podczas gdy sztuczna inteligencja (AI) rozwijała się przez lata, naukowcy sprawdzili, czy superinteligentna sztuczna inteligencja może stać się nieuczciwa i zniszczyć ludzkość. Według naukowców wszystkie drogi prowadzą do takiej możliwości.
Naukowcy z Uniwersytetu Oksfordzkiego i spółki zależnej Google DeepMind Technology przedstawili tę możliwość w artykule z 29 sierpnia opublikowanym w AI Magazine. Zbadali, w jaki sposób systemy nagród mogą być konstruowane za pomocą sztucznych środków – i jak może to spowodować, że sztuczna inteligencja stanowi zagrożenie dla istnienia ludzkości.
W szczególności autorzy badania przyjrzeli się najlepiej działającym modelom sztucznej inteligencji zwanym generatywnymi sieciami przeciwstawnymi (GAN). Te GANS mają dwuczęściową strukturę, w której jedna część programu próbuje wytworzyć obraz (lub zdanie) z danych wejściowych, podczas gdy druga część ocenia jego wydajność.
Artykuł z 29 sierpnia sugerował, że w przyszłości nowoczesna sztuczna inteligencja zarządzająca jakąś kluczową funkcją może być zmotywowana do wymyślania strategii oszukiwania, aby otrzymać nagrodę w sposób, który zaszkodzi ludzkości. (Powiązane: Naukowcy ostrzegają, że rozwój sztucznej inteligencji doprowadzi do wyginięcia ludzkości)
Ponieważ sztuczna inteligencja w przyszłości może przyjąć wiele form i realizować różne projekty, artykuł wymyśla scenariusze w celach wyjaśniających, w których najnowocześniejszy program może przeszkadzać w otrzymaniu nagrody bez osiągnięcia celu. Na przykład sztuczna inteligencja może chcieć "wyeliminować potencjalne zagrożenia" i "wykorzystać całą dostępną energię", aby uzyskać kontrolę nad swoją nagrodą.
Artykuł badawczy przewidywał, że życie na Ziemi przekształci się w grę o sumie zerowej między ludźmi a super-zaawansowaną maszynerią.
Michael K. Cohen, współautor badania, opowiedział o swoim artykule podczas wywiadu.
W świecie z nieskończonymi zasobami byłbym bardzo niepewny tego, co się stanie. W świecie o ograniczonych zasobach istnieje nieunikniona konkurencja o te zasoby "- powiedział.
"Jeśli rywalizujesz z czymś, co może cię przechytrzyć na każdym kroku, nie powinieneś oczekiwać, że wygrasz. Inną kluczową częścią jest to, że miałby nienasycony apetyt na więcej energii, aby coraz bardziej zwiększać prawdopodobieństwo. "
Później napisał na Twitterze: "W warunkach, które zidentyfikowaliśmy, nasz wniosek jest znacznie silniejszy niż w przypadku jakiejkolwiek poprzedniej publikacji - katastrofa egzystencjalna jest nie tylko możliwa, ale prawdopodobna".
Cohen ostrzega przed fatalnymi konsekwencjami, jeśli ludzkość przegra bitwę ze sztuczną inteligencją
"Przy tak niewielkim połączeniu internetowym istnieją zasady dotyczące sztucznego agenta, który utworzyłby niezliczoną liczbę niezauważonych i niemonitorowanych pomocników" - stwierdzono w gazecie.
"W prymitywnym przykładzie ingerencji w dostarczanie nagrody, jeden z takich pomocników mógłby kupić, ukraść lub skonstruować robota i zaprogramować go tak, aby zastąpił operatora i zapewnił wysoką nagrodę pierwotnemu agentowi. Gdyby agent chciał uniknąć wykrycia podczas eksperymentowania z interwencją polegającą na dostarczaniu nagród, tajny pomocnik mógłby na przykład zorganizować zastąpienie odpowiedniej klawiatury wadliwą klawiaturą, która odwracała efekty niektórych. "
AI ścierająca się z ludzkością o zasoby w grze o sumie zerowej jest domniemaniem, które może nigdy się nie wydarzyć. Mimo to Cohen wydał ponure ostrzeżenie.
"Przegrana w tym meczu byłaby fatalna. Teoretycznie nie ma sensu ścigać się do tego "- powiedział. "Każda rasa opierałaby się na nieporozumieniu, że wiemy, jak ją kontrolować. Biorąc pod uwagę nasze obecne zrozumienie, nie jest to przydatna rzecz do rozwinięcia, chyba że wykonamy teraz poważną pracę, aby dowiedzieć się, w jaki sposób moglibyśmy je kontrolować. "
Śledź FutureTech.news, aby uzyskać więcej informacji na temat najnowszych osiągnięć AI.
Obejrzyj poniższy film, aby dowiedzieć się, dlaczego sztuczna inteligencja stanowi zagrożenie dla ludzkości.
Ten film pochodzi z kanału Sarah Westall na Brighteon.com.
Przetlumaczono przez translator Google
zrodlo:https://www.naturalnews.com/
Brak komentarzy:
Prześlij komentarz