Znany badacz sztucznej inteligencji (AI) ostrzega, że jeśli wszystkie zaawansowane systemy sztucznej inteligencji i związane z nimi programy nie zostaną natychmiast zamknięte, ludzkość ostatecznie wyginie z rąk niszczących życie robotów, które uwalniają.
Eliezer Yudkowsky, współzałożyciel Machine Intelligence Research Institute (MIRI), napisał w tym tygodniu artykuł dla magazynu TIME, wyjaśniając ryzyko związane z tworzeniem tych syntetycznych form życia. Napisał, że:
"Najbardziej prawdopodobnym rezultatem zbudowania nadludzko inteligentnej sztucznej inteligencji, w czymkolwiek podobnym do obecnych okoliczności, jest to, że dosłownie wszyscy na Ziemi umrą."
Jest to poważne ostrzeżenie, które inni teraz powtarzają, gdy dochodzą do surowego wniosku, że program nie zatrzyma się na "chatbotach" GPT-4 i innych pozornie nieszkodliwych programach AI. Prawda jest taka, że te systemy sztucznej inteligencji stają się opętane przez demony z antyludzkim programem, a zatem muszą zostać zatrzymane natychmiast, zanim będzie za późno.
(Powiązane: Elon Musk i inni miliarderzy podpisali petycję wzywającą do natychmiastowego wstrzymania wszystkich zmian w AI.)
Systemy sztucznej inteligencji mogą już być "wysyłane pocztą elektroniczną DNA", aby przekształcić się w "sztuczne formy życia", mówi Yudkowsky
Podobnie jak Musk, Yudkowsky chce, aby wszystkie laboratoria AI natychmiast zaprzestały, na co najmniej następne sześć miesięcy, wszystkich programów szkoleniowych AI, które są potężniejsze niż GPT-4. Skomentował również petycję, stwierdzając, że "prosi się o zbyt mało, aby rozwiązać" problemy związane z szybkim i niekontrolowanym rozwojem systemów sztucznej inteligencji.
Te systemy sztucznej inteligencji "nie dbają o nas ani o czujące życie w ogóle", argumentuje Yudkowsky, dodając, że aby przetrwać spotkanie z kimś, osoba potrzebowałaby "precyzji i przygotowania oraz nowych spostrzeżeń naukowych", które, ogólnie rzecz biorąc, brakuje ludzkości.
"Wystarczająco inteligentna sztuczna inteligencja nie pozostanie długo ograniczona do komputerów", dodał, wyjaśniając dalej, że już możliwe jest wysyłanie nici DNA do laboratorium, które może produkować białka dla sztucznej inteligencji "w celu zbudowania sztucznych form życia lub bootstrap prosto do postbiologicznej produkcji molekularnej".
To materiał z serii filmów Terminator, ale innymi słowy w prawdziwym życiu. I dzieje się to szybciej, niż wielu ludzi zdaje sobie z tego sprawę, ponieważ media rozpraszają wszystkich prawie każdym innym tematem pod słońcem.
"Nie może być żadnych wyjątków, w tym dla rządów lub wojska", mówi Yudkowsky o tym, że wszystkie systemy sztucznej inteligencji muszą zostać natychmiast zatrzymane.
"Jeśli wywiad mówi, że kraj spoza porozumienia buduje klaster GPU (procesor graficzny), mniej obawiaj się konfliktu między narodami niż naruszenia moratorium; Bądź gotów zniszczyć nieuczciwe centrum danych przez nalot".
Przekonanie każdego kraju na świecie do powstrzymania sztucznej inteligencji może okazać się jednak wyzwaniem. Czy w ogóle można coś takiego uregulować, zwłaszcza gdy odbywa się to prywatnie w najodleglejszych zakątkach świata poza kontrolą lub nawet wiedzą organów ścigania?
Yudkowsky postrzega sztuczną inteligencję jako takie zagrożenie, że uważa, że powinno być "wyraźnie powiedziane w międzynarodowej dyplomacji, że zapobieganie scenariuszom wymierania AI jest uważane za priorytet przed zapobieganiem pełnej wymianie nuklearnej".
W komentarzach ktoś żartował, że "najpierw byli kosmici, potem apokalipsa zombie, a teraz roboty terminatora", co sugeruje, że być może Yudkowsky i jemu podobni przesadzają z zagrożeniem AI.
"Prima aprilis" - zażartował inny.
"Jest dobrze poznanym i akceptowanym faktem, że produkty technologiczne i biologiczne zostały już opracowane i działały w kompleksie wojskowym przez wiele lat przed jakąkolwiek świadomością publiczną!" – sugerował inny. "Czy te bio sztuczne inteligencje są już wśród nas?"
Czy świat przejmą opętane przez demony roboty AI? Dowiedz się więcej na Robots.news.
Przetlumaczono przez translator Google
zrodlo:https://www.naturalnews.com/
Brak komentarzy:
Prześlij komentarz