środa, 31 maja 2023

"AI „wyginięcie” powinno być takim samym priorytetem co wojna nuklearna - eksperci Centrum bezpieczeństwa AI wydało oświadczenie podpisane przez 350 liderów branży, w tym dyrektorów generalnych Openai i Google Deepmind"

 Zapobieganie niekontrolowanym sztucznej inteligencji spowodowanie wyginięcia ludzkości powinno być najwyższym globalnym priorytetem, jak oświadczyło we wtorek Centrum Bezpieczeństwa AI w oświadczeniu podpisanym przez 350 wybitnych osób w AI i powiązanych dziedzinach. „Łagodzenie ryzyka wyginięcia z AI powinno być globalnym priorytetem wraz z innymi zagrożeniami na skalę społeczną, takimi jak pandemia i wojna nuklearna”, czytamy w oświadczeniu. 

AI ‘extinction’ should be same priority as nuclear war – experts

Wśród sygnatariuszy byli dyrektor generalny Google DeepMind, Demis Hassabis, dyrektor generalny Anthropic, Dario Amodei oraz dyrektor generalny Openai Sam Altman, który niedawno powiedział Kongresowi, że martwi się, że technologia może się „całkiem błędnie” i wezwała ich do nałożenia przepisów branży. Trzej liderzy branży spotkali się z prezydentem USA Joe Bidenem i wiceprezydentem Kamala Harris na początku tego miesiąca, aby omówić potencjalne przepisy. Wielu kadry kierowniczej z ich firm również dodało swoje nazwiska do wtorkowego oświadczenia.

Geoffrey Hinton i Yoshua Bengio, uznali „chrzestrzy AI” za ich pracę nad sieciami neuronowymi, zostali najpierw wymienione w dokumencie, choć Yann LeCun, który przeprowadził z nimi badania, a teraz prowadzi badania AI dla Meta, nie podpisali. Hinton opuścił swoją pozycję w Google na początku tego miesiąca, aby zabrzmieć alarm dotyczący ryzyka AI i powiedział, że czasami żałuje pracy swojego życia. List reprezentuje „wychodzenie” dla liderów branży, którzy wcześniej zachowali swoje obawy dotyczące przyszłości AI pod okładem, dyrektor wykonawczy bezpieczeństwa AI, Dan Hendrycks, powiedział we wtorek New York Times.

„Istnieje bardzo powszechne nieporozumienie, nawet w społeczności AIA, że istnieje tylko garstka zagłady” - wyjaśnił, wyjaśniając, że „wielu ludzi prywatnie wyrażałoby obawy dotyczące tych rzeczy”. Wiadomość przypomina kolejny list otwarty opublikowany w marcu przez Future of Life Institute, argumentując o sześciomiesięcznym moratorium na duże rozwój sztucznej inteligencji, aby uniknąć „wyścigu poza kontrolą, aby rozwijać i wdrażać coraz mocniejsze cyfrowe umysły . ” Przesłanie to zostało podpisane przez ponad 1000 wpływowych danych w dziedzinie technologii, w tym miliardera Elona Muska, który właśnie otrzymał zgodę rządu USA, aby kontynuować testy na ludziach na jego neuralku mózg-komputer-komputer, który ma dać ludziom przewagę wobec AI.

Jednak nie wszyscy osoby mające wpływ na sztuczną inteligencję boją się broni. Jensen Huang, dyrektor generalny Nvidii, powiedział niedawno publiczności na National Taiwan University, że ci, którzy nie wskoczą na sztuczną inteligencję, zobaczą kradzież pracy, zniszczenie firm i zjedzenie siebie – przynajmniej w przenośni – podczas gdy współzałożyciel Microsoftu, Bill Gates, duży inwestor AI twierdzi, że technologia przyniesie tylko „ogromne korzyści”.


Przetlumaczono przez translator Google

zrodlo:https://www.rt.com/news/577159-ai-experts-statement-nuclear-warning/

Brak komentarzy: