AUTOR: TYLER DURDEN
Autor: Eric Peters, dyrektor ds. informatyki w firmie One River Asset Management
"Prezydent Biden wydaje rozporządzenie wykonawcze w sprawie bezpiecznej, pewnej i godnej zaufania sztucznej inteligencji" – głosiła strona główna Białego Domu dużą, pogrubioną czcionką [tutaj].
To raczej słaba nazwa dla tak ważnego zlecenia, prawdopodobnie wytworu komitetu lub jakiegoś konsultanta pierwszego roku McKinseya.
Poprosiłem więc GPT-4 o nową nazwę, być może biblijną, nawiązującą do motywu Ewy i zakazanego owocu z drzewa poznania, a może coś orwellowskiego, jak napędzana deficytem ekstrawagancja, którą nazwali Ustawą o Redukcji Inflacji. A GPT-4 zasugerował "Ustawę o bezpieczeństwie AGI".
"Wyobraźmy sobie przełom technologiczny, który da jego wynalazcy władzę nad ludzkością i może być wykorzystany zarówno do skrajnego zła, jak i dobra" Zapytałem GPT-4.
Deklaracja z Bletchley – zobowiązanie do międzynarodowej współpracy w dążeniu do uregulowania granicznej sztucznej inteligencji – została właśnie podpisana przez 28 krajów, w tym USA, Chiny, Japonię, UE, Wielką Brytanię, Indie, Brazylię, Kanadę, Australię, Zjednoczone Emiraty Arabskie i Arabię Saudyjską.
"Załóżmy, że wielu graczy inwestuje ogromne pieniądze, aby być pierwszymi, którzy dokonają przełomu" – kontynuowałem wpisywanie w interfejsie neuronowym GPT-4.
"Czy możliwe będzie skoordynowanie ich zachowań tak, aby przełom został wykorzystany w dobrym celu i rozprzestrzenił się na całą ludzkość w sposób sprawiedliwy dla wszystkich?" – spytałem.
"I jak to możliwe, skoro ryzyko przegranej w tej konkurencji jest potencjalnie egzystencjalne, podczas gdy nagrody są tak wielkie?"
Byłam po prostu ciekawa.
Sam Altman z OpenAI był obecny na konferencji w Bletchley w Wielkiej Brytanii, podobnie jak Elon Musk, Benioff z Salesforce, Manyika i Hassabis z Google oraz Haas z Arm.
Każdy z głównych rządów miał swoich wysokich rangą przedstawicieli. Oczywiście Putin nie mógł tego zrobić. Ani żadnych ajatollahów. A dzieciak z Korei Północnej nie może znieść długich podróży pociągiem.
"Osiągnięcie koordynacji między rywalizującymi graczami dla wspólnego dobra, zwłaszcza gdy stawka jest niewiarygodnie wysoka, jest rzeczywiście trudnym przedsięwzięciem. Jednak przy odpowiednim połączeniu dyplomacji, planowania strategicznego i zachęt może to być możliwe. Oto strategia radzenia sobie w takiej sytuacji" – odpowiedział GPT-4.
Dało mi to sensowny dziesięciopunktowy plan, który ludzkość wykorzystała do rozwiązania problemu rozprzestrzeniania broni jądrowej.
Zapytałem, czy są inne przykłady.
GPT-4 zwrócił uwagę na projekt ludzkiego genomu, zubożenie warstwy ozonowej, zmiany klimatyczne poprzez Porozumienie Paryskie i globalne zagrożenia zdrowia za pośrednictwem WHO, co moim zdaniem musiało być żartem.
A to sugeruje, że w całej historii ludzkości jest tylko jeden przykład, którym była nasza nieudana próba zapobieżenia nuklearnemu wyścigowi zbrojeń.
To z pewnością kierunek, w którym zmierza sprint AGI. A GPT-4 niechętnie się zgodził.
Przetlumaczono9 przez translator Google
zrodlo:https://www.zerohedge.com/
Brak komentarzy:
Prześlij komentarz