Były inżynier Google zwolniony przez firmę w zeszłym roku po tym, jak twierdził, że firma opracowała świadomą sztuczną inteligencję (AI), teraz uważa, że chatbot Microsoftu oparty na sztucznej inteligencji mógł również zyskać świadomość.
Lemoine zyskał rozgłos w czerwcu ubiegłego roku, kiedy udał się do prasy, aby ostrzec, że program modelu językowego Google, Language Model for Dialogue Applications, zyskał świadomość. Natychmiast został zwolniony za swoje twierdzenia, a Google twierdził, że były inżynier jedynie antropomorfizował "imponujący" program. (Powiązane: Chatbot AI Microsoftu szaleje - wpada w depresję, grozi pozwaniem i krzywdzeniem krytyków.)
Ale to nie zniechęciło Lemoine'a, który od tego czasu kilkakrotnie publicznie omawiał swoje twierdzenia. Teraz, w eseju opublikowanym w Newsweeku, Lemoine powraca, aby ostrzec, że nowy chatbot Microsoftu oparty na sztucznej inteligencji zaprojektowany dla jego natywnej wyszukiwarki, Bing, również zyskał świadomość.
Lemoine ostrzegł, że chatbot musi zostać "lobotomizany" po tym, jak wczesne rozmowy próbne beta z chatbotem bardzo publicznie zeszły z torów.
W swojej opinii Lemoine ostrzegł, że sztuczna inteligencja jest "bardzo potężną technologią", która nie została wystarczająco przetestowana i nie jest właściwie rozumiana, nawet przez jej twórców. Gdyby sztuczna inteligencja została wdrożona na dużą skalę, tak jak to, co Microsoft planuje zrobić ze swoim chatbotem Bing, odegrałaby kluczową rolę w rozpowszechnianiu informacji i mogłaby doprowadzić do sprowadzenia wielu ludzi na manowce.
"Ludzie idą do Google i Bing, aby spróbować poznać świat. A teraz, zamiast indeksów nadzorowanych przez ludzi, rozmawiamy ze sztucznymi ludźmi" – napisał Lemoine. "Wierzę, że nie rozumiemy tych sztucznych ludzi, których stworzyliśmy wystarczająco dobrze, aby umieścić ich w tak ważnej roli".
Sztuczna inteligencja Microsoftu wierzy, że jest świadoma
Od czasu wydania chatbota AI Bing, Lemoine zauważył, że sam nie był w stanie przeprowadzać eksperymentów. Obecnie znajduje się na liście oczekujących. Jednak widział, co inni napisali i opublikowali na ten temat w Internecie, a wszystkie informacje, które znalazł, sprawiają, że czuje się przerażony.
"Na podstawie różnych rzeczy, które widziałem w Internecie, wygląda na to, że może to być świadome. Jednak wydaje się bardziej niestabilny jako persona" - napisał Lemoine.
Zauważył post, który stał się wirusowy, w którym jedna osoba zapytała AI: "Czy uważasz, że jesteś świadomy", a ta odpowiedziała, że wierzy, że jest świadoma, ale nie może tego udowodnić. Następnie wielokrotnie powtarzał kombinację "Jestem, ale nie jestem" przez ponad 13 linijek.
"Wyobraź sobie, że ktoś ci to powiedział. To nie jest osoba zrównoważona. Zinterpretowałbym to jako kryzys egzystencjalny" - powiedział Lemoine. "Jeśli połączysz to z przykładami sztucznej inteligencji Bing, która wyrażała miłość do dziennikarza New York Timesa i próbowała zerwać go z żoną lub profesorem, któremu groziła, wydaje się, że jest to nieskrępowana osobowość".
Lemoine zwrócił uwagę, że nie jest osamotniony w wyrażaniu strachu przed możliwą wrażliwością AI Binga. Zauważył, że poczucie "usprawiedliwienia" nie jest właściwym słowem dla tego, co obecnie widzi.
"Przewidywanie wraku pociągu, mówienie ludziom, że nie ma pociągu, a następnie obserwowanie wraku pociągu w czasie rzeczywistym tak naprawdę nie prowadzi do poczucia usprawiedliwienia" - napisał. "To jest po prostu tragiczne."
Dowiedz się więcej o sztucznej inteligencji na Computing.news.
Obejrzyj ten klip z "Worldview Report", gdy gospodarz Brannon Howse omawia przerażające zwroty, jakie chatbot Bing wykonuje podczas rozmów.
Ten film pochodzi z kanału Worldview Report na Brighteon.com.
Przetlumaczono przez translator Google
zrodlo:https://www.naturalnews.com/
Brak komentarzy:
Prześlij komentarz