Ruch na rzecz przyznania osobowości nieludzkiej rozszerzył się z korporacji na sztuczną inteligencję, ale debata wokół tej drugiej jest bardziej złożona niż pierwsza, zgodnie z niedawno opublikowaną analizą.
Ekspert filozofii Eric Schwitzgebel i "nieludzki" badacz inteligencji Henry Shevlin napisali artykuł w Los Angeles Times, argumentując, że chociaż technologia sztucznej inteligencji nie jest wystarczająco zaawansowana, aby kwalifikować się do osobowości innej niż ludzka, możliwe jest, że systemy sztucznej inteligencji mogą pewnego dnia wykazywać świadomość. W takim scenariuszu autorzy twierdzą, że algorytmy mogą wymagać praw podobnych do tych, które przysługują ludziom, zgodnie z witryną Futurism.
Odnosząc się do zeszłorocznych wojen świadomości AI, naukowcy zauważyli, że "niektórzy czołowi teoretycy twierdzą, że mamy już podstawowe składniki technologiczne dla świadomych maszyn". Schwitzgebel i Shevlin twierdzą, że jeśli sztuczna inteligencja miałaby stać się świadoma, należałoby zacząć zastanawiać się, jak są traktowane, a raczej, jak mogłyby potencjalnie dyktować nasze działania, zauważyła strona, powołując się na artykuł.
"Same systemy sztucznej inteligencji mogą zacząć błagać lub wydawać się błagać o etyczne traktowanie" – oceniła para. "Mogą żądać, aby nie wyłączać, nie formatować ani nie usuwać; błagać, aby pozwolono im wykonywać pewne zadania, a nie inne; nalegać na prawa, wolność i nowe uprawnienia; Być może nawet spodziewamy się, że będziemy traktowani jak równi".
Ostrzegają, że etyczne implikacje przyznania nieludzkiej osobowości świadomym AI byłyby "ogromne" i miałyby wielką wagę. Implikacje stałyby się coraz bardziej znaczące, gdyby sztuczna inteligencja stała się świadoma raczej wcześniej niż później, dodali.
"Załóżmy, że reagujemy konserwatywnie, odmawiając zmiany prawa lub polityki, dopóki nie będzie powszechnego konsensusu, że systemy sztucznej inteligencji naprawdę są w znacznym stopniu świadome" – napisali. "Chociaż może się to wydawać odpowiednio ostrożne, gwarantuje również, że będziemy powoli uznawać prawa naszych dzieł sztucznej inteligencji".
"Jeśli świadomość AI pojawi się wcześniej, niż spodziewają się najbardziej konserwatywni teoretycy, prawdopodobnie doprowadzi to do moralnego ekwiwalentu niewolnictwa i morderstwa potencjalnie milionów lub miliardów czujących systemów sztucznej inteligencji – cierpiących na skalę zwykle kojarzoną z wojnami lub głodem" – zauważyli dalej.
Według autorów artykułu "bezpieczniejszą" opcją uniknięcia scenariusza zagłady jest przyznanie praw świadomym maszynom od samego początku. Takie podejście stwarza jednak również własny zestaw wyzwań.
"Wyobraźmy sobie, że nie moglibyśmy zaktualizować lub usunąć algorytmu plującego nienawiścią lub handlującego kłamstwami, ponieważ niektórzy ludzie martwią się, że algorytm jest świadomy" - stwierdzili eksperci. Albo wyobraź sobie, że ktoś pozwala człowiekowi umrzeć, aby uratować "przyjaciela" AI. Jeśli zbyt szybko przyznamy systemom sztucznej inteligencji znaczne prawa, koszty ludzkie mogą być ogromne.
Jedyną metodą, aby zapobiec obu tym wynikom, według duetu, jest unikanie obdarzania AI sumieniem od samego początku.
Na szczęście nadal mamy wiele możliwości, aby zapewnić, że taki kierunek działań zostanie podjęty, argumentowali.
"Żaden z naszych obecnych systemów sztucznej inteligencji nie jest w znaczący sposób świadomy" – zauważyli teoretycy. "Nie skrzywdzą ich, jeśli je usuniemy. Powinniśmy trzymać się tworzenia systemów, o których wiemy, że nie są znacząco świadome i nie zasługują na prawa, które możemy następnie traktować jako własność rozporządzalną, którą są.
Wydaje się, że nie wszyscy w społeczności uczenia maszynowego podzielają ostrożne podejście do unikania świadomości AI. Niektóre osoby są podekscytowane możliwością świadomej sztucznej inteligencji, algorytmicznej wrażliwości, a nawet sztucznej inteligencji ogólnej (AGI) i aktywnie pracują nad ich osiągnięciem – coś, co Demokraci bez wątpienia przyjmą, ponieważ wraz z "osobowością" pojawiają się również "prawa" wyborcze.
"Ostatecznie, dzięki odpowiedniej kombinacji wiedzy naukowej i inżynieryjnej, możemy być w stanie przejść całą drogę do stworzenia systemów sztucznej inteligencji, które są bezsprzecznie świadome" - podsumowali Shevlin i Schwitzgebel. "Ale wtedy powinniśmy być gotowi ponieść koszty: dać im prawa, na które zasługują".
Przetlumaczono przez translator Google
zrodlo:https://www.naturalnews.com/
Brak komentarzy:
Prześlij komentarz