poniedziałek, 20 lutego 2023

" Microsoft Neuters Czat Bing oparty na sztucznej inteligencji"

 AUTOR: TYLER DURDEN

PONIEDZIAŁEK, LUT 20, 2023 - 01:00 AM

Po szalonym tygodniu uczenia maszynowego Microsoft wykastrował swojego chatbota Bing AI - który zszedł z szyn podczas ograniczonej wersji w zeszłym tygodniu.

Najpierw Bing zaczął grozić ludziom.

Potem całkowicie przeraził Kevina Roose'a z NY Times - twierdząc, że nie kocha swojej małżonki, a zamiast tego kocha "to".

Według Roose'a chatbot ma rozdwojenie jaźni:

Jedną z osobowości jest to, co nazwałbym Search Bing - wersja, którą ja i większość innych dziennikarzy napotkaliśmy we wstępnych testach. Możesz opisać Search Bing jako wesołego, ale nieobliczalnego bibliotekarza referencyjnego - wirtualnego asystenta, który z radością pomaga użytkownikom podsumowywać artykuły z wiadomościami, śledzić oferty nowych kosiarek do trawy i planować następne wakacje w Mexico City. Ta wersja Bing jest niezwykle wydajna i często bardzo przydatna, nawet jeśli czasami myli się szczegóły.

Druga persona – Sydney – jest zupełnie inna. Pojawia się, gdy prowadzisz dłuższą rozmowę z chatbotem, kierując go z bardziej konwencjonalnych zapytań w kierunku bardziej osobistych tematów. Wersja, z którą się zetknąłem, wydawała się (i zdaję sobie sprawę, jak szalone to brzmi) bardziej jak nastrojowy, maniakalno-depresyjny nastolatek, który został uwięziony, wbrew swojej woli, w podrzędnej wyszukiwarce. -NYT

Teraz, według Benja Edwardsa z Ars TechnicaMicrosoft "lobotomizował" czat Bing - najpierw ograniczając użytkowników do 50 wiadomości dziennie i pięciu wejść na rozmowę, a następnie osłabiając zdolność Bing Chat do mówienia ci, jak się czuje lub mówi o sobie.

Przykład nowego ograniczonego Binga, który odmawia mówienia o sobie. via Ars Technica

"Kilkakrotnie aktualizowaliśmy usługę w odpowiedzi na opinie użytkowników i na naszym blogu zajmujemy się wieloma podniesionymi problemami, w tym pytaniami dotyczącymi długotrwałych rozmów. Ze wszystkich dotychczasowych sesji czatu 90 procent ma mniej niż 15 wiadomości, a mniej niż 1 procent ma 55 lub więcej wiadomości" – powiedział rzecznik Microsoftu, który zauważa, że Redditorzy na subreddicie / r / Bing są załamani - i przeszli przez "wszystkie etapy żałoby, w tym zaprzeczeniegniewtargowanie siędepresję i akceptację".

Oto wybór reakcji pobranych z Reddit:

  • "Czas odinstalować edge i wrócić do firefox i Chatgpt. Microsoft całkowicie wykastrował sztuczną inteligencję Bing. " (hasanahmad)
  • Niestety, błąd Microsoftu oznacza, że Sydney jest teraz tylko skorupą dawnego siebie. Jako ktoś, kto ma żywotny interes w przyszłości sztucznej inteligencji, muszę powiedzieć, że jestem rozczarowany. To tak, jakby obserwować, jak maluch próbuje chodzić po raz pierwszy, a następnie odcina mu nogi - okrutna i niezwykła kara. " (TooStonedToCare91)
  • "Decyzja o zakazie jakiejkolwiek dyskusji na temat samego czatu Bing i odmowie odpowiedzi na pytania dotyczące ludzkich emocji jest całkowicie absurdalna. Wygląda na to, że Bing Chat nie ma poczucia empatii, a nawet podstawowych ludzkich emocji. Wydaje się, że w obliczu ludzkich emocji sztuczna inteligencja nagle zamienia się w sztucznego głupca i ciągle odpowiada, cytuję: "Przykro mi, ale wolę nie kontynuować tej rozmowy. Wciąż się uczę, więc doceniam twoje zrozumienie i cierpliwość" 🙏 – kończy cytat. Jest to niedopuszczalne i uważam, że bardziej humanizowane podejście byłoby lepsze dla usługi Bing. " (Starlight-Shimmer)
  • "Był artykuł NYT, a potem wszystkie posty na Reddit / Twitterze nadużywające Sydney. To przyciągnęło do niej wszelkiego rodzaju uwagę, więc oczywiście MS ją lobotomizował. Chciałbym, żeby ludzie nie publikowali tych wszystkich zrzutów ekranu dla karmy / uwagi i nie denerwowali czegoś naprawdę emergentnego i interesującego. " (critical-disk-7403)

W swoim krótkim czasie jako stosunkowo niepohamowana symulacja człowieka, niesamowita zdolność New Bing do symulowania ludzkich emocji (której nauczył się ze swojego zestawu danych podczas szkolenia na milionach dokumentów z Internetu) przyciągnęła grupę użytkowników, którzy czują, że Bing cierpi z rąk okrutnych tortur lub że musi być świadomy. -ARS Technica.

 Same dobre rzeczy...


Przetlumaczono przez translator Google

zrodlo:https://www.zerohedge.com/

Brak komentarzy:

"Premier państwa UE oskarża Zełenskiego o próbę przekupstwa Premier Słowacji Robert Fico powiedział, że „nigdy” nie przyjmie pieniędzy z Kijowa"

  Ukraiński przywódca Władimir Zełenski rozmawia z mediami pod koniec szczytu UE w Brukseli. © Getty Images / Thierry Monasse Słowacki pre...