Miał być najlepszy, jest bezużyteczny, a do tego kłamie. Problemy Google Bard
ChatGPT jest prawdziwą rewolucją w Internecie i przyciągnął do siebie miliony użytkowników. Google, jako dotychczasowy lider w dziedzinie wyszukiwania informacji, szybko przygotowało swoją odpowiedź. Poinformowało opinię publiczną, że od dawna pracowało już nad swoją sztuczną inteligencją. Premiera Google Bard miała zwiastować koniec „ery ChatGPT”, rzeczywistość jest jednak zgoła inna. Zdaniem pracowników Google, ich chatbot jest po prostu… bezużyteczny.
Google Bard – kłamliwy chatbot?
Do opinii publicznej przedostały się wiadomości wewnętrzne, które wysyłali sobie pracownicy Google. Mieli oni prosić, a wręcz błagać swoją firmę, by nie udostępniała chatbota. Google Bard jest ich zdaniem nie tylko kłamliwy, przekazując użytkownikom zmyślone informacje. Pracownicy amerykańskiej firmy określili najnowsze narzędzie jako „bezużyteczne”.
Informacje i opinie na temat Google Bard opublikował w swoim raporcie Bloomberg. Pochodzą z rozmów z 18 byłymi, ale też obecnymi pracownikami.
Jeden z pracowników Google przyznał, że chatbot Bard potrafi udzielać użytkownikom niebezpiecznych porad.
Miały dotyczyć pilotowania samolotu, czy instrukcji z zakresu nurkowania. Kolejny rozmówca donosi, że Google nie zastosowało się do oceny ryzyka pochodzącej z wewnętrznego działu bezpieczeństwa. Mimo ostrzeżenia o tym, że Bard nie jest na tyle dopracowany, by go udostępnić szerokiemu gronu użytkowników, firma zrobiła to.
Wczesny dostęp do Google Bard otrzymali początkowo mieszkańcy Stanów Zjednoczonych i Wielkiej Brytanii. Stało się to w marcu tego roku.
Google postąpiło nieetycznie, by móc konkurować z Microsoftem i OpenAI?
Wygląda na to, że Google za wszelką cenę chciało dołączyć do wyścigu mającego na celu stworzenie funkcjonalnego chatbota. Z raportu Bloomberga wynika jednak, że posunęli się do nieetycznego działania. Wprowadzenie niedopracowanego narzędzia ze sztuczną inteligencją może być bowiem dla niektórych użytkowników pewnym zagrożeniem.
To nie pierwszy raz, kiedy Google na pierwszym miejscu stawia biznes.
Już na przełomie 2020 i 2021 roku doszło do interesującego incydentu. Wtedy to Google zwolniło z pracy dwóch badaczy. Timnit Gebru i Margaret Mitchell stworzyli artykuł, który ujawniał problemy modeli językowych i sztucznej inteligencji Google. Dziś te same rozwiązania techniczne są wykorzystywane właśnie w chatbocie Google Bard.
Co innego wynika natomiast z wypowiedzi rzecznika Google. Brian Gabriel podkreślił w rozmowie z Bloombergiem, że Google na pierwszym miejscu stawia etykę sztucznej inteligencji.
Google Bard był kłamliwy od samego początku?
Problemy z przekazywaniem rzetelnych informacji przez Google Bard to żadna nowość. Już pierwszy pokaz możliwości tego narzędzia zakończył się nie lada „wtopą”. Wtedy chatbot podał nieprawdziwe informacje na temat teleskopu Webba. Internauci oczywiście szybko wychwycili tę informację.
Wiele dostępnych w sieci porównań jednoznacznie wskazuje na przewagę ChatGPT i rozwiązań Microsoftu nad Google Bard. Najwyraźniej Google zbyt szybko udostępniło swój, niedopracowany jeszcze, produkt.
Może zainteresują Cię także inne artykuły