W marcu bieżącego roku Google rozpoczęło publiczne testy chatbota Bard, mającego stanowić odpowiedź na zdobywający coraz większą popularność ChatGPT. Okazuje się jednak, że wielu pracowników tej firmy nie podchodzi do tego projektu zbyt entuzjastycznie.
Według informacji zdobytych przez Bloomberg na krótko przed rozpoczęciem publicznych testów Barda Google przeprowadziło wewnętrzne testy wśród pracowników. Okazuje się, że wiele spośród biorących w nich udział osób krytykowało ten projekt, twierdząc, że nie jest on jeszcze gotowy na publiczną prezentację. Pracownicy zwracali przede wszystkim uwagę na skłonność Barda do podawania nieprawdziwych informacji, która ich zdaniem mogła w niektórych przypadkach stanowić nawet zagrożenie dla zdrowia i życia użytkowników. Niektórzy przytaczali nawet konkretne przykłady, takie jak pytania o nurkowanie czy pilotowanie samolotów, na które Bard odpowiadał poradami, które doprowadziłyby do tragedii, gdyby ktoś rzeczywiście je zastosował.
Byli i obecni pracownicy Google, z którymi rozmawiali dziennikarze Bloomberga, zwrócili też uwagę na ciężką sytuację w jakiej znaleźli się zatrudniani przez tę firmę specjaliści ds. etyki sztucznej inteligencji. Próby przyśpieszenia rozwoju Barda i nadrobienia dystansu dzielącego go od ChatGPT sprawiły, że kierownictwo zaczęło kwestionować ich opinie i zniechęcać ich do działania, czasem wręcz wyraźnie dając do zrozumienia, by nie próbowali spowalniać prac nad rozwojem sztucznej inteligencji. Okazuje się też, że kierownictwo firmy zdecydowało się zignorować zastrzeżenia działu etyki dotyczące Barda, uznając, że jeśli zostanie on przedstawiony użytkownikom jako „eksperyment” będzie można przymknąć oko na jego niedociągnięcia.
Źródło: Bloomberg