SzukajSzukaj
dołącz do nas Facebook Google Linkedin Twitter

Byli pracownicy Google'a i OpenAI ujawnili prawdę. Bali się zemsty za sprzeciw wobec sztucznej inteligencji

Do amerykańskich mediów trafił list otwarty przygotowany przez byłych oraz obecnych pracowników OpenAI i Google DeepMind. Apelują do gigantów Big Techa, by pozwolili na sprzeciw względem rozwoju sztucznej inteligencji ze strony ich własnych podwładnych. Sami bali się zemsty.

List otwarty byłych pracowników Google'a i OpenAI (fot. VDB Photos/Shutterstock) List otwarty byłych pracowników Google'a i OpenAI (fot. VDB Photos/Shutterstock)

Niekiedy można odnieść wrażenie, że cały świat widzi zagrożenia związane z pozbawionym regulacji rozwojem sztucznej inteligencji, tylko nie przedstawiciele Big Techa. Sytuacje takie jak niedawna afera wokół OpenAI i nowego chatbota brzmiącego jak Scarlett Johansson pokazują, że liderzy gigantów technologicznych często kompletnie ignorują etyczne wątpliwości znacznej części społeczeństwa. Co jednak ze zwykłymi, szeregowymi pracownikami?

Jak się okazuje, tutaj sprawa robi się trochę bardziej skomplikowana. Wiele wskazuje bowiem na to, że podwładni pracujący dla firm pracujących nad AI często boją się zgłaszać do szefostwa obaw ze względu na możliwe reperkusje. A przynajmniej tak twierdzą sygnatariusze listu otwartego, o którym informuje portal Ars Technica.

Byli pracownicy OpenAi i Google'a zabrali głos ws. AI

List opublikowany pod hasłem “Prawo do ostrzegania przed zaawansowaną sztuczną inteligencją” został podpisany przez 13 byłych (ale też po części obecnych) pracowników Google DeepMind oraz OpenAI. Część z nich zdecydowała się wystąpić pod nazwiskiem, inni woleli zachować anonimowość z uwagi na możliwe reperkusje. Co tylko po części potwierdza, że wyrażana przez nich obawa jest całkowicie realna. List został ponadto wsparty przez trójkę brytyjskich i kanadyjskich naukowców: Yoshuę Bengio, Geoffreya Hintona i Stuarta Russella.

Czytaj też: Nagłe odejście z OpenAI. Tuż po ogłoszeniu nowego ChatGPT

Pracownicy Google DeepMind i OpenAI uważają, że firmy Big Tech muszą zezwolić zatrudnianych przez siebie ekspertom, by ci bez obaw o możliwą utratę pracy lub inne problemy mogli wyrażać swoje obiekcje czy niepokój związane z nieregulowanym rozwojem sztucznej inteligencji. Ich zdaniem AI ma potencjał i może przynieść wiele korzyści ludzkiej cywilizacji, ale niesie też ze sobą mnóstwo zagrożeń. Takich jak: “ryzyko dalszego zakorzenienia istniejących nierówności, rozsiewanie manipulacji i dezinformacji, a także utrata kontroli nad systemami autonomicznej sztucznej inteligencji, co może nawet doprowadzić do wymarcia ludzkości”.

Sygnatariusze listu podkreślają, że nawet firmy technologiczne dostrzegają ryzyko (nie wspominając o naukowcach i przedstawicielach rządów). Nie są jednak prawnie zobowiązani do ujawniania większości informacji dotyczących możliwości, limitacji i poziomu zagrożenia systemów AI.

- Dopóki nie będzie skutecznej rządowej kontroli tych korporacji, obecni i byli pracownicy należą do garstki osób mających możliwość pociągnięcia ich do odpowiedzialności przed opinią publiczną. Niestety, szerokie klauzule poufności blokują nas przed wyrażeniem niepokoju poza samą firmą, która nie musi nic z tym zrobić. Standardowe prawo chroniące informatorów nie wystarcza, ponieważ dotyczy nielegalnej działalności, a wiele z podnoszonych przez nas zagrożeń nie zostało do tej pory uregulowanych. Niektórzy z nas słusznie boją się różnych form zemsty, o czym świadczą różne przypadki z przeszłości branży - czytamy w liście otwartym.

Lista zadań dla firm zajmujących się sztuczną inteligencją

Osoby zatrudniane przez Google'a i OpenAI przygotowały szereg zasad, którymi powinien kierować się Big Tech w trakcie prac nad rozwojem sztucznej inteligencji. Dotyczą one przede wszystkim otwartości na krytykę i umożliwienia własnym podwładnym wyrażania swojego zdania bez względu na to, czy wciąż tam pracują czy nie.

Ma to znaczenie w kontekście sytuacji z maja bieżącego roku, gdy OpenAI pod naciskiem mediów i opinii publicznej ogłosiło, że nie będzie dłużej egzekwować zakazu naruszania dobrego imienia firmy, ani zawierać podobnych umów z odchodzącymi pracownikami. Podobne zasady obowiązywały w firmie od co najmniej 2019 roku i były związane z możliwością utraty przez nich nabytego kapitału własnego za choćby najlżejszą krytykę OpenAI. Gdyby nie ta zmiana zapewne nigdy doszłoby do publikacji omawianego listu i poniższych zasad:

  • firma nie może zawiązywać umów, które w jakikolwiek sposób zabraniałaby jej krytyki w związku z obawami dotyczącymi realnego ryzyka
  • firma wprowadzi anonimowy proces dla byłych i obecnych pracowników, by mogli zgłaszać swoje obawy zarządowi, regulatorom i niezależnym organizacjom
  • firma będzie wspierać kulturę otwartego krytycyzmu
  • firma nie będzie brać odwetu na byłych i obecnych pracownikach, którzy podniosą swoje obawy publicznie, jeśli wszystkie wcześniejsze metody zawiodą

Osoby pod nim podpisane podkreślają, że raportowanie możliwych zagrożeń nie powinno ujawniać firmowych tajemnic, jeśli nie jest to konieczne. Dlatego ich zdaniem wychodzenie z takimi inicjatywami poza spółką powinno być ostateczną koniecznością. Chcą jednak zachować swoje prawo do publicznego krytykowania Google'a czy innych korporacji tego typu, dopóki wymienione procesy nie zostaną zaimplementowane.

Hollywood żyje w strachu przed AI

Dyskusja wewnątrz środowiska Big Techa toczy się równolegle do coraz poważniejszych obaw wewnątrz środowiska artystycznego. Zeszłoroczny strajk hollywoodzkich scenarzystów i aktorów przyniósł pewne rozwiązania dotyczące wykorzystywania AI w branży, ale nie uspokoiło to największych krytyków sztucznej inteligencji. Tymczasem ta technologia bywa coraz częściej wykorzystywana w filmach, często bez wiedzy samych widzów. Wielu z nich myślało początkowo, że młoda aktorka wcielająca się w Furiosę jest niezwykle podobna do grającej jej starszą wersję Anyi Taylor-Joy, tymczasem efekt ten uzyskano właśnie za pomocą AI.

Ostatnio głośnym echem w środowisku odbiła się wypowiedź Ashtona Kutchera, który w rozmowie z byłym szefem Google'a zachwalał stworzone przez OpenAI generatywne narzędzie do tworzenia wideo o nazwie Sora (Google DeepMind ma swój odpowiednik znany jako Veo). Zdaniem aktora dziś można już tworzyć za jego pomocą bardzo realistyczne filmiki o długości od 10 do 15 sekund, a w niedalekiej przyszłości za pomocą sztucznej inteligencji wzmocnionej specjalnym procesorem Nvidia będzie można wygenerować cały film.

Wielkie wytwórnie filmowe patrzą na podobne możliwości z dużym zainteresowaniem, bo podobny proces będzie znacznie tańszy od tradycyjnego sposobu robienia filmów czy seriali. Już dziś w Hollywood testują zresztą technologie, które mogą na zawsze odmienić proces dubbingowania produkcji. Jak donosi w specjalnym raporcie Variety, podobnie może być też z rysunkami koncepcyjnymi, storyboardingiem i tworzeniem efektów specjalnych. Może się więc okazać, że obawy pracowników Google DeepMind i OpenAi spełnią się szybciej, niż komukolwiek się wydawało.

Dołącz do dyskusji: Byli pracownicy Google'a i OpenAI ujawnili prawdę. Bali się zemsty za sprzeciw wobec sztucznej inteligencji

10 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiek z postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl
User
One Love
AI, czyli nowa definicja inwigilacji obywateli przy okazji używania różnorakich urządzeń połączonych z internetem.
13 6
odpowiedź
User
R2D2
Konkludując, w perspektywie historycznej przeciwnicy postępu aktywizowali się przy okazji każdego przełomu technologicznego. To część reakcji społecznej na coś, co jest nieuniknione i co wprowadza zasadnicze zmiany w życiu ludzi. Ale te protesty niczego nie zmienią. Procesu rozwoju AI nie da się zatrzymać, ani nawet znacząco spowolnić.
6 9
odpowiedź
User
biednatapolska
Tak, super pomysł, blokujmy zachodnie firmy w rozwoju sztucznej inteligencji to za 20 lat wszystko będą kontrolować Chińczycy…
12 8
odpowiedź