3
20.05.2024, 17:30Lektura na 3 minuty

OpenAI rozwiązało swój zespół ds. długoterminowego ryzyka związanego z AI

Z przedsiębiorstwem pożegnało się także dwóch zasłużonych badaczy.


Jakub „Jaqp” Dmuchowski

Jak ustaliła redakcja Wired, zespół OpenAI ds. długoterminowego ryzyka związanego ze sztuczną inteligencją został rozwiązany, a jego członkowie zaabsorbowani przez pozostałe jednostki funkcjonujące w obrębie firmy. Z przedsiębiorstwem pożegnał się także Ilya Stukev – jego współzałożyciel, a przy okazji jedna z osób, która swego czasu przyczyniła się do zwolnienia Sama Altmana (który powrócił na łono OpenAI po zaledwie dwóch dniach nieobecności).


Silna sztuczna inteligencja

Jak już zostało wspomniane, zespół mający dbać o ograniczanie długoterminowego ryzyka wynikającego z rozwoju sztucznej inteligencji został rozwiązany. Co więcej, stojący na jego czele Ilya Stukev postanowił pożegnać się z przedsiębiorstwem, w którym spędził minioną dekadę.

Badacz przekazał, że miło wspomina czas spędzony w OpenAI, aczkolwiek postanowił skupić się na bardziej osobistym projekcie, którego szczegóły ma zamiar zdradzić w najbliższej przyszłości. Uwagę przyciąga jednak wzmianka na temat silnej sztucznej inteligencji. W napisanym przez Stukeva poście możemy przeczytać, że jest przekonany co do tego, że „OpenAI zbuduje AGI, która będzie zarówno bezpieczna, jak i korzystna”.

W tym miejscu warto nadmienić, że niektórzy z pracowników przedsiębiorstwa ostrzegali przed przełomem w badaniach nad AI chwilę przed wspomnianym zwolnieniem Sama Altmana. Wewnątrz OpenAI krążyły pogłoski na temat tajemniczego projektu znanego wówczas pod nazwą Q* (Q-Star), a całkiem pokaźna liczba osób wierzyła, że jest on związany właśnie z AGI, czyli silną sztuczną inteligencją.

Ilya Stukev nie jest przy tym jedynym wysoko postawionym pracownikiem OpenAI, który zdecydował się złożyć wypowiedzenie. Wraz z nim szeregi firmy postanowił opuścić Jan Leike. On również był odpowiedzialny za funkcjonowanie zespołu ds. długoterminowego ryzyka związanego z AI i mimo wielu ciepłych słów odnośnie do swojego byłego pracodawcy, Leike miał mu też co nieco do zarzucenia:

W wywodzie Leikego również nie zabrakło wzmianki na temat AGI oraz implikacji, jakie może ona nieść dla całej ludzkości:

Jak przekazał Jan, jego drogi z OpenAI rozeszły się w wyniku sprzeczności poglądów. Wedle badacza, zarząd przedsiębiorstwa inaczej spoglądał na poszczególne sprawy, w związku z czym Leike postanowił odejść z firmy.


Od dłuższego czasu nie zgadzałem się z kierownictwem OpenAI co do głównych priorytetów firmy, aż w końcu osiągnęliśmy punkt krytyczny. W ciągu ostatnich kilku miesięcy mój zespół żeglował pod wiatr. Czasami walczyliśmy o moc obliczeniową i coraz trudniej było przeprowadzić te kluczowe badania.


Jan Leike

Dynamiczny rozwój sztucznej inteligencji związany jest z wieloma zagrożeniami, a zespół, którego członkami byli Stukev i Leike, miał je analizować i szukać sposobów na ich zapobiegnięciu. Jak się jednak okazuje, działania te nie były priorytetem dla OpenAI, a firma zdecydowała się wyznaczyć dalsze opracowywanie coraz bardziej zaawansowanej technologii jako swój priorytetowy cel.


Czytaj dalej

Redaktor
Jakub „Jaqp” Dmuchowski

Swoją przygodę z grami komputerowymi rozpoczął od Herkulesa oraz Jazz Jackrabbit 2, tydzień później zagrywał się już w Diablo II i Morrowinda. Pasjonat tabelek ze statystykami oraz nieliniowych wątków fabularnych. Na co dzień zajmuje się projektowaniem stron internetowych. Nie wzgardzi dobrą lekturą ani kebabem.

Profil
Wpisów1041

Obserwujących2

Dyskusja

  • Dodaj komentarz
  • Najlepsze
  • Najnowsze
  • Najstarsze