Ostatnio słychać więcej ostrzeżeń i obaw przed sztuczną inteligencją, aniżeli zachwytów. Problem z jej zrozumieniem i przewidzeniem dalszego rozwoju pogłębia fakt, że efekty badań nad AI trafiają na rynek z kilkuletnim opóźnieniem. Co kryje się w laboratoriach firm pracujących nad silną sztuczną inteligencją? I czy umożliwi ona ludzkości niewyobrażalny wręcz postęp?
Pod koniec ubiegłego roku świat obiegła informacja, że Sam Altman, wraz z grupą współpracowników, opuszcza szeregi OpenAI – start-upa odpowiedzialnego za stworzenie ChatGPT. Rozstanie trwało zaledwie kilka dni, ale w międzyczasie poznaliśmy prawdopodobne przyczyny tego zamieszania. Otóż oprócz algorytmu GPT i jego kolejnych iteracji, firma zaczęła rozwijać inną sztuczną inteligencję, nazwaną Q* (Q Star). To właśnie ona miała być przyczyną tarć wewnątrz organizacji. Co w niej takiego niezwykłego? Informatorzy donieśli, a agencje, jak np. Reuters, upubliczniły informację, że Q* potrafi samodzielnie dedukować, w jaki sposób rozwiązywać proste zadania matematyczne i logiczne. Co istotne, nie miała tej wiedzy w zestawie danych, na którym ją trenowano. To znaczy, że sama do niej doszła. Sytuacja ta zrodziła niepokój, że badacze są blisko stworzenia tzw. silnej sztucznej inteligencji (ang. AGI – artficial general intelligence). W opracowaniu algorytmu kluczową rolę odegrał Ilya Sutskever oraz dwaj polscy badacze – Jakub Pachocki i Szymon Sidor.
Po chwilowym szumie medialnym, sprawa ucichła. Dziś jednak powraca ze zdwojoną siłą, gdyż zdajemy sobie sprawę, czym dysponujemy, a co może stać się rzeczywistością już za kilka lat. Obecnie najpopularniejszym algorytmem jest GPT‑4. Jednak po piętach depczą mu Claude firmy Anthropic, który w testach na inteligencję wypada coraz lepiej, oraz Gemini, będący połączeniem potencjałów dużych modeli językowych oraz programów, które gromiły ludzkich mistrzów gry w go. Jego twórcą jest korporacja Alphabet – właściciel wyszukiwarki Google. Jednak w ciągu najbliższych miesięcy można spodziewać się GPT‑5, o którym już na początku zeszłego roku insider Siqi Chen, powołując się na swoje źródła, twierdził, że osiągnie on
poziom rozumowania równy ludzkiemu
To wszystko jest jednak w dalszym ciągu rozwijane z wykorzystaniem superkomputerów poprzedniej generacji. W tym roku natomiast pojawią się narzędzia, pozwalające radykalnie przyspieszyć udoskonalenie obecnie istniejącej sztucznej inteligencji i stworzenie zupełnie nowej, której potęgi dziś jeszcze nie potrafimy sobie wyobrazić.
W kwietniu b.r. na Western Sydney University został uruchomiony DeepSouth – pierwszy w dziejach komputer, zdolny w pełni symulować sieci neuronowe, złożonością przypominające ludzki mózg. kA to nie jedyne narzędzie, które w najbliższym czasie wzniesie opracowywanie algorytmów AI na poziom dotychczas nieosiągalny. Do istniejącego już superkomputera Frontier – zdolnego wykonywać ponad trylion operacji na sekundę, maszyny Aurora – która w tym roku ma osiągnąć szczyt zdolności obliczeniowych i przebić osiągi Frontiera, dołączą inne komputery, o jeszcze większych możliwościach: Jupiter, podobnej skali maszyna zarządzana przez konsorcjum Jules Verne, która jeszcze nie została nazwana; El Capitan; Israel‑1 oraz następne generacje sprzętu Condor Galaxy.
A to jeszcze nie koniec rewelacji. Na ten rok planowane są bowiem prace przy uruchomieniu opartego na architekturze uniwersalnego procesora Prodigy superkomputera firmy Tachyum. Swoją pełną moc ma on osiągnąć w roku 2025. Będzie w stanie pracować ze strukturami obliczeniowymi 100 razy bardziej złożonymi niż ludzki mózg i udźwignie rozwój modeli sztucznej inteligencji 25 000 razy większych od GPT‑4.