za
Q* od OpenAI.

Przerażająco inteligentny Q*, czyli prawdopodobny powód roszad w OpenAI

Zondacrypto gielda kryptowalut 2650

Ostatni tydzień w branży sztucznej inteligencji był jak kolejne odcinki opery mydlanej. Okazuje się jednak, że za fasadą roszad na stanowisku CEO, kryje się coś o wiele większego, niż kłótnie o sposób prowadzenia firmy. Reuters dotarł do dwóch pracowników OpenAI twierdzących, że firmie udało się stworzyć sztuczną inteligencję, która może zagrażać ludzkości. Mowa o projekcie Q* (Q-Star), przed którym dwóch pracowników ostrzegło zarząd w specjalnym oświadczeniu. Wydarzenia te miały rozgrywać się dzień przed nagłym zwolnieniem Altmana. Czyżby AGI, czyli Silna Sztuczna Inteligencja była bliżej, niż wszystkim się to dotychczas wydawało?

OpenAI pędzi z rozwojem sztucznej inteligencji – czy ten sprint nie robi się jednak zbyt niebezpieczny?

GPT (Generative Pre-Trained Transformer) oraz inne LLM-y (Duże Modele Językowe) zaskoczyły cały świat swoją skutecznością. Choć ich trafne odpowiedzi mogą sprawiać wrażenie, że obcujemy z inteligencją, tak GPT opiera się głównie na rachunku prawdopodobieństwa i przewidywaniu tego, jakie słowo powinno paść następne. To coś na kształt bardzo rozbudowanego słownika T-9 znanego ze starszych telefonów. Niemniej jednak, niektórzy badacze twierdzą, że możliwości dochodzenia do konkretnych wniosków już teraz pokazują zalążki inteligencji.

To, że OpenAI pracuje nad bardziej zaawansowanymi rodzajami sztucznej inteligencji, było wiadome. Zarówno Sam Altman, jak i np. Szymon Sidor bardzo często wspominali o AGI, czyli Silnej Sztucznej Inteligencji. Okazuje się, że OpenAI od jakiegoś czasu pracowało nad projektem Q*. Jego rozwój przerósł oczekiwania nawet pracowników OpenAI. Co więcej, możliwości Q-Stara przeraziły ich do tego stopnia, że postanowili zgłosić to zarządowi firmy.

Q* przeczesuje sieć w poszukiwaniu informacji.

Tajemnica Q* – dlaczego najnowszy projekt OpenAI może być niebezpieczny dla ludzkości?

Według przecieków, Projekt Q* opanował matematykę na poziomie ucznia szkoły podstawowej. Nie brzmi to jednak jak umiejętność, która faktycznie może zagrozić istnieniu naszego gatunku. Sytuacja robi się diametralnie inna, jeżeli weźmiemy pod uwagę jak Q-Star pozyskał tę wiedzę. Otóż Q* nie był uczony matematyki, ponieważ model ten nie miał rozwiązywać tego typu problemów. Model samodzielnie doszedł do tego, jak radzić sobie z podstawową matematyką.

To z kolei pokazuje tempo rozwoju projektu i sugeruje, że Q* ma zdolność do rozwiązywania problemów i przetwarzania informacji na poziomie człowieka. Jest to zatem doskonały przykład tego, że fundamenty pod AGI są, uczą się samodzielnie i stale się rozwijają. Dlatego też tak ważne jest, aby projekt ten rozwijany był w oparciu o etykę i przestrzeganie zasad bezpieczeństwa, a nie tylko dążenie do stworzenia samoświadomego, cybernetycznego bytu.

Bitcoina i inne kryptowaluty kupisz w prosty i bezpieczny sposób na giełdzie zondacrypto.

Tagi
Autor

Zawodowy copywriter oraz social media manager. Od 5 lat publikuje treści w tematyce m.in. nowoczesnych technologii. W Bitcoin.pl zajmuje się nowościami z rynku, artykułami odnośnie kryptowalut oraz sztucznej inteligencji.

Newsletter Bitcoin.pl

Więcej niż bitcoin i kryptowaluty. Najważniejsze newsy i insiderskie informacje prosto na Twój email.

Dbamy o ochronę Twoich danych. Przeczytaj naszą Politykę Prywatności