OpenAI tworzy zespół, który ma powstrzymać bunt maszyn
OpenAI, czyli firma stojąca za ChatemGPT obawia się potencjału sztucznej inteligencji. Twórcy jednego z najpopularniejszych narzędzi opartych o sztuczną inteligencję ogłosili, że powołują specjalny zespół.
Zadaniem tego teamu będzie przewidywanie najczarniejszych scenariuszy i reagowanie na wszelkie przejawy buntu ze strony sztucznej inteligencji. Tak, scenariusze Matrixa lub Terminatora zaczynają przybierać niepokojąco prawdziwe barwy.
Kiedy powstanie AGI i czy może stanowić zagrożenie dla ludzkości?
Działania OpenAI potwierdzają słowa Geoffrey’a Hinton’a, nazywanego często „ojcem chrzestnym sztucznej inteligencji”. Według niego AI może stać się zagrożeniem dla ludzkości. Hinton w swoich rozważaniach idzie znacznie dalej i ostrzega, że sztuczna inteligencja, która uzna się za lepszy gatunek, doprowadzi ludzkość na skraj upadku cywilizacji i całkowitego wyginięcia Homo Sapiens.
Choć przewidywania te mogą wydawać się przesadzone, CEO OpenAI Sam Altman także jest zdania, że to, nad czym pracuje jego zespół, „odrobinę przeraża”. Narzędzia oparte o generatywną sztuczną inteligencję są dziś bardzo przydatne, jednakże twórcy ChatuGPT rozważają scenariusze rozwoju tej technologii.
Główna obawa dotyczy tego, że sztuczna inteligencja skręci na niewłaściwą drogę. Twórcy ChatuGPT na czele z Polakiem Szymonem Sidorem twierdzą, że pierwsza superinteligencja może powstać nawet przed 2030, czyli za zaledwie 7 lat. Taka superinteligencja nazywana także AGI (Artificial General Intelligence) ma charakteryzować się tym, że przewyższy człowieka pod kątem możliwości intelektualnych oraz osiągnie samoświadomość.
Wówczas samoświadoma AI będzie może stanowić dla ludzi spore zagrożenie, gdyż ludzie nie będą w stanie jej kontrolować. Oczywiście zawsze w grę wchodzi twardy reset i wyłączenie serwerów, jednak problemów może pojawić się znacznie więcej. Jednym z nich będzie np. rozproszenie takiej samoświadomej sztucznej inteligencji na różne serwery w różnych miejscach świata za pomocą internetu.
To oczywiście teoretyzowanie. Mimo wszystko twórcy ChatuGPT zamierzają przygotować się na najczarniejszy scenariusz.
OpenAI postanawia działać i tworzy specjalny zespół, który ma walczyć z wrogim AI oraz superinteligencją
Powołany przez OpenAI zespół Superalignment ma stać na straży i reagować na każde niepożądane działanie sztucznej inteligencji. Zespół ten będzie stanowił swego rodzaju siły szybkiego reagowania, aby zapewnić ochronę przed wrogimi działaniami sztucznej inteligencji.
Kolejnym zadaniem zespołu Superalignment będzie stworzenie narzędzia mającego stać się zautomatyzowanym badaczem sposobu zachowania AI, o inteligencji przeciętnego człowieka. Innymi słowy mówiąc, sztuczna inteligencja będzie przeczesywać sieć w poszukiwaniu podejrzanych zachowań sztucznej inteligencji. Testy działania superinteligencji pomogą we wczesnym wykryciu niebezpiecznych działań. Ma być to podstawą bezpieczeństwa i gwarantem tego, że AI nie obróci się przeciwko ludzkości.
Bitcoina i inne kryptowaluty kupisz w prosty i bezpieczny sposób na giełdzie zondacrypto.
Zawodowy copywriter oraz social media manager. Od 5 lat publikuje treści w tematyce m.in. nowoczesnych technologii. W Bitcoin.pl zajmuje się nowościami z rynku, artykułami odnośnie kryptowalut oraz sztucznej inteligencji.
Zawodowy copywriter oraz social media manager. Od 5 lat publikuje treści w tematyce m.in. nowoczesnych technologii. W Bitcoin.pl zajmuje się nowościami z rynku, artykułami odnośnie kryptowalut oraz sztucznej inteligencji.
Newsletter Bitcoin.pl
Więcej niż bitcoin i kryptowaluty. Najważniejsze newsy i insiderskie informacje prosto na Twój email.
Dbamy o ochronę Twoich danych. Przeczytaj naszą Politykę Prywatności