
Elon Musk dostrzega zagrożenia płynące z rozwoju sztucznej inteligencji
Rozwój sztucznej inteligencji jest zdecydowanie przełomowym wydarzeniem w dziejach ludzkości. To, co jeszcze do niedawna musiał robić człowiek, dziś wykonuje za niego maszyna. Wskazywanie odpowiedzi na zadawane pytania, pisanie skomplikowanych tekstów oraz generowanie cyfrowych obrazów, które łudząco przypominają rzeczywistość, to tylko część możliwości AI. Wiele osób jednak dzieli się swoimi obawami. Niepokój budzi to, jak sztuczna inteligencja może ”namieszać” wśród ludzi i jakie niesie ze sobą zagrożenia. Okazuje się, że niebezpieczeństwo związane z tą technologią dostrzegają także Elon Musk oraz Steve Wozniak.
Dyrektorzy gigantów technologicznych przeciwni AI
Cały świat zachłysnął się wydarzeniem, jakim było udostępnienie przez firmę OpenAI w listopadzie 2022 roku ChatuGPT. Bazujący na sztucznej inteligencji bot, który odpowiada na nasze pytania i pomaga w tworzeniu treści oraz szukaniu rozwiązań, napędził popularność AI. W połowie marca otrzymaliśmy jego nową, udoskonaloną wersję, która została nazwana GPT-4. Więcej możliwościach nowej wersji przeczytacie w tym miejscu.
Mimo szans, jakie niesie ze sobą pojawienie się sztucznej inteligencji w naszym zasięgu, wiele osób posiada jednak obiekcje i obawy. Na pewien problem tej technologii zwrócił uwagę znany inwestor i dyrektor generalny Galaxy Digital – Mike Novogratz. Jego zdaniem sztuczna inteligencja może napędzić ”kryzys fałszerstwa tożsamości”. Dziwi się zatem, że regulatorzy kładą większy nacisk na egzekwowanie przepisów dot. kryptowalut, a nie właśnie tych dotyczących AI.
Nie tylko CEO Galaxy Digital jest nieufny w kwestii nowej technologii. Ponad 2600 liderów z tej branży oraz badaczy podpisało się pod listem otwartym, który ma na celu zahamowanie rozwoju AI. W opublikowanym dokumencie kładzie się szczególny nacisk na ”poważne zagrożenia dla społeczeństwa i ludzkości”.
List otwarty został opublikowany w dniu 22 marca z ramienia amerykańskiego think tanku, Future of Life Institute (FOLI). Co ciekawe, wśród osób, które podpisały się pod tym manifestem, znalazł się Elon Musk, czyli CEO SpaceX oraz Tesli. Jednym z zaangażowanych jest także współzałożyciel Apple, Steve Wozniak.
FOLI zwraca się do wszystkich podmiotów zajmujących się sztuczną inteligencją, by te przynajmniej na okres sześciu miesięcy ”natychmiast wstrzymały” swoje prace dot. szkolenia systemów będących następcami GPT-4. Jako powody takiej prośby wskazano obawy, że ”wywiad konkurencyjny między ludźmi może stanowić poważne zagrożenie dla społeczeństwa i ludzkości”.
📢 We're calling on AI labs to temporarily pause training powerful models!
Join FLI's call alongside Yoshua Bengio, @stevewoz, @harari_yuval, @elonmusk, @GaryMarcus & over a 1000 others who've signed: https://t.co/3rJBjDXapc
A short 🧵on why we're calling for this – (1/8)
— Future of Life Institute (@FLIxrisk) March 29, 2023
Zaawansowana sztuczna inteligencja może stanowić głęboką zmianę w historii życia na Ziemi i powinna być planowana i zarządzana z odpowiednią troską i zasobami. Niestety, ten poziom planowania i zarządzania nie ma miejsca
– napisano w liście otwartym.
Czy mamy czego się obawiać?
Dodatkowo, napisano w nim, że obecnie trwa ”niekontrolowany wyścig” między firmami z sektora AI. Stawką jest opracowanie jak najpotężniejszego systemu uczenia się na podstawie sztucznej inteligencji, której ”nikt — nawet ich twórcy — nie może zrozumieć, przewidzieć ani niezawodnie kontrolować”.
BREAKING: A petition is circulating to PAUSE all major AI developments.
e.g. No more ChatGPT upgrades & many others.
Signed by Elon Musk, Steve Wozniak, Stability AI CEO & 1000s of other tech leaders.
Here's the breakdown: 👇 pic.twitter.com/jR4Z3sNdDw
— Lorenzo Green 〰️ (@mrgreen) March 29, 2023
Jako przykład potencjalnych działań, których obawia się think tank, podano zalew serwisów informacyjnych ”propagandą oraz nieprawdą”. Co więcej, FOLI jest zdania, że chęć firm zajmujących się AI do tego, by stać się liderem w tym wyścigu, może doprowadzić do ”egzystencjalnego zagrożenia”.
Czy powinniśmy rozwijać nieludzkie umysły, które mogą ostatecznie przewyższyć liczebnie, przechytrzyć, przestarzałe i zastąpić nas? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją? Takie decyzje nie mogą być przekazywane niewybranym liderom technologicznym
– dodano w liście.
Having a bit of AI existential angst today
— Elon Musk (@elonmusk) February 26, 2023
Instytut powołuje się również na słowa, które padły w oświadczeniu założyciela OpenAI – Sama Altmana. Zwrócił on uwagę, że zanim rozpocznie się przyszłe szkolenia systemów AI, należy najpierw przeprowadzić niezależną ocenę ich bezpieczeństwa.
CEO OpenAI w dniu 24 lutego opublikował na blogu firmy post, w którym pisał o tym, że społeczeństwo musi przygotować się na roboty działające w oparciu o ogólną sztuczną inteligencję (AGI) oraz sztuczną superinteligencję (ASI).
Bitcoina i inne kryptowaluty kupisz w prosty i bezpieczny sposób na giełdzie zondacrypto.