Yuval Noah Harari

Yuval Noah Harari ostrzega przed sztuczną inteligencją

AI

Izraelski historyk i filozof Yuval Noah Harari opublikował w brytyjskim tygodniku “The Economist” artykuł na temat sztucznej inteligencji. Wyraził w nim swoje obawy dot. tej mocno rozwijającej się ostatnio technologii.

Yuval Noah Harari ostrzega przed AI

Harari wskazuje na to, że “lęki przed sztuczną inteligencją (AI) prześladują ludzkość od samego początku ery komputerów. Dotychczas obawy te koncentrowały się na maszynach wykorzystujących środki fizyczne do zabijania, zniewalania lub zastępowania ludzi. Tyle że w ciągu ostatnich kilku lat pojawiły się nowe narzędzia AI, które zagrażają przetrwaniu ludzkiej cywilizacji z nieoczekiwanego kierunku. AI zyskała pewne niezwykłe zdolności do manipulowania i generowania języka, czy to za pomocą słów, dźwięków czy obrazów. AI zhakowała w ten sposób system operacyjny naszej cywilizacji”.

Wszedł oczywiście na temat ChataGPT:

Kiedy ludzie myślą o ChatGPT i innych nowych narzędziach AI, często zwracają uwagę na takie przykłady, jak dzieci w szkole używające AI do pisania wypracowań. Co stanie się z systemem szkolnym, gdy dzieci będą to robić? Ale tego rodzaju pytanie pomija większy obraz. Zapomnijmy o szkolnych esejach. Pomyślmy o kolejnym amerykańskim wyścigu prezydenckim w 2024 roku i spróbujmy wyobrazić sobie wpływ narzędzi AI, które mogą zostać stworzone do masowej produkcji treści politycznych, fake newsów i pism świętych dla nowych kultów.

Nowa wyrocznia

Fake newsy to nie jedyny problem. Harari wskazuje na to, że wkrótce spora część ludzkości może czerpać wiedzę już nie tylko z Google, które mimo wszystko oferuje nam zawsze minimum kilka źródeł informacji, ale właśnie narzędzi AI. Programy pokroju ChatGPT staną się więc czymś na miarę wyroczni.

Po co zawracać sobie głowę szukaniem, skoro mogę po prostu zapytać wyrocznię? Branża informacyjna i reklamowa również powinny być przerażone. Po co czytać gazetę, skoro mogę po prostu poprosić wyrocznię, aby powiedziała mi najnowsze wiadomości? I jaki jest cel reklam, skoro mogę po prostu poprosić wyrocznię, aby powiedziała mi, co kupić?

– pyta.

Yuval Noah Harari, ai, robot

Zagrożenie dla demokracji

Powróćmy jeszcze do tematu fake newsów. Historyk wskazuje, że pod koniec II wojny światowej jako ludzkość odkryliśmy, że “technologia jądrowa może generować tanią energię dla dobra ludzi, ale może też fizycznie zniszczyć ludzką cywilizację”. To sprawiło, że liderzy polityczni zreformowali “cały porządek międzynarodowy, aby chronić ludzkość i zapewnić, że technologia jądrowa będzie wykorzystywana przede wszystkim dla dobra”. Dziś stoimy przed takim samym zagrożeniem, ale “nadal możemy regulować nowe narzędzia AI”.

Podczas gdy atomówki nie mogą wymyślić potężniejszych atomówek, AI może stworzyć wykładniczo potężniejszą AI

– pisze dalej Harari.

Sugeruje, że należy szybko powstrzymać nieodpowiedzialne wdrażanie narzędzi AI. Do tego muszą dojść regulacje branży AI.

Artykuł Yuvala Noah Harariego wpisuje się w popularną ostatnio narrację o tym, że AI może okazać się dla nas wielkim zagrożeniem. Na niebezpieczeństwa z tym związane wskazał Elon Musk, Mike Novogratz czy Eliezer Yudkowski.

 

***

Poszukujemy redaktorów i redaktorek do Bitcoin.pl!

Jeśli jesteś zainteresowany/a współpracą z nami, wypełnij nasz formularz zgłoszeniowy.

Bitcoina i inne kryptowaluty kupisz w prosty i bezpieczny sposób na giełdzie Zonda.

Tagi
ai Eliezer Yudkowski Elon Musk Mike Novogratz Yuval Noah Harari
Autor

Na rynku kryptowalut od 2013 r. Współorganizowałem pierwsze w Polsce konsultacje społeczne w Sejmie dotyczące technologii blockchain, a także Polski Kongres Bitcoin, w ramach którego wystąpił Andreas Antonopoulos. Współpracowałem z posłami na Sejm RP, w celu przygotowania interpelacji na temat takich kwestii jak: kryptowaluty, CBDC czy technologia blockchain. Interesuje się historią, ekonomią, polityką i oczywiście technologią blockchain.

Newsletter Bitcoin.pl

Więcej niż bitcoin i kryptowaluty. Najważniejsze newsy i insiderskie informacje prosto na Twój email.

Dbamy o ochronę Twoich danych. Przeczytaj naszą Politykę Prywatności.