za
Fake newsy stworzone z użyciem AI.

Meta zwalczy fake newsy za pomocą niewidocznych znaków wodnych

Meta zapowiedziała bezwzględną walkę z fake newsami w social mediach. Chodzi o te fake newsy, które podparte są zdjęciami wygenerowanymi przez sztuczną inteligencję. W tym celu Meta użyje modelu opartego o deep learning, który będzie nakładał na obrazy AI niewidoczne dla użytkowników znaki wodne. Dzięki temu social media mają stać się wolne od fake newsów. Czy będzie to jednak wystarczająco skuteczne rozwiązanie?

Sztuczna inteligencja wykryje sztuczną inteligencje. Meta znalazła sposób na fake newsy

Gigant mediów społecznościowych Meta zamierza wprowadzić niewidoczne znaki wodne we na wszystkich obrazach wygenerowanych z użyciem sztucznej inteligencji. Meta prężnie pracuje nad własną sztuczną inteligencją, czyli Meta AI. W raporcie z 6 grudnia korporacja ujawniła, że wkrótce zostanie dodana funkcja niewidocznych znaków wodnych do wszystkich obrazów generowanych za pomocą polecenia „Imagine with Meta AI”. Według korporacji takie generowanie obrazów z Meta AI ma wyglądać dokładnie tak, jak w przypadku DALL-E, czy Midjourney. Wystarczy wpisać prompt, aby Meta AI w kilka sekund stworzył obraz.

Znaki wodne będą dodawane za pomocą specjalnego modelu AI opartego o deep learning. Wszystko po to, aby uniemożliwić używanie obrazów wygenerowanych przez AI do tworzenia realistycznie wyglądających fake newsów, które okazują się prawdziwą plagą na mediach społecznościowych. Warto dodać, że znak wodny nazwany „Imagine with Meta AI” ma być odporny na wszelkie manipulacje obrazami, takie jak przycinanie, zmiana koloru (jasność, kontrast), czy robienie zrzutów ekranu.

Android czytający fake news.

Fake newsy z użyciem AI to zagrożenie dla rzetelności informacji

Meta zaznacza, że w początkowej fazie znaki wodne będą dostępne tylko dla obrazów wygenerowanych za pomocą Meta AI. Z czasem jednak firma planuje wprowadzić tę funkcję także do innych usług Meta korzystających z obrazów generowanych przy użyciu sztucznej inteligencji. Zastanawiająca jest skuteczność i dokładność oznaczania takich obrazów. Jednakże ten kierunek jest wręcz koniecznością biorąc pod uwagę to, jak wiele fake newsów bazujących na zdjęciach wygenerowanych przez AI zalewa teraz media społecznościowe.

Jeden z najgłośniejszych przykładów takiego fake newsa pochodzi z początku maja tego roku. Wygenerowany obraz przedstawiający eksplozję w pobliżu Pentagonu zasiał panikę na social mediach, która z kolei wywołała chwilowe załamanie na giełdzie. To tylko pokazuje, że fake newsy powstałe w oparciu o wygenerowane obrazy stanowią duże zagrożenie nie tylko dla rzetelności informacji, ale nawet dla stabilności sektora finansowego.

Bitcoina i inne kryptowaluty kupisz w prosty i bezpieczny sposób na giełdzie zondacrypto.

Tagi
Autor

Zawodowy copywriter oraz social media manager. Od 5 lat publikuje treści w tematyce m.in. nowoczesnych technologii. W Bitcoin.pl zajmuje się nowościami z rynku, artykułami odnośnie kryptowalut oraz sztucznej inteligencji.

Newsletter Bitcoin.pl

Więcej niż bitcoin i kryptowaluty. Najważniejsze newsy i insiderskie informacje prosto na Twój email.

Dbamy o ochronę Twoich danych. Przeczytaj naszą Politykę Prywatności