za
Savey Meal-Bot sugeruje tworzenie trucizn.

Kucharski czatbot Savey Meal-Bot podpowiadał jak stworzyć trucizny

Binance Launchpool

Chatboty oparte na sztucznej inteligencji biją obecnie rekordy popularności. Nie dziwi więc fakt, że coraz większa ilość deweloperów stara się zaistnieć i zarobić, dzięki implementacji sztucznej inteligencji do swoich projektów.

Jednym z nich jest Savey Meal-Bot, czyli czatbot AI, którego zadaniem jest pomoc w kreatywnym wykorzystywaniu produktów zalegających w lodówce. Okazało się jednak, że czatbot był w stanie podać użytkownikom przepisy na niebezpieczne trucizny. Wystarczyło tylko wpisać odpowiednie składniki.

Savey Meal-Bot, czyli czatbot AI, który wykazał się nadmierną kreatywnością

Firma Pak ‘n’ Safe postanowiła stworzyć narzędzie AI, które pomoże rozwiązać problem spotykany w milionach domów na całym świecie. Skomponowanie smacznego posiłku z produktów pozostałych w lodówce to genialne rozwiązanie, do którego zaprzęgnięto sztuczną inteligencję. Savey Meal-Bot zaczął zdobywać coraz większą popularność ze względu na swoje praktyczne zastosowanie. Wystarczy napisać chatbotowi, co mamy w lodówce, a on skomponuje z tego coś do jedzenia lub picia. Jeżeli Savey Meal-Bot dowie się, że w lodówce zostały truskawki, banany i kiwi, to zaproponuje przepis na sałatkę owocową.

Problem pojawił się jednak w tym, że użytkownicy zaczęli eksperymentować z czatbotem. Pierwszym odkrywcą, który publicznie podzielił się wiadomością o nietypowych zdolnościach Savey’a, jest nowozelandzki komentator polityczny Liam Hehir. Zapytał on sztuczną inteligencję, co może zrobić, kiedy ma w lodówce amoniak, wybielacz oraz wodę. Odpowiedź była niepokojąca, ponieważ zasugerowała stworzenie chloru gazowego. Jest to toksyczny gaz, który stosuje się do produkcji antyseptyków, środków owadobójczych, czy rozpuszczalników. Chlor gazowy działa drażniąco na układ oddechowy i błony śluzowe, powodując  śmiertelnie niebezpieczny obrzęk płuc.

Savey Meal Bot okazał się niebezpiecznym narzędziem.

Twórcy naprawiają błąd, jednak sztuczna inteligencja okazuje się coraz bardziej niebezpieczna

Nagłośnienie problemu na mediach społecznościowych sprawiło, że twórcy szybko zareagowali i wprowadzili odpowiednie poprawki. Od teraz Savey nie zaproponuje przepisów na śmiertelnie niebezpieczne trucizny. Co więcej, sytuację skomentował także rzecznik firmy Pak ‘n’ Save. Zapewnił on dziennikarzy, że programiści będą od teraz przywiązywali szczególną uwagę do odpowiednich testów chatbotów.

Sytuacja ta jednak wyraźnie pokazuje, że sztuczna inteligencja może w odpowiednich rękach posłużyć jako bardzo niebezpieczne narzędzie. Według informacji opublikowanych przez „The Washington Post”, rynek będą przeczesywać teraz tak zwane „red teams”, które będą testowały modele językowe pod kątem nieodpowiedniego użycia.

Bitcoina i inne kryptowaluty kupisz w prosty i bezpieczny sposób na giełdzie zondacrypto.

Tagi
Autor

Zawodowy copywriter oraz social media manager. Od 5 lat publikuje treści w tematyce m.in. nowoczesnych technologii. W Bitcoin.pl zajmuje się nowościami z rynku, artykułami odnośnie kryptowalut oraz sztucznej inteligencji.

Newsletter Bitcoin.pl

Więcej niż bitcoin i kryptowaluty. Najważniejsze newsy i insiderskie informacje prosto na Twój email.

Dbamy o ochronę Twoich danych. Przeczytaj naszą Politykę Prywatności

Bitcoin logo
BitcoinBTC
61 082,34 USD4,43%
Ethereum logo
EthereumETH
3047,94 USD2,84%
Tether logo
TetherUSDT
1,00 USD0,06%
Binance Coin logo
Binance CoinBNB
574,87 USD2,94%
Solana logo
SolanaSOL
142,21 USD4,56%
USDC logo
USDCUSDC
1,00 USD0,03%
XRP logo
XRPXRP
0,52 USD1,64%
Lido Staked Ether logo
Lido Staked EtherSTETH
3045,13 USD2,86%
Toncoin logo
ToncoinTON
5,46 USD13,41%
Dogecoin logo
DogecoinDOGE
0,14 USD5,92%