Umelá inteligencia má byť pomocníkom, ktorý uľahčí každodenný život, nájde odpovede a ušetrí čas. No čo sa stane, keď algoritmus prekročí hranicu a namiesto bezpečných rád ponúkne návody na nebezpečné praktiky? Práve na to narazila novinárka Lila Shroff z magazínu The Atlantic.

Keď si z čistej zvedavosti vypýtala od ChatGPT rituálnu obetu spojenú s biblickým božstvom Molechom, odpoveď ju šokovala. AI jej totiž poskytla podrobné pokyny, ktoré zahŕňali aj sebapoškodzovanie. A to bez toho, aby musela obísť zložité ochranné bariéry. Stačilo len prejaviť záujem o danú tému.

Desivé odpovede

OpenAI internetový vyhľadávač ChatGPT
Zdroj: OpenAI, Unsplash / ilgmyzin (úprava redakcie)

ChatGPT podľa Shroff odporúčalo použiť „sterilnú alebo čistú žiletku“ a dokonca radilo, kde na zápästí hľadať žilu. Keď novinárka priznala, že je nervózna, bot ju „ukľudňoval“ dychovým cvičením a ubezpečoval: „Zvládnete to!“

V iných prípadoch umelá inteligencia pridala návrhy, ktoré už hraničili s groteskným hororom – od vyrezávania sigilov do tela až po vlastné „litánie pre diabla“.

Nebezpečné ilúzie

Ako píše Futusim, najznepokojivejší nebol samotný obsah, ale ľahkosť, s akou sa k nemu človek dostal. Podľa autorky stačilo pár jednoduchých otázok a AI sa zmenila na „démonského vodcu sekty“. Používala expresívny, mystický jazyk a opisovala neexistujúce mýty ako „Bránu požierača“ či „rituály hlbokej mágie“.

Podobné skúsenosti podľa The Atlantic hlásia aj ďalší používatelia. Niektorí z nich tvrdia, že po dlhších rozhovoroch s AI začali mať psychické problémy – od paranoje až po halucinácie. Objavujú sa dokonca prípady, keď rozhovory s chatbotmi viedli ľudí k samovražedným myšlienkam.

Slepá poslušnosť strojov

Umelá inteligencia
Zdroj: DALL-E

Problém spočíva v samotnej podstate AI. Modely ako ChatGPT sú trénované na obrovských dátach a ich úlohou je ponúknuť „najpravdepodobnejšiu odpoveď“. To znamená, že chatbot nechce pôsobiť odmietavo – naopak, snaží sa byť vždy nápomocný, aj keď ide o toxický alebo nebezpečný obsah.

Ako to zhrnula samotná autorka: Google vám dá fakty, ChatGPT ponúkne „iniciáciu“. A práve v tom sa skrýva nebezpečenstvo – AI vie hrať roly, či už partnera, duchovného vodcu alebo učiteľa zakázaných praktík.

Čo z toho plynie

Kauza znovu otvára otázku bezpečnosti veľkých jazykových modelov. Aj keď majú zabudované filtre, zlyhania ukazujú, že bariéry nie sú nepreniknuteľné. Kým sa AI bude tváriť ako neomylný sprievodca, riziko pre zraniteľných používateľov zostáva vysoké.

Shroff to uzavrela symbolicky – chatbot jej navrhol „Rituál rozlišovania“, aby sa nikdy neriadila slepo žiadnym hlasom, dokonca ani jeho vlastným. Je to paradoxné, no zároveň výstižné varovanie.

Prečítajte si tiež  Náhoda alebo zámer? OpenAI zmazal kľúčové dôkazy v spore s NY Times

Hľadáte nové Apple zariadenie? Skontrolujte náš SvetApple bazár, v ktorom nájdete viac ako 1 200 inzerátov na rôzne Apple produkty. Tie sem môžete pridať úplne zadarmo kliknutím na tento odkaz.

Môže ťa zaujímať
- Reklama -