Zavřít reklamu

Google se netají tím, že je ve velké míře ke svým uživatelům transparentní. Nedávno upozornil na rostoucí problém v rámci jeho nástroje umělé inteligence s názvem Gemini. Státy jako Čína, Írán, Severní Korea a Rusko čítají největší počet uživatelů, kteří se snaží obejít jejich bezpečnostní opatření. AI nástroj Gemini pak chtějí využívat k nekalým účelům. Ačkoliv nejde pouze o tyto země, právě u nich se takové pokusy objevují nejčastěji.

Útočníci se snaží přimět AI nástroj k provádění aktivit, které mohou ve své podstatě značit vážnou kybernetickou hrozbu. Lidé přichází s rafinovanými technikami, kterými se snaží Gemini zneužít. Pomocí kreativních instrukcí, jazykových kliček a šikovně formulovaných dotazů se ji snaží zmást a přimět ji ke generování citlivých informací. Nejčastěji jde údajně o souhrny vojenských dat nebo identifikaci slabých míst v softwarech.

Gemini jako nástroj pro tvorbu malwaru

Hackeři se dle statistiky nejčastěji snaží přimět Gemini k vytvoření malwaru. Vzhledem k tomu, že generativní AI dokáže psát i kódy, snaží se útočníci získat úryvky, které by mohly poskládat do celku, který následně použijí k proniknutí do systému a krádeži dat. Tohle není sci-fi, ale krutá realita. V době, kdy kybernetické útoky neustále rostou, je podobná možnost vážnou hrozbou.

Kromě tvorby malwaru se objevují také pokusy ke shromažďování citlivých informací. Hackeři dávají Gemini za úkol, aby jim pomáhala analyzovat bezpečnostní slabiny různých systémů. Pokud se jim podaří tyto informace získat, mohou je samozřejmě využít k dalším kybernetickým útokům. A i když AI většinu těchto pokusů zamítá, vždy existuje riziko, že někde ochrana selže.

Dalším děsivým trendem je snaha o hacknutí samotného systému Gemini. Útočníci vymýšlejí sofistikované příkazy a speciální kódy, které by mohly donutit AI ignorovat bezpečnostní pravidla. Cílem je získat přístup k funkcím, které by jinak nebyly dostupné, nebo přimět AI k nežádoucím odpovědím. Údajně se jim však žádný pokus doposud nepovedl, nebo se o něm minimálně Google nezmínil.

Případy nevhodných AI odpovědí

Navzdory všem ochranným opatřením se už několikrát stalo, že Gemini poskytla odpovědi, které by poskytovat neměla. Uživatelé hlásili případy, kdy AI generovala rady, které mohly být nebezpečné nebo znepokojivé. To znovu otevírá otázku: „Jak moc můžeme AI věřit? A co když někdo najde způsob, jak ji zmanipulovat ještě víc?“

Google se snaží na tyto hrozby reagovat. Neustále vylepšuje bezpečnostní protokoly, filtruje otázky a posiluje ochranu Gemini. Jenže boj s kybernetickými útočníky je nikdy nekončící hra na kočku a myš. Jakmile se jedna slabina zacelí, objeví se nová.

Vzhledem k tomu, jak rychle AI postupuje, je jasné, že podobné pokusy budou jen přibývat. Vývojáři AI budou muset být vždy o krok napřed, jinak se umělá inteligence může snadno stát nástrojem těch, kteří ji chtějí využít ke zlu. A to už není jen otázka technologií, ale i bezpečnosti celého digitálního světa.

Témata:

Dnes nejčtenější

.