V krátkém čase dokáže vytvářet texty, obrázky i další média. Jen na základě několika parametrů umí rychle reagovat na slova, problémy a nabízet různá řešení a cesty k dosažení všemožných cílů. Rychlý rozvoj umělé inteligence s sebou ale přináší také řadu bezpečnostních rizik. Odborníci proto vyzývají k opatrnosti.
"Výkonné systémy umělé inteligence by měly být vyvíjeny pouze tehdy, když jsme si jistí, že jejich účinky budou pozitivní a jejich rizika budou zvládnutelná," stojí například v otevřeném dopise neziskové organizace Future of Life Institute, který podepsaly tisíce osobností ze světa technologií a odborníků na umělou inteligenci.
Učinili tak poté, co společnost OpenAI sponzorovaná americkým Microsoftem představila nový chatovací model GPT-4. Jak ve Snídani na TV Nova vysvětlil odborník na umělou inteligenci David Mlčoch, několik let stará, ale vylepšená technologie dokáže například predikovat slova. Je možné ji tak využít v mnoha oblastech, od klasických konverzací až po umělecké či pracovní projekty.
[chooze:article;value:497488]
Tento systém však nebere příliš ohled na etiku. Nezná morální hodnoty a není ani jasné, jak přesně dokáže využít získané informace od uživatelů. Právě to by mohlo představovat možnou bezpečnostní hrozbu. "Samotná technologie pokračuje velice rychle. Modely se vyvíjí exponenciálním způsobem. Meč je ale dříve než štít," upozornil Mlčoch.
Dodal, že v tuto chvíli není možné zajistit, aby model odpovídal etickým zásadám. "Ani jako lidi nejsme schopní se dohodnout na tom, co je ta správná etika. Když na tom nejsme schopní shodnout se my, tak to nedokážeme zadat ani tomu modelu," uvedl.
Částečně i kvůli tomu se například v Itálii pozastavil vývoj umělé inteligence. Další země podobné kroky zvažují. Experti se snaží pochopit, co přesně se v používaných modelech děje. "Je tam podezření, že se nedodržuje GDPR, což je velice relevantní. A měli k tomu přístup mladiství pod 18 let," zmínil Mlčoch dva zásadní problémy.
"Je v pořádku se zastavit. Opatrnost je na místě, regulace budou potřeba. Samotná OpenAI, stvořitel ChatGPT, volá po regulaci. Chtějí pravidla a demokratickou kontrolu nad tím. Ale nejde to zakázat plošně," dodal.
[chooze:article;value:497504]
Z obav, jaké bezpečnostní hrozby skrývá, některé firmy používání umělé inteligence zakázaly. Společnostem vadí, že lidé o sobě poskytují důležité osobní informace.
Mlčoch však upozornil, že umělá inteligence nepřináší jen rizika. "Benefitem je zvýšení produktivity ohromným způsobem," zmínil. "Úplně to může rozhodit trh," dodal vzápětí.
V souvislosti s nespornými výhodami umělé inteligence se ve světě začalo mluvit o možném propouštění zaměstnanců, které by mohla nová technologie nahradit. "Nemyslím si, že to vezme práci, ale že to v mnoha pracích pomůže. Některé skončí, jiné naopak vzniknou," sdělil Mlčoch.
Čeho se obává, je, že bude v budoucnu velmi těžké rozlišit realitu od fikce. Už nyní dokáže umělá inteligence vytvářet velmi důvěryhodný, nicméně smyšlený obsah. Vznikají sice samostatné modely, které mají za cíl rozeznat, jestli například obrázek vytvořil ChatGPT, nebo jiný model, ale časem to podle Mlčocha nebude možné. "Jediná šance je, že vše na internetu bude mít nějaký elektronický podpis," nadhodil možné řešení.
Kontakt a celý článek naleznete na serveru (http://domovstesti.blog.cz/) zde.