Od 1. května 2025 se mění pravidla pro placení rozhlasového poplatku. Více informací zde.

Nejvíc pokročilé AI systémy vyvíjí firmy potají. Musíme chránit whistleblowery, věří vědec Kulveit

Rizika spojená s umělou inteligencí naposledy zdůraznila prognóza s názvem AI 2027. Dochází k závěru, že hrozba, že se umělá inteligence vymkne lidské kontrole, je zcela realistická. „Podle mě je nejhorším rizikem pozvolná ztráta lidského vlivu na civilizaci. Na druhém místě je ztráta kontroly, jak ji popisuje studie AI 2027. A na třetím místě je zneužití lidmi,“ říká v Interview Plus Jan Kulveit z Centra pro teoretická studia Univerzity Karlovy.

Interview Plus Praha Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Jan Kulveit z Centra pro teoretická studia Univerzity Karlovy

Do cesty tomu nejčernějšímu scénáři by se podle vědce mohly postavit třeba legislativní kroky | Foto: Kateřina Cibulka | Zdroj: Český rozhlas Plus

Autoři prognózy AI 2027 předpokládají, že se samotné AI systémy začnou zapojovat do vývoje nových modelů, což by celý vývoj mohlo zásadně urychlit.

Přehrát

00:00 / 00:00

Jan Kulveit z Centra pro teoretická studia Univerzity Karlovy

„Můžete si to představit tak, že v nějaké firmě, která vyvíjí ty nejpokročilejší AI systémy, na tom pracuje třeba sto lidí. Pokud by se modely dostaly do takového stavu, že jsou podobně schopné jako jeden z jejich výzkumníků, tak si mohou pustit tisíce kopií AI výzkumníků,“ popisuje Kulveit možnou sebezdokonalovací smyčku.

Upozorňuje také, že tento proces probíhá postupně a jeho začátky už v největších technologických firmách můžeme vidět.

„Lidé, kteří tam píší kód, teď používají nástroje, které jim pomáhají ho psát rychleji. Firmy uvádí, že třeba desítky procent počítačového kódu vysloveně napsaly AI,“ přibližuje proces, který může vývoj rapidně urychlit.

26:19

Trendy ohrožující demokracii jsou zatím nezastavitelné. Nejsem velký optimista, říká etik

Číst článek

„Kontrola tady toho není úplně jasná, protože podle některých předpokladů firmy ty nejpokročilejší systémy nejdřív nasadí interně,“ popisuje Kulveit, proč je regulace vývojářů umělé inteligence složitá. „Je možné, že tu nejnovější generaci, která by jim pomáhala zdokonalovat další modely, bychom třeba rok neviděli.“ 

A právě to je podle něj jednou z hlavních motivací autorů prognózy AI 2027. „Chtěli upozornit veřejnost na to, že se něco podobného může dít tajně,“ zdůrazňuje.

Whistlebloweři

Do cesty tomu nejčernějšímu scénáři by se podle vědce mohly postavit třeba legislativní kroky. I autoři prognózy některé možnosti nastínili. Navrhují mimo jiné ochranu pro whistleblowery, aby měli zákonem stanovenou možnost pro nahlášení sebezdokonalujících modelů vyvíjených v tajnosti.

Podle Kulveita má takové opatření cenu, i když není dokonalé: „Lidé ve firmách mají spousty hodnot. Mnoho různých nepravostí nebo toho, že někdo obešel bezpečnostní pravidla, se veřejnost dozvěděla právě tak, že někdo s tou informací přišel na veřejnost nebo ji donesl do médií.“

Rizika AI si uvědomujeme, tvrdí novinář. Černý scénář o konci lidstva považuje za sci-fi

Číst článek

Utajení vývoje a další opatření jsou podle něj důsledkem toho, že AI představuje velmi lukrativní trh s velkým potenciálem.

„Většina příjmu vývojářů je buďto z předplatných, nebo z prodeje přístupu ke svým modelům. Pokud by trajektorie byly takové, jak to popisuje AI 2027 nebo řada jiných prognostiků, tak jsou investice do AI nejen oprávněné, ale i velmi dobré,“ míní expert z Univerzity Karlovy.

„Jenom nahrazení jednoho procenta pracovníků je ohromný trh. Pokud vezmeme vize rozvoje v příštích deseti letech, tak to je zjevně nejdůležitější technologie vůbec,“ dodává.

Poslechněte si celý rozhovor, audio je v úvodu článku.

Jan Bumba, dci Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Nejčtenější

Nejnovější články

Aktuální témata

Doporučujeme