Ve svém poměrně nízkém věku máte na kontě studium na Cambridgi, doktorát ze Stanfordu a práci v Silicon Valley. Nebojíte se, že váš výzkum umělé inteligence (Artificial Intelligence – AI) může dostat lidstvo do úzkých?
Obor AI jsem si vybral právě proto, že jsem v něm viděl extrémní, a to především pozitivní potenciál. Zároveň vím, že může vytvářet hodně komplikované a silné nástroje, které mohou být lidmi zneužity. Ten rozpor si uvědomuji. S negativním potenciálem umělé inteligence rozhodně musíme pracovat.

Vzdělávací projekt Aignos seznamuje s výhodami i riziky umělé inteligence
Umělá inteligence: Dva nadšenci přibližují její výhody i rizika studentům

Je AI něco, co samostatně myslí, abychom jí ty zlé úmysly mohli takříkajíc rozmluvit?
AI je hodně široký, obecný termín. Dnes pod něj lidé nejčastěji zahrnují různé typy neuronových sítí. To nejsou samostatně myslící bytosti, které by fungovaly samy o sobě. Jsou to velmi komplikované a relativně inteligentní nástroje. Pokud si pod tím někdo představuje robota nebo terminátora, který se autonomně pohybuje a řeší něco sám, tak to není ten typ AI, který dnes používáme.

A to, co dnes máme, a v poslední době se nejvíc hovoří o ChatGPT4, může myslet samo?
ChatGPT je typ umělé inteligence zvaný velký jazykový model, který dnes zaplňuje titulní strany a vytvořil velkou vlnu zájmu po celém světě, protože má schopnosti, jež lidé neočekávali. Funguje tak, že vezme text a predikuje jeho další slovo. Je to podobný princip jako na mobilním telefonu, kde napíšete začátek zprávy a automaticky se doplní pravděpodobné další slovo. Problém spočívá v tom, že jednoduchost takto popsané úlohy neukazuje, o jak komplexní proces musí jít, aby byly takové predikce dobré.

Zdroj: Youtube

Když říkáte, že doplní další očekávatelné slovo, jaká je pravděpodobnost, že se trefí? Vždyť když vyslovím část věty, může končit na stovky způsobů.
To je pravda. Tyto systémy se trénují tak, že dostanou tisíc slov textu, odborně se tomu říká kontext, a doplní tisící první slovo. Mají slovník zhruba o velikosti 65 tisíc slov a z něj vyberou to nejpravděpodobnější další na základě tréninkových dat z minulosti. Tato data jsou knihy, Wikipedie, matematika, programovací kód, veškerý možný text z internetu. Máte pravdu, že možných slov je hodně, jenže těch tisíc slov na začátku kontextu už dost specifikuje, jaký záměr s textem máte. Když systém vidí kus kódu, predikuje například další příkaz. Když vidí kus románu s postavami, naváže na něj.

Vychází ale přitom jen z toho, čím ho nakrmíte. Systém například nebyl schopen pochopit, že kancléřem je Olaf Scholz, a stále o něm mluvil v ženském rodě, protože posledních šestnáct let stála v čele Německa Angela Merkelová.
To dává smysl, byť tento případ neznám. Většina modelů je trénována v angličtině, a proto se v jazykovém korpusu česká nebo německá data až tolik neobjevují. Ke zmatení rodů tak klidně může docházet. Problémem také může být, že tréninková data neobsahovala o kancléři Scholzovi zmínky. Proces předvídání dalšího slova je mnohem složitější, než by se na první pohled mohlo zdát.

Jan Vlk.
BotX: Umělou inteligenci by měli znát už středoškoláci. Má velký vliv na byznys

Predikovat další symbol programovacího kódu předpokládá znalost programování. K doplnění pasáže historického románu musí chápat chování postav, vědět něco o lidských motivacích. Jde tedy o komplexní přemýšlivý – kognitivní – systém, který se musí vyvinout k tomu, aby byla predikce dalšího slova úspěšná.

Přemýšlivý, kognitivní, systém? To se ale vracím k počáteční otázce, zda jazykové modely typu ChatGPT v současném pojetí už přemýšlejí?
Inteligence je funkční termín, takže podle mého názoru není příliš velký rozdíl mezi tím, že to působí, jako by přemýšlel, a tím, že skutečně přemýšlí. Když nějaký systém vypadá, že je inteligentní, pravděpodobně inteligentní je. Inteligence je něco, co se špatně napodobuje bez svojí esence.

Stejně jako internetový podnikatel a novinář Patrick Zandl se tedy ptám, zda lidský mozek v tom případě není jen biologický počítač, který funguje podobně?
Jsem si skoro jistý, že to tak je. Někdo říká, že AI nemůže být nebezpečná, protože je to jenom hromada matematiky, hodně maticového násobení. Avšak stejný argument bych mohl použít i u lidského mozku a říct, že je to jen hromada propojení, iontových kanálů, které se otevírají, zavírají a posílají si elektrické a chemické signály. To ale přece neznamená, že člověk a jeho chování je jen součtem toku signálů v mozku, a už vůbec ne, že nemůže být nebezpečný.

Logo Twitteru na mobilním telefonu
Ochrana před umělou inteligencí? Twitter chystá další změnu u placených profilů

To bohužel může, jak jsme aktuálně svědky v případě ruského vládce Vladimira Putina. Nedojdeme prostřednictvím jazykových modelů k něčemu podobnému?
Umělá inteligence má podle mě obrovský potenciál například k revoluci ve vědě a inovacích. Jde o snahu automatizovat kognitivní práci. A ve výkonu lidských mozků spočívá veškerý civilizační úspěch – snižování mortality dětí, léčba smrtelných nemocí, přečtení DNA a podobně. Proto budovat něco podobně chytrého nebo chytřejšího, než je člověk, je potenciálně extrémně hodnotné a civilizačně přínosné. Na druhou stranu se ten samý potenciál AI dá zneužít, což je typické riziko pro téměř každou převratnou technologii. U AI je ale ještě druhý typ rizika. V historii jsme dosud nezažili soužití s entitou, která by v naší klíčové schopnosti, tedy inteligenci, jež nám dává moc nad světem, byla člověku podobná. Tomu musíme věnovat hodně pozornosti.

A právě otázka, kdo koho nakonec bude ovládat, možná vedla špičkové vědce a podnikatele Yoshuu Bengia, Stuarta J. Russella, Elona Muska a Steva Wozniaka k výzvě, aby laboratoře umělé inteligence okamžitě pozastavily trénink systémů AI výkonnějších než GPT-4 alespoň na šest měsíců. Vy jste ji podepsal?
Četl jsem ji, víceméně souhlasím s jejím obsahem, ale nepodepsal jsem ji. Podle mě jde o to, že ačkoli máme hodně pokročilé schopnosti trénovat tyto modely, máme hodně špatný vhled do toho, jak fungují, a nedokážeme dostatečně analyzovat, proč dělají, co dělají.

Zdroj: Youtube

Neboli, jak jste napsal, známe vstupy, ale neumíme odhadnout výstupy?
Tak to je. Tématem mé doktorské disertace na Stanfordu bylo chápání velkých neuronových sítí. Problém je, že tento obor je hodně pozadu proti tomu, jak rychle se vyvíjí inženýrská praxe stavby těchto systémů. Umíme je stavět a dovádět do stavu, kdy jsou už skoro na úrovni obecné lidské inteligence, ale nevíme, proč dělají rozhodnutí, jež dělají.

To vás neděsí?
To mě hodně děsí. Proto jsem velkým fanouškem investování pozornosti, peněz a času do pochopení toho, jak tyto systémy fungují, aby byla zaručena jejich bezpečnost.

Přešel jste do společnosti Stability AI, kde chcete všechny výsledky sdílet a velkou péči věnovat bezpečnosti. Měli by se vědci ubírat podobným směrem?
Potřebujeme hodně širokou základnu vědců, matematiků, sociologů a antropologů, kteří budou umělé inteligentní objekty studovat ze všech úhlů. Není to jen technický problém. A v tom, jak se tyto systémy trénují a ovládají, by měla mít své slovo i veřejnost. Bez dostupnosti struktury neuronových sítí nemůže analýza mimo uzavřené laboratoře probíhat. Až vyprodukujeme podobně inteligentní systémy, jaké teď existují izolovaně, a dáme je k dispozici široké vědecké společnosti, bude je moci analyzovat. Tím se urychlí poznání toho, jak reálně fungují.

Humanoidní robot. Ilustrační foto.
Násilník? Černoch. Roboti s vadnou umělou inteligencí jsou rasisté, ukázal pokus

Za zmínku stojí, že tyto modely si nemůže jen tak někdo sestrojit doma ve sklepě. Odhaduje se, že trénink jazykového modelu GPT-3 stál ve výpočetním výkonu kolem dvou set milionů korun a využil 45 TB dat.
Tyto systémy skutečně nejsou přístupné amatérům, pro něž by to bylo hobby. Prokázalo se totiž, že zvyšování výpočetního výkonu a počtu dat vede k tomu, že systém je inteligentnější. Dnes je tedy výzkum limitován jejich množstvím a dostupností grafických karet NVIDIA, na nichž se trénuje umělá inteligence. Nejpokročilejší polovodičové čipy umí vyrobit jediná firma na Tchaj-wanu, takže 95 procent všech nejvýkonnějších procesorů na světě pochází od ní. Velké technologické firmy si grafické karty objednávají několik let dopředu, aby měly k dispozici potřebný výpočetní výkon. K tréninku velkých systému AI jich potřebují několik desítek tisíc – to je hardware v hodnotě desítek miliard korun.

Je tak složité je vyrobit?
Je to velmi komplikovaný a detailní výrobek, kde velikost drátků propojujících tranzistory dosahuje jen několika atomů. Vypadá to jako kus kovu, ale je to extrémně precizní produkt. Jedna jediná grafická karta je výkonnější než největší superpočítač světa z roku 2006.

Zdroj: DeníkPlatí u umělé inteligence stejná poučka jako u jiného pokroku, kdy trvalo několik desítek či stovek let, než se dospělo k myšlenkovému průlomu, ale pak to šlo hrozně rychle? Spisovatel Alvin Toffler v té souvislosti hovořil o šoku z budoucnosti, náhlé kulturní změně, kterou mnozí nepochopí. Jako v případě nástupu průmyslové revoluce a nahrazení lidské práce strojovou výrobou.
Od umělé inteligence bych čekal i něco rychlejšího a víc transformativního, než byla průmyslová revoluce. Její postup byl totiž relativně pomalý a zasahoval jen menší část zaměstnanců. Umělá inteligence je o hodně levnější a je obecná, takže to není produkt na jedno použití. Má aspiraci automatizovat i tvůrčí práci.

Letoun X-62 pro testování ovládání skutečného letadla umělou inteligencí poté, co si výzkumníci vyzkoušeli, že programy umí letadlo ovládat ve virtuální realitě. Jde původně o letoun ND-16A (přestavěnou F-16D), určený k testování vychylování tahu motorů
Války v budoucnu? Tanky a stíhačky povede umělá inteligence, testy už probíhají

Konkretizujte to, prosím.
Vše, co člověk produkuje svým myšlením a inteligencí, takže práci editorů, grafiků, programátorů a potenciálně i vědců.

A učitelů?
U těch to úplně platit nemůže, protože tam je silný sociální rozměr. Moje oblíbená vize využití AI je, že to bude jakýsi personalizovaný tutor pro každého člověka na světě. Neměla by nahradit, ale zlepšit práci učitelů, rozšiřovat přístup ke vzdělání. Třeba GPT-4 má znalosti programování, fyziky, jazyka i literatury a zároveň je hodně chytrý. Ne tak jako člověk…

Zatím.
Zatím. Ale já osobně se od GPT-4 učím skoro denně nové věci, takže ho používám jako osobního tutora, který reaguje na moje otázky.

Co jste se od něj minulý týden naučil?
Takový jednoduchý příklad: Neuměl jsem programovat webové stránky s interaktivními prvky, a tak jsem mu řekl, aby mě to naučil. On mě krok po krku navedl, jak to mám dělat. Během půl hodiny jsem vytvořil webovou stránku s tlačítky.

Stanislav Fořt, ředitel vývoje a výzkumu velkých jazykových modelů ve Stability AIStanislav Fořt, ředitel vývoje a výzkumu velkých jazykových modelů ve Stability AIZdroj: Deník/Zbyněk Pecák

Jeden semestr Stanfordu hotový?
Ne úplně, protože hodnota vzdělávání není jenom v tom, že člověk umí vytvořit webovou stránku, tam je důležitý formativní přesah. Pokud jde ovšem o čisté výstupy, tak jsou tyto systémy porovnatelné s velmi dobře placenými pracemi

AI už umí z pár dochovaných not dokomponovat Desátou symfonii Ludwiga van Beethovena, malovat obrazy nebo napsat knihu třeba v Tolstého stylu…
Celé knihy ještě ne. Dnešní umělé inteligence mají omezenou velikost vstupu, s nímž pracují, celá knížka se do nich zatím nevejde.

Zfalšovat videa ale umí, jak jsme viděli třeba v případě Baracka Obamy. Co když zcela věrohodně napodobí jiného prezidenta a vyhlásí světu válku?
To je obrovský problém. Není úplně nový. Text se dal takzvaně nafejkovat už stovky let. Kdokoliv mohl říci, že tady je text, jehož autorem je třeba nějaká renomovaná osoba.

Propracovanost staveb vytvořených umělou inteligencí je neskutečná
Jako pohled do budoucnosti. Stavby vytvořené umělou inteligencí až děsí

Třeba Hankovy Rukopisy královéhradecký a zelenohorský.
Nebo Protokoly sionských mudrců. To jsou příklady textů, které měly velké negativní společenské dopady. Hodně nové je, že dnes se dají falzifikáty šířit masově a levně. To jen zvýrazňuje nutnost regulace těchto technologií. Jsem velkým příznivcem zhodnocení všech možných dopadů a zajištění toho, aby výstupy AI třeba nebyly zaměnitelné za lidské.

Ve spolupráci technologických gigantů a vlád?
Skoro určitě. Osobně bych byl velmi nerad, kdyby věc, která pravděpodobně bude ovlivňovat budoucnost celé společnosti, byla v rukou pár stovek lidí, kteří pracují v technologických firmách hnaných ziskem.

Bill Gates, který byl jedním z hlavních investorů Muskovy společnosti OpenAI, jež stvořila GPT-4, nabádá: „Svět musí zaručit, aby z použití umělé inteligence neprofitovali jen bohatí lidé. Vlády a filantropové musí hrát důležitou roli v zajištění toho, aby technologie snižovaly, nikoliv zvyšovaly nerovnost mezi lidmi.“
S tím zcela souhlasím. Můj ideální scénář je, že systémy AI by měly nejenom snižovat nerovnosti ve společnosti, ale přispívat ke zbohatnutí celého světa. Bez regulace a otevřeného přístupu by ovšem mohly vést ke koncentraci bohatství a moci v malém množství rukou. My se musíme snažit, aby se jejich benefit dostal k co nejširšímu množství lidí.

Kdo je Stanislav Fořt

• Vystudoval na Trinity College, University of Cambridge, kde se věnoval teoretické fyzice a aplikované matematice a získal titul bakaláře a magistra. Specializoval se na černé díry.
• Poté zamířil do Silicon Valley v Kalifornii, kde na Stanfordské univerzitě získal doktorát za práci na pomezí vysokorozměrné geometrie, hlubokých neuronových sítí a neurovědy. Během studia pracoval na výzkumu umělé inteligence ve společnostech Google, DeepMind a Anthropic, jež vyvíjí jazykový model Claude, který je jako jeden z mála schopen konkurovat ChatGPT od OpenAI.
• Nedávno se stal ředitelem vývoje a výzkumu velkých jazykových modelů ve Stability AI, jednom z vedoucích startupů v oblasti generativní umělé inteligence.
• Učí astronomii na letních táborech (např. letní akademii Discover) a věnuje se organizaci Astronomické olympiády. Její mezinárodní kolo ještě jako středoškolský student vyhrál.
• Je mu devětadvacet let.

Stanislav Fořt, ředitel vývoje a výzkumu velkých jazykových modelů ve Stability AIStanislav Fořt, ředitel vývoje a výzkumu velkých jazykových modelů ve Stability AIZdroj: Deník/Zbyněk Pecák