
Dlouho slibovaná budoucnost, kde AI asistent skutečně něco *dělá*, je tady. Tedy, v beta verzi. Gemini se učí ovládat aplikace a první dojmy jsou... zvláštní. Ale pod kapotou se skrývá technologie, která může změnit víc než jen způsob objednávání jídla.
První spuštění téhle novinky v Gemini je prostě divné. Zadáte příkaz, třeba „Objednej mi cappuccino přes Uber Eats“, a pak už jen koukáte. Na displeji se objeví virtuální okno, které simuluje rozhraní aplikace, a AI v něm začne klikat. Krok za krokem. Je to pomalé, trochu neohrabané a absolutně fascinující. Není to jen spuštění zkratky. Je to sledování stroje, jak se učí být uživatelem. A já si říkám, tohle je první, syrový pohled na skutečné AI agenty v akci.
Je potřeba si hned na začátku vyjasnit jednu věc. Tohle není vylepšený makro rekordér. Není to předem naprogramovaná sekvence kliknutí. Gemini dostane úkol v přirozeném jazyce, porozumí mu a rozloží si ho na jednotlivé kroky potřebné k jeho splnění v dané aplikaci. Tohle je fundamentální rozdíl. Model musí chápat kontext, identifikovat tlačítka, vyplňovat pole a reagovat na to, co se v aplikaci děje.
Z technického hlediska tu Google nasazuje silné zbraně. Mluví se o pokročilém RAG (Retrieval-Augmented Generation), což v praxi znamená, že Gemini si umí sáhnout pro aktuální informace – třeba z vašeho Google Drivu nebo CRM – aby mohl úkol splnit správně. Když mu řeknete „Naplánuj schůzku s týmem ohledně projektu X,“ může se podívat do sdíleného dokumentu, zjistit, kdo je v týmu, a pak otevřít kalendář. To už je jiná liga než jen tupé vyplňování formulářů.
Zatím to testují na rozvozu jídla a spolujízdě. Logické. Jsou to relativně jednoduché, standardizované procesy. Ale roadmapa Googlu je mnohem ambicióznější. Mluví se o správě e-mailové schránky, plánování projektů, rešerších. V podstatě o převzetí rutinních digitálních úkonů. Zde narážíme na koncept „Human-AI Symbiosis Mode“, kde se agent má učit z vašich preferencí a postupně se stávat personalizovaným asistentem.
Tady ale nastupuje moje inženýrská skepse. Jak si poradí s nestandardní situací? Co když aplikace spadne nebo se změní její UI? Google tvrdí, že pracuje na „workflow edge handling“, což je v podstatě schopnost agenta samostatně řešit chyby. Třeba když nenajde soubor, zkusí ho vyhledat jinde. Papírově to zní skvěle, ale realita firemních procesů je často tak chaotická, že si nedovedu představit, jak by to AI zvládala bez neustálé supervize. Alespoň prozatím.
Aby to celé fungovalo, potřebujete obrovský výpočetní výkon a hlavně efektivní model. Podle všeho běží agentní funkce na nejnovějších verzích Gemini, které využívají architekturu sparse Mixture-of-Experts (MoE). Velmi zjednodušeně to znamená, že se při řešení úkolu aktivuje jen relevantní část neuronové sítě, což šetří zdroje a zrychluje komplexní uvažování. To je klíčové pro vícestupňové úlohy, které agenti řeší.
Samozřejmě, jsme na začátku. Funkce je v beta verzi, dostupná jen na nejnovějších telefonech a podporuje jen hrstku aplikací. Je to uzavřený ekosystém. Ale je to ekosystém, který se bude rozšiřovat. Zmínky o integraci s frameworky jako LangChain nebo LangGraph naznačují, že Google to myslí vážně i s komunitou vývojářů, která by mohla stavět vlastní, složitější agenty.
Není to ještě asistent z Her nebo Iron Mana. Ani zdaleka. Ale je to první reálný, funkční kus technologie, která k tomu směřuje. Potenciál není v tom, že si objednáte kávu bez rukou. Potenciál je v automatizaci nudných, repetitivních částí naší práce. A to je, myslím, něco, na co se můžeme opatrně těšit.