Microsoft zase nahání OpenClaw. Chce zkrotit AI agenty, kteří běží pod rootem

Microsoft zase nahání OpenClaw. Chce zkrotit AI agenty, kteří běží pod rootem

Microsoft znovu vstupuje do ringu s autonomními AI agenty. Cílem je vytvořit enterprise alternativu k open-source nástrojům jako OpenClaw, tentokrát s masivním důrazem na bezpečnost. Problém je totiž v tom, že současní agenti jsou z pohledu architektury noční můra.

Autonomní AI agenti jsou fascinující. A taky nebezpeční. Dát LLM možnost spouštět kód a přistupovat k systémům je jako nechat běžet každý skript s právy roota. Prostě se to nedělá. Přesto přesně takhle fungují frameworky jako OpenClaw. A Microsoft to chce změnit.

Jejich nový projekt není jen další pokus o chatbota. Je to architektonická odpověď na bezpečnostní chaos. Míří na firmy, které vidí potenciál agentů, ale děsí se představy, že jim nekontrolovatelný kód proleze interní sítě a začne exfiltrovat data.

Středobodem řešení je open-source Agent Governance Toolkit. Tohle není jen nějaký filtr. Představte si to jako specializovaný kernel nebo service mesh navržený čistě pro AI agenty. Sedí mezi mozkem agenta (LLM) a jeho rukama (systémovými API) a vynucuje pravidla.

Analogie? Je to jako hyper-paranoidní mistr na stavbě, který dohlíží na nového, extrémně schopného, ale nepředvídatelného dělníka. Dělník (agent) dostane úkol. Mistr (toolkit) má ale přesný seznam povolených nástrojů a postupů pro daný úkol. Jakmile se dělník pokusí sáhnout po kladivu na opravu hodinek, mistr ho zastaví. To je vynucování politik v praxi.

Zajímavé je, že Microsoft svůj toolkit navrhuje i pro existující agenty. Pro OpenClaw nabízí takzvaný sidecar deployment. Místo úpravy kódu samotného agenta k němu jednoduše "přilepíte" tento bezpečnostní kontejner. Agent si dál myslí, že má volnou ruku, ale veškerá jeho komunikace se světem je pod drobnohledem.

Proč by firma chtěla podstupovat tuhle námahu místo nasazení hotového Copilota? Kontrola a suverenita nad daty. Copilot je pohodlný, ale jste zamčení v M365 a cloudu Microsoftu. S vlastním agentem na bázi OpenClaw a tímto toolkitam si můžete vybrat jakýkoliv model – třeba z Azure AI Foundry – a provozovat ho na vlastní infrastruktuře.

Je to reakce na reálné hrozby. Nejde o akademické cvičení. Infostealery už dnes cílí na konfigurační soubory OpenClaw agentů. Úniky API klíčů přes prompt injection a spouštění škodlivých "dovedností" jsou běžné vektory útoku. Vrstva pro governance tak není doplněk, ale absolutní nutnost.