
Meta už nechce věřit jen datu narození, které jí napíšete. Nasazuje nový systém, který má pomocí AI analyzovat fotky a videa. Cílem je odhadnout věk uživatele na základě vizuálních znaků, jako je výška nebo stavba těla.
Každý, kdo se pohybuje v digitálním světě, ví, že ověření věku je spíš formalita. Meta to teď chce změnit a sahá po těžším kalibru. Nově nasazuje AI, která se snaží odhalit nezletilé uživatele přímo z jejich obsahu.
Jde o zásadní posun od analýzy textu nebo sociálních vazeb k přímému vizuálnímu hodnocení. Systém má procházet fotky a videa a hledat v nich znaky typické pro určitý věk.
Důležité je hned na začátku říct, co to není. Nejedná se o klasické rozpoznávání obličeje. Systém neidentifikuje, kdo jste, ale snaží se odhadnout, co jste – tedy jestli jste dospělý, nebo teenager.
Představte si to jako algoritmus, který se naučil obecné vizuální vzorce dospívání. Nezajímá ho vaše jméno, ale poměr končetin k trupu nebo jiné obecné antropometrické rysy.
Klíčovými termíny jsou „výška“ a „kostní struktura“. Zní to skoro jako ze sci-fi, ale princip je v jádru statistický. AI byla trénována na obrovském množství obrázků, aby si vytvořila pravděpodobnostní model.
Je to jako zkušený lékař, který pohledem odhadne věk pacienta s určitou přesností. AI dělá totéž, ale v masivním měřítku a na základě dat, která jí Meta poskytla. Otázkou samozřejmě zůstává, jak přesný takový odhad může být.
Tento vizuální systém nepracuje samostatně. Je součástí širší, takzvané multimodální architektury. To znamená, že AI kombinuje signály z více zdrojů, aby zvýšila přesnost svého odhadu.
Vedle analýzy fotek tak stále probíhá i vyhodnocování kontextu. Sleduje se jazyk, který uživatel používá v komentářích, témata, kterým se věnuje, nebo věk lidí, se kterými nejčastěji interaguje.
Celý proces připomíná práci detektiva. Vizuální analýza je jako ohledání místa činu. Analýza textu a sociálních vazeb se podobá výslechu svědků a prověřování alibi. Teprve spojením všech těchto stop systém dospěje k závěru.
Až když celková pravděpodobnost překročí určitou mez, systém účet označí jako podezřelý. Nejde tedy o unáhlené rozhodnutí na základě jediné fotky v plavkách.
Co se stane s označeným účtem? Nedojde k okamžitému zablokování. Systém pouze předá doporučení lidskému týmu moderátorů. Ti provedou finální kontrolu.
Tato architektura „human-in-the-loop“ (člověk v procesu) je klíčová pro snížení chybovosti. AI je tu v roli asistenta, který pro lidi třídí a připravuje podklady, ale konečné rozhodnutí zůstává na člověku.
Na papíře to zní robustně, ale realita může být složitější. Hlavní neznámou je spolehlivost a zkreslení (bias) samotného vizuálního modelu. Jak si poradí s různými etniky, tělesnými typy nebo lidmi s poruchami růstu?
Trénovací data jsou alfou a omegou. Pokud nebyla dostatečně rozmanitá, může systém v určitých skupinách generovat více falešných výsledků. A protože je model pro veřejnost černou skříňkou, jeho reálné limity ukáže až provoz.