Studie odhalující omezení umělé inteligence

Nový výzkum tvrdí, že prokázal matematicky, že agenti umělé inteligence (AI) mají základní omezení. Tato studie naznačuje, že jazykové modely jsou z podstaty neschopné vykonávat výpočtové úkoly nad určitou úroveň složitosti.

Studie, která zpomalila nadšení pro AI

Studie, která byla zveřejněna před několika měsíci, ale nedávno se dostala do popředí díky článku v časopise Wired, dokazuje, že velké jazykové modely (LLM) „není schopné vykonávat výpočtové a agentní úkoly nad určitou úroveň složitosti“. Klíčovým bodem je, že tato úroveň složitosti je ve skutečnosti poměrně nízká.

Článek, který si ještě vyžaduje recenzi od odborníků, napsal Vishal Sikka, bývalý CTO německého softwarového giganta SAP, spolu se svým synem Varinem Sikkou. Vishal Sikka má hluboké znalosti v této oblasti; byl studentem Johna McCarthyho, nositele Turingovy ceny, který založil oblast AI a pomáhal s vytvářením samotného termínu.

Nepřesnosti nelze ignorovat

Vishal Sikka v rozhovoru pro Wired uvedl: „Nemáme způsob, jak být spolehliví.“ Když se ho dotazoval novinář, Sikka souhlasil, že bychom měli zapomenout na nejodvážnější sliby, jako jsou agenti AI spravující jaderné elektrárny, které častěji propagují technologičtí nadšenci.

Konec snu o autonomních agentech?

Pokud ignorujeme rétoriku, kterou technologičtí CEO prezentují na pódiích, a zaměříme se na objevované poznatky od výzkumníků, kteří pro ně pracují, zjistíme, že i samotný průmysl AI souhlasí, že technologie má fundamentalní omezení ve své architektuře.

Napríklad v září vědci z OpenAI přiznali, že „halucinace“ AI – což je situace, kdy LLM vymýšlí fakta s jistotou – nadále představují široce rozšířený problém, i v těch nejpokročilejších systémech, a že přesnost modelů „nikdy“ nedosáhne 100%.

Tato realita vážně zpochybňuje životaschopnost takzvaných agentů AI, kteří jsou navrženi k vykonávání úkolů autonomně, bez lidského zásahu, a kteří byli průmyslem zvoleni jako jejich další velká sázka minulý rok. Některé firmy, které zavedly agenty AI s cílem snížit pracovní sílu, rychle zjistily, že tito agenti nejsou dostatečně kvalitní na to, aby nahradili lidi, možná kvůli častým halucinacím, které ztěžují plnění úkolů, které měly provést.

Naděje na hybridní systémy

Průmysloví lídři v AI trvají na tom, že zavedení robustnějších ochranných mechanismů, které jsou externí k modelům AI, může filtrovat halucinace. I když mohou modely stále mít tendenci k chybám, pokud jsou tyto prohřešky dostatečně vzácné, mohou se firmy nakonec spolehnout na agenti AI, aby vykonávali úkoly, které předtím delegovaly lidem.

Ve stejném článku, kde vědci z OpenAI přiznali, že modely nikdy nedosáhnou dokonalé přesnosti, také zamítli myšlenku, že halucinace jsou „nevyhnutelné“, argumentujíc, že LLM „se mohou zdržet, když nejsou si jisty“.

Navzdory přesvědčení, že LLM mají nepřekonatelný limit kapacity, Sikka souhlasí s osobnostmi v průmyslu, které tvrdí, že halucinace mohou být kontrolovány. „Náš článek tvrdí, že čisté LLM má toto vnitřní omezení – ale zároveň je pravda, že je možné vybudovat komponenty kolem LLM, které toto omezení překonávají,“ vysvětlil pro Wired.

Další informace také: