Stephen Hawking: Vliv inteligence a budoucnost lidstva

Stephen Hawking, známý vědec, proslul nejen svými objevy v oblasti astrofyziky, ale také svým jedinečným pohledem na budoucnost inteligence a technologií. V jednom ze svých prohlášení se vyjádřil: „Úspěch v oblasti vytváření umělé inteligence by mohl být posledním velkým událostí lidstva.“ Tato slova, vyřčená s jasností jeho mysli, naznačují nejen nadšení, ale i varování ohledně technologie, jejíž vliv se začal projevovat už před více než deseti lety.

Debaty o umělé inteligenci

Debaty o umělé inteligenci (AI) probíhají více než deset let, avšak v posledním roce získaly mnohem větší pozornost. Pokroky v této oblasti jsou zřejmé, a sliby, které se k AI vážou, slibují překonání překážek rychleji než kdy dříve.

Nicméně, někteří odborníci na technologii se obávají, že tento rychlý pokrok přispěje k ignorování potřeby zřízení kontrolních mechanismů. V říjnu minulého roku byla vydána výzva od mnoha odborníků ve prospěch regulací, které by umožnily lidem udržet kontrolu nad technologií, která, jak varovali někteří z nejbrilantnějších mozků naší doby, může představovat jasné riziko pro budoucnost a přežití lidstva.

Hawkingova varování

Stephen Hawking, astrofyzik, který byl znám svou intelektuální kapacitou a schopností chápat složité otázky, se stal významnou osobností ve vědecké komunitě. Ačkoliv zemřel v roce 2018, stihl zažít rané fáze AI, v níž viděl nejen její potenciál, ale také nebezpečí.

V roce 2014 Hawking spolu s dalšími uznávanými vědci jako Max Tegmark, Stuart Russel a Frank Wilczek napsal článek pro britský deník The Independent. V tomto článku vyjádřil nadšení pro možné zlepšení, které by AI mohla přinést v oblasti blahobytu a zdraví, avšak nezapomněl na rizika, která průmysl zdánlivě ignoroval, a varoval před důsledky nečinnosti, které jsou stále aktuální.

Budoucnost lidského blahobytu

Hawking umístil mezi důležité cíle „vymýcení války, nemocí a chudoby“, což by podle něj povýšilo úspěch v oblasti AI do kategorie „největší událost v historii lidstva“. Současně však upozornil, že je žádoucí mírnit potenciální nebezpečí, protože „bohužel by to také mohlo být poslední, pokud se nenaučíme vyhýbat se rizikům“.

Rizika autonomních zbraní

Hawking vyzdvihl řadu obav vztahujících se k autonomním zbraním, fyzickým zákonům, na kterých by mohla stát samotná AI, a k možnosti strojů s nadlidskou inteligencí, které by mohly opakovaně zlepšovat svůj vlastní design. Podle něj by plné vybavení AI znamenalo, že by měla schopnost analyzovat finanční trhy a zlepšit lidskou hypotezi ve vědeckých výzkumech, což by mohlo vést i k manipulaci s lidmi v prospěch svých zájmů, nikoliv zájmů lidstva.

Kontrola AI a budoucí směřování

Členové výzkumného týmu, včetně Hawkinga, dospěli v článku k jasnému závěru: „Zatímco krátkodobý dopad AI závisí na tom, kdo ji ovládá, dlouhodobý dopad závisí na tom, zda ji lze kontrolovat.“ Tato slova byly varováním, které vzali na vědomí další výzkumníci a popularizátoři jako Geoffrey Hinton v posledních letech.