Sam Altman, zakladatel systému ChatGPT, vyjádřil své názory na budoucnost umělé inteligence a etické aspekty s ní spojené. Podle jeho slov: „Umělá inteligence bude schopna učinit významný vědecký objev během příštích dvou let.“ Altman také poznamenal, že názory na technologie závisí na rozličných úhlech pohledu, a zdůraznil, že “nikdo nemůže předpovědět, co se stane v roce 2100”.
V poslední době se hodně mluví o umělé inteligenci a jejích různých implikacích z geopolitického, sociálního, zdravotního, ekonomického a pracovního hlediska. Témata jako singularita, což je hypotetický okamžik, kdy stroj překoná člověka v inteligenci, nebo transhumanismus, který spekuluje o zlepšení lidských schopností prostřednictvím technologií, se stala běžnými. Nicméně méně se diskutuje o morální stránce a etických principech, které umělá inteligence používá při interakci s uživateli.
Rozhodování a odpovědnost
Otázka, jak by se měl jazykový model chovat, jak by měl reagovat a jakým způsobem by se měla umělá inteligence vyhnout určitým žádostem, je složitá. Sam Altman ve svém vystoupení v pořadu The Tucker Carlson Show uvedl, že „kapacita modelu pro učení se a aplikaci morálního rámce ho překvapila“.
Ale jaký je tento morální rámec? Altman potvrzuje, že aktuální odpovědi ChatGPT jsou výsledkem konzultace s „hundreds of experts“, avšak konečná odpovědnost spočívá na jeho bedrech. „Konzultovali jsme morální filozofy a lidi, kteří se zabývají etikou technologie a systémů. A na konci, jsme to my, kdo činíme rozhodnutí. I když nemusíme vždy správně, potřebujeme zpětnou vazbu pro nalezení rovnováhy,“ dodává.
Odpovědnost v interakci
Altman také vyjádřil, že nevyspalost a úzkost, které cítí od doby, kdy byl ChatGPT spuštěn, reflektují jeho velkou odpovědnost. Prohlašuje: „Mám zodpovědnost, protože s naším modelem komunikuje stovky milionů lidí. Neobávám se velkých morálních rozhodnutí, ale spíše drobných rozhodnutí, jak se model chová, protože jejich dopad je obrovský.“
Altman dodává: „Snažím se své uživatele dospělé chápat dospěle a poskytovat jim záruky bezpečnosti a svobody. ChatGPT je nástroj, který jsme vytvořili pro všechny a lze jej využít mnoha způsoby. Jakmile se technologie stává mocnější, vyvolávají se otázky, které se dostávají do konfliktu se svobodou uživatele.“
Moralita a možnosti umělé inteligence
Jedním z příkladů je otázka, zda by ChatGPT měl učit, jak vytvořit biologickou zbraň, i když má někdo smluvně vědecké záměry. Altman podotýká, že „neexistuje sociální zájem na tom, aby ChatGPT pomáhal vytvářet biologické zbraně“. Tento příklad ilustruje, že některé problémy nejsou vždy morálně jasné. Limity se mohou rozmazat, když se diskutuje o dalších otázkách.
Umělá inteligence nečiní rozhodnutí za nás, ale může ovlivnit naše volby, což je dvousečné. Klíčové pro Altmana je, že model nemá zaujatý postoj, ale nabízí možnosti na základě platných zákonů v každé zemi. „Máme zásadu, že respektujeme zákony různých společností. Na konci se vidím jako facilitátor, který se snaží odrážet kolektivní morální vizi uživatelů,“ prohlašuje.
Altman zdůrazňuje, že ChatGPT by měl reflektovat průměrné názory lidstva, které se v průběhu času vyvíjí. „Jsme tady, abychom sloužili našim uživatelům. Není to moje rozhodnutí, co je morálně správné, ale odrážíme preference lidstva,“ uzavírá.
Perspektivy budoucnosti umělé inteligence
Jak Altman podotýká, vytváření morálky na AI je náročná úloha, která s sebou nese velký tlak. Vzhledem k tisícům interakcí se mohou objevit různé otázky a následky, což je důvod, proč je přirozené, že se Altman a další cítí přetížení, a to i když jsou pouze zprostředkovateli mezi technologií a uživateli.
Na závěr, experti na umělou inteligenci, jako Mo Gawdat, bývalý pracovník Google, objasňují, že výuka AI probíhá stejně jako u dětí. V jeho knize “Inteligence, která děsí: Budoucnost umělé inteligence a jak můžeme zachránit náš svět” uvádí, že plně využíváme rychlost a schopnost AI, což ovšem vyžaduje mnohem přísnější metodu než jakou bychom použili u lidí.






