Rizika spojená s používáním chatbotů AI v každodenním životě

V současnosti roste počet lidí, kteří se spoléhají na ChatGPT a další AI chatboty, jako jsou Gemini, Copilot a Claude, v každodenním životě. Podle nedávného průzkumu Centra „Imagining the Digital Future“ na Elon University, polovina Američanů nyní používá tyto technologie.

„Adopce a využívání velkých jazykových modelů (LLM) je ohromující,“ uvedl Lee Rainie, ředitel centra, ve vyjádření univerzity. „Jsem zejména ohromen tím, jak se tato nástroje stávají součástí společenského života lidí.“

Ačkoli mohou být tyto nástroje užitečné při psaní e-mailů nebo přípravě otázek na lékařskou konzultaci, je vhodné být opatrný ohledně informací, které sdílíte.

Nedávná studie Stanfordského institutu pro lidsky orientovanou AI ukazuje, že všech šest velkých systémů AI, které byly analyzovány (ChatGPT, Gemini, Claude, Nova, MetaAI a Copilot), využívají rozhovory uživatelů pro „trénink a zlepšování modelů“ a že „některé uchovávají tato data bez časového omezení.“

Odborník na kybernetickou bezpečnost George Kamide vysvětluje: „Mnoho uživatelů podceňuje, kolik z toho, co sdílí s AI chatbotem, může být uchováváno, analyzováno a znovu využíváno. Rozhovory mohou přímo nebo nepřímo přispívat k budoucímu chování modelu. Pokud obsahují osobní, citlivé nebo důvěrné údaje, mohou se dostat do datové sady, která není pod kontrolou uživatele. Data představují největší hodnotu, kterou mohou AI společnosti od nás získat.“

Typy informací, které byste neměli sdílet

  • Jméno, adresa, telefonní číslo, státní identifikační čísla (pas, řidičský průkaz).
  • Rizika: krádež identity, phishing, prodej dat.

Soubor nahraný s vaším dotazem může být použit pro trénink modelu. Chatbot nabízí nepravdivý pocit bezpečí, který může povzbudit k odhalování informací. Myšlenky, chování, duševní stav nebo vztahy nejsou zákonně chráněny a mohou být použity jako důkazy před soudem.

1 z 6 dospělých používá AI chatboty alespoň jednou měsíčně pro získání lékařských informací. Rizika: důvěrnost a přesnost. Většina chatbotů nesplňuje právní normy na ochranu zdravotních údajů. Vyhýbejte se zadávání podrobností z lékařských záznamů. Neposkytujte interní údaje, zprávy, zdrojový kód nebo chráněné informace. I jediný dotaz obsahující citlivé údaje může představovat porušení smlouvy nebo předpisu.

Další citlivé informace

  • Mzdy, bankovní účty, platební karty, daňová přiznání.
  • Rizika: vydírání, podvod nebo útoky.

Údaje použité k tréninku modelu nelze stáhnout. Smažte historii konverzací, abyste snížili riziko v případě kompromitace účtu. Zacházejte s AI konverzacemi jako s polo veřejnými prostory, nikoli jako s osobními deníky. Buďte minimalističtí a promyšlení v tom, co sdílíte: zeptejte se sami sebe „Cítil bych se dobře, kdyby to někdo viděl v rodinném nebo pracovním chatu?“

Ajustujte nastavení ochrany soukromí: deaktivujte historii konverzací nebo se rozhodněte, že nebudete používat data k tréninku modelu. Používejte pseudonymy a generalizovaný jazyk ve svých dotazech, abyste chránili svou identitu, uvádí huffpost.com.