Co v článku najdete
- Když se zdrojem pomluvy stane AI
- Reálné příklady pomluvy generované umělou inteligencí
- Vykonstruované příběhy a skutečné škody
- Zlepšení a přetrvávající výzvy
- Právní odpovědnost
- Rostoucí role AI v řízení pověsti
- Co lze dělat s pomluvou generovanou AI?
- Meta Llama
- ChatGPT
- AI Overviews a Gemini
- Bing AI Overview a Microsoft Copilot
- Perplexity
- Grok AI
- Další způsoby, jak řešit poškození pověsti způsobené AI
- Odstranit negativní obsah ze zdrojových stránek
- Zalít AI pozitivními a neutrálními informacemi
- Potlačit negativní informace ve výsledcích vyhledávání
- Zamaskovat informace vytvářením osob se stejným jménem
- Staré zákony, nová rizika
Jak se generativní AI stále více začleňuje do vyhledávání a obsahových platforem, zároveň se stává novým zdrojem dezinformací a reputačních škod.
Nepravdivá či zavádějící tvrzení generovaná AI chatboty už vedou k právním sporům – a otevírají nové otázky ohledně odpovědnosti, přesnosti a správy online reputace.
Když se zdrojem pomluvy stane AI
Není překvapivé, že se AI stala novým zdrojem pomluv a poškození online pověsti. Dokonce již existují soudní spory, v nichž AI systémy vytvořily hanlivá a pomlouvačná tvrzení. Je to ale neprobádaná oblast – a přestože se začínají objevovat řešení, velká část zůstává úplně nová a neznámá.
Reálné příklady pomluvy generované umělou inteligencí
V jednom případě Llama AI společnosti Meta vygenerovala nepravdivá, zavádějící a pomlouvačná tvrzení o významné osobě. Počáteční průzkum ukázal, že tato osoba byla v minulosti účastníkem – a vítězem – soudních sporů týkajících se pomluvy, o kterých informovala média. Někteří odpůrci také danou osobu online kritizovali a diskuse obsahovaly nepřesný a vyhrocený jazyk.
Když však byla AI dotázána na tuto osobu nebo její pověst, opakovala již vyvrácená tvrzení, přidávala nová varování a vykreslovala ji jako podvodnou a nedůvěryhodnou.
V jiném případě, kdy byla osoba terčem pomlouvačných blogových příspěvků, zjistila, že téměř jakýkoli dotaz na ni v ChatGPT vyvolal stejné nepravdivé tvrzení.
Hlavní obava: I když soud nařídí odstranění původních příspěvků, jak dlouho mohou tato pomlouvačná tvrzení přetrvávat v odpovědích AI?
Google Trends ukazuje významný nárůst vyhledávání týkajících se pomluv šířených přes AI chatboty a online správy reputace související s AI.
Vykonstruované příběhy a skutečné škody
V jiných případech, které vyšly najevo díky soudním podáním, generativní AI zjevně zcela z ničeho vytvořila nepravdivý a škodlivý obsah o lidech. V jednom případě AI mylně uvedla, že určitá osoba byla obviněna ze sexuálního obtěžování – tvrzení, které nikdy nepadlo, údajně během cesty, která se nikdy neuskutečnila, na pracovišti, kde tato osoba nikdy nepůsobila. Jako zdroj uvedla článek, který ve skutečnosti nikdy neexistoval.
V jiném případě se objevila žaloba poté, co AI nepravdivě tvrdila, že dotyčný člověk si odpykává doživotní trest za vícečetná odsouzení a popsala ho jako pachatele několika vražd. Žaloba dále uvádí, že tato tvrzení mohly vidět desítky milionů uživatelů vyhledávání.
Generativní AI může vytvářet smyšlené příběhy o lidech – to je právě ta „generativní“ část generativní umělé inteligence.
Po obdržení dotazu chatbot analyzuje vstup a vytváří odpověď na základě vzorů naučených z rozsáhlých textových dat. Není tedy překvapivé, že odpovědi AI někdy obsahují nepravdivý či pomlouvačný obsah o jednotlivcích.
Zlepšení a přetrvávající výzvy
Za poslední dva roky se AI chatboti zlepšili ve zpracování životopisných informací o jednotlivcích.
Zdá se, že nejvýznamnější společnosti vyvíjející chatboty se zaměřily na vylepšení systémů tak, aby lépe zvládaly dotazy týkající se lidí a vlastních jmen.
Výsledkem je, že tvorba nepravdivých informací – tedy halucinací – o jednotlivcích výrazně poklesla.
Poskytovatelé AI chatů také začali do odpovědí o biografických údajích a pověsti osob začleňovat více upozornění a sdělení.
Ta často zahrnují prohlášení o:
- omezených informacích,
- nejistotě ohledně identity osoby,
- absenci nezávislého ověření.
Není jasné, nakolik taková upozornění skutečně chrání před nepravdivými či škodlivými tvrzeními, ale rozhodně jsou lepší než žádné varování.
V jednom případě, kdy byl klient údajně pomluven AI systémem, právní zástupce kontaktoval společnost přímo. Podle dostupných informací firma reagovala rychle a problém vyřešila – údajně dokonce nabídla omluvu, což je v oblasti firemní občanské odpovědnosti velmi neobvyklé.
V této fázi nepředstavují největší reputační rizika z AI úplné výmysly.
Vážnější hrozby vyplývají z toho, že AI systémy:
- nesprávně interpretují zdrojové materiály a docházejí k nepřesným závěrům,
- opakují pomlouvačná tvrzení jiných
- a zveličují nebo zkreslují pravdivá fakta zavádějícím způsobem.
Právní odpovědnost
Protože se právo týkající se pomluvy generované umělou inteligencí stále rychle vyvíjí, existuje jen málo právních precedentů, které by určovaly, jak velkou odpovědnost mohou nést společnosti za pomlouvačná tvrzení vytvořená jejich AI chatboty.
Pokud jsou online platformy do značné míry imunní vůči žalobám z pomluvy za obsah třetích stran, který hostují, pak by AI systémy měly být podobně chráněny, jelikož jejich výstupy vycházejí z obsahu třetích stran.
Rostoucí role AI v řízení pověsti
Stále větší význam odpovědí generovaných umělou inteligencí – například funkcí AI Overviews od Googlu – způsobuje, že informace o původu a pověsti lidí jsou viditelnější a mají větší vliv.
Jak se tyto systémy stávají přesnějšími a spolehlivějšími, není přehnané říci, že veřejnost bude více nakloněna věřit tomu, co AI o někom tvrdí – i když jsou tyto informace nepravdivé, zavádějící nebo pomlouvačné.
AI také hraje stále větší roli při prověřování osob.
Například Checkr vyvinul vlastní AI, která vyhledává a zobrazuje potenciálně negativní či pomlouvačné informace o jednotlivcích – zjištění, která mohou omezit pracovní příležitosti lidí ve firmách využívajících tuto službu.
Zatímco významní poskytovatelé AI, jako jsou Google, OpenAI, Microsoft a Meta, zavedli ochranné mechanismy s cílem omezit šíření pomluv, služby jako Checkr pravděpodobně méně často uvádějí upozornění či výhrady.
Jakýkoli pomlouvačný obsah generovaný těmito systémy tak může snadno zůstat bez povšimnutí těmi, kterých se týká.
V současnosti AI nejčastěji vytváří pomlouvačná tvrzení tehdy, když na webu již existují pomlouvačné stránky nebo dokumenty.
Odstranění těchto zdrojových materiálů obvykle opraví či eliminuje nepravdivé informace ve výstupech AI.
S tím, jak si AI systémy stále častěji „pamatují“ předchozí odpovědi – nebo ukládají informace do mezipaměti kvůli úspoře výpočetních zdrojů – však nemusí být odstranění původních zdrojů do budoucna dostačující k úplnému odstranění pomlouvačných nebo chybných tvrzení z odpovědí generovaných AI.
Co lze dělat s pomluvou generovanou AI?
Jedním ze způsobů, jak řešit pomluvu objevující se na platformách AI, je požádat přímo tyto systémy, aby opravily nebo odstranily nepravdivá a škodlivá tvrzení o vás.
Jak bylo zmíněno výše, některé platformy – například Meta – již podnikly kroky k odstranění obsahu, který se jevil jako pomlouvačný.
(Ironií je, že může být nyní snazší přimět Metu, aby odstranila škodlivý obsah ze svého systému Llama AI, než aby jej odstranila z Facebooku.)
Tyto společnosti mohou být vstřícnější, pokud žádost pochází od právního zástupce, ačkoli se zdá, že jsou ochotny jednat i na základě oznámení podaných jednotlivci.
Zde je postup, jak kontaktovat jednotlivé hlavní poskytovatele AI a požádat o odstranění pomlouvačného obsahu:
Meta Llama
Použijte Llama Developer Feedback Form nebo napište na LlamaUseReport@meta.com a nahlaste či požádejte o odstranění nepravdivého nebo pomlouvačného obsahu.
ChatGPT
V ChatGPT můžete problémový obsah nahlásit přímo v rozhraní chatu.
- Na počítači klikněte na tři tečky v pravém horním rohu a z nabídky vyberte Report (Nahlásit).
- Na mobilu nebo jiných zařízeních se tato volba může zobrazit v jiném menu.
AI Overviews a Gemini
Existují dva způsoby, jak nahlásit obsah Googlu.
Můžete nahlásit obsah z právních důvodů.
(Klikněte na Zobrazit další možnosti, abyste vybrali Gemini, nebo v desktopovém rozhraní Gemini použijte tři tečky pod odpovědí.)
Google však tímto způsobem obsah obvykle neodstraňuje, pokud nepředložíte soudní příkaz, protože nemůže sám posoudit, zda je materiál pomlouvačný.
Alternativně můžete poslat zpětnou vazbu přímo.
U AI Overviews klikněte na tři tečky vpravo u výsledku a zvolte Feedback (Zpětná vazba).
V Gemini klikněte na ikonu palec dolů a vyplňte formulář.
Tento přístup může trvat déle, ale Google v minulosti snížil viditelnost škodlivých nebo zavádějících informací pomocí mírného potlačení – podobně jako u funkce Autocomplete.
Při zasílání zpětné vazby vysvětlete, že:
- Nejste veřejně známou osobou.
- AI Overview nespravedlivě zdůrazňuje negativní obsah.
- Uvítali byste, kdyby Google omezil jeho zobrazování, i když zdrojové stránky zůstanou online.
Bing AI Overview a Microsoft Copilot
Stejně jako u Googlu můžete buď zaslat zpětnou vazbu, nebo nahlásit problém.
- Ve výsledcích vyhledávání Bing klikněte na ikonu palce dolů pod AI Overview, abyste zahájili proces zpětné vazby.
- V rozhraní chatbota Copilot klikněte na ikonu palce dolů pod odpovědí generovanou AI.
Při zasílání zpětné vazby jasně – a zdvořile – popište, proč je obsah o vás nepřesný nebo škodlivý.
Pro právní žádosti o odstranění použijte Microsoft Report a Concern form.
Tento postup však pravděpodobně nebude úspěšný bez soudního příkazu, který by obsah označil za nelegální nebo pomlouvačný.
Perplexity
Chcete-li požádat o odstranění informací o sobě z Perplexity AI, pošlete e-mail na support@perplexity.ai s příslušnými údaji.
Grok AI
V Grok můžete nahlásit problém kliknutím na tři tečky pod odpovědí. Právní záležitosti lze také nahlásit prostřednictvím xAI.
Podle zásad ochrany soukromí xAI je třeba zmínit následující:
„Vezměte prosím na vědomí, že nemůžeme zaručit faktickou přesnost výstupů našich modelů. Pokud výstupy obsahují fakticky nepřesné osobní informace o vás, můžete podat žádost o opravu a my učiníme rozumné kroky k opravě těchto informací – ale vzhledem k technické složitosti našich modelů nemusí být realizace vždy možná.“
Pro podání žádosti o opravu navštivte: https://xai-privacy.relyance.ai/.
Další způsoby, jak řešit poškození pověsti způsobené AI
Pokud kontaktování poskytovatelů AI problém plně nevyřeší, existují i další kroky, kterými můžete omezit nebo zmírnit šíření nepravdivých či škodlivých informací.
Odstranit negativní obsah ze zdrojových stránek
Kromě stále méně častých případů pomlouvačných nebo škodlivých tvrzení generovaných AI halucinacemi je většina škodlivého obsahu shromažďována nebo shrnována z existujících online zdrojů.
Snažte se tyto zdroje odstranit nebo upravit, aby bylo méně pravděpodobné, že je AI použije ve svých odpovědích.
Přesvědčování je prvním krokem, pokud je to možné. Například:
- Přidat do článku poznámku o faktických chybách.
- Uvést, že soud označil obsah za nepravdivý nebo pomlouvačný.
To může aktivovat ochranné mechanismy AI, které zabrání opakování materiálu.
Také výhrady nebo stažení obsahu mohou zabránit AI systémům reprodukovat negativní informace.
Zalít AI pozitivními a neutrálními informacemi
Důkazy naznačují, že AI je ovlivňována množstvím konzistentních informací, které jsou k dispozici.
Publikování dostatečného množství přesného, pozitivního nebo neutrálního materiálu o osobě může změnit to, co AI považuje za spolehlivé.
Pokud většina zdrojů odráží stejné biografické údaje, AI modely mohou těmto informacím dávat přednost před izolovanými negativními tvrzeními.
Nový obsah však musí být zveřejněn na důvěryhodných stránkách, které mají stejnou nebo vyšší autoritu než stránky, kde byl negativní materiál publikován – což je výzva, pokud škodlivý obsah pochází z hlavních zpravodajských portálů, vládních webů nebo jiných důvěryhodných domén.
Potlačit negativní informace ve výsledcích vyhledávání
Hlavní AI chatboti získávají část svých informací z vyhledávačů.
Na základě mých testů určuje složitost dotazu, kolik výsledků může AI při odpovědi využít – od prvních 10 položek až po několik desítek nebo více.
Z toho plyne jasný závěr: pokud dokážete posunout negativní výsledky níže ve vyhledávání – mimo oblast, kterou AI typicky prohlíží – je méně pravděpodobné, že se tyto položky objeví v odpovědích generovaných AI.
To je klasická metoda správy online reputace (ORM): využití standardních SEO technik a sítě online aktiv k potlačení negativního obsahu ve výsledcích vyhledávání.
AI však přidala novou vrstvu obtížnosti.
Odborníci na ORM nyní musí zjistit, jak hluboko každý AI model prohledává výsledky při odpovídání na dotazy o osobě nebo tématu.
Teprve poté mohou určit, jak daleko je nutné negativní výsledky posunout, aby se „vyčistily“ odpovědi AI.
V minulosti stačilo posunout negativní obsah mimo první jednu nebo dvě stránky výsledků vyhledávání, aby jeho dopad byl přibližně o 99 % eliminován.
Dnes to často nestačí.
AI systémy mohou čerpat z mnohem hlubších částí indexu vyhledávání – což znamená, že odborníci na ORM musí potlačit škodlivý obsah napříč širším rozsahem stránek a souvisejících dotazů.
Protože AI může při tvorbě odpovědí provádět více sémanticky souvisejících vyhledávání, je nezbytné testovat různé kombinace klíčových slov a odstranit negativní položky ze všech relevantních SERP.
Zamaskovat informace vytvářením osob se stejným jménem
Používání osob, které „náhodou“ sdílejí stejné jméno jako někdo s problémy s reputací, bylo dlouhodobě příležitostnou strategií jako poslední možnost.
Je to nejrelevantnější pro jednotlivce, kteří se necítí pohodlně při tvorbě dalšího online obsahu o sobě – i když by to mohlo pomoci zmírnit nespravedlivý, zavádějící nebo pomlouvačný obsah.
Ironií je, že právě tato zdrženlivost často problém zhoršuje: slabá online přítomnost usnadňuje poškození reputace.
Když jméno sdílí více osob, AI chatboti se zdají opatrnější a často se vyhýbají konkrétním tvrzením, pokud nemohou určit, na koho se informace vztahuje.
Tento jev lze využít.
Vytvořením několika dobře propracovaných online osob se stejným jménem – včetně legitimně působících digitálních stop – je možné AI zmást a snížit jistotu, na kterou osobu se informace vztahuje.
Tato nejistota může zabránit AI v zobrazování nebo opakování pomlouvačného obsahu.
Tato metoda však není bez komplikací.
Lidé stále častěji používají jak AI, tak tradiční vyhledávače k nalezení osobních informací, takže přidávání nových identit může způsobit zmatek nebo nechtěné odhalení.
Staré zákony, nová rizika
K omezení škod způsobených pomluvou související s AI může být nezbytný hybridní přístup kombinující výše popsané metody.
Některé formy pomluvy byly vždy obtížně – a někdy nemožně – řešitelné soudní cestou.
Soudní spory jsou navíc nákladné a mohou trvat měsíce či roky, než přinesou úlevu.
V některých případech je podání žaloby dále komplikováno profesními nebo právními omezeními.
Například lékař, který by chtěl žalovat pacienta za pomlouvačná tvrzení, by mohl porušit HIPAA zveřejněním identifikačních údajů, a právníci mohou čelit podobným problémům podle etických pravidel svých advokátních komor.
Existuje také riziko, že pomluva dlouho ukrytá ve výsledcích vyhledávání – nebo zablokovaná soudními lhůtami – se náhle objeví prostřednictvím odpovědí AI chatbotů.
To by mohlo vést k zajímavé judikatuře, která by mohla tvrdit, že odpověď generovaná AI představuje „nové zveřejnění“ pomlouvačného obsahu, čímž by se mohly znovu spustit lhůty pro takové nároky.
Dalším možným řešením, byť vzdáleným, by bylo prosazování nových zákonů, které by chránily jednotlivce před negativními či nepravdivými informacemi šířenými prostřednictvím AI systémů.
Jiné regiony, například Evropa, zavedly zákony na ochranu soukromí, včetně „práva být zapomenut“, které dávají jednotlivcům větší kontrolu nad jejich osobními údaji.
Podobná ochrana by byla hodnotná i ve Spojených státech, avšak je nepravděpodobná vzhledem k trvalé síle sekce 230, která stále chrání velké technologické společnosti před odpovědností za obsah online.
Poškození pověsti způsobené AI zůstává rychle se vyvíjejícím polem – z hlediska práva, technologií i strategie.
Očekávejte další vývoj, jak se soudy, zákonodárci a technologové budou i nadále zabývat touto vznikající oblastí.
Zdroj: searchengineland.com, searchenginejournal.com, marketingland.com, facebook.com, cpcstrategy.com
Autor: Vlastimil Malík
Foto zdroj: AI, pixabay.com