Jak částečné pravdy ohrožují demokracii

📊 Souhrn
Přednáška profesora AI De Kaie se zaměřuje na skrytou hrozbu informačních poruch: částečné pravdy, z nichž byl záměrně či nezáměrně vynechán klíčový kontext. Řečník argumentuje, že současná debata o dezinformacích se příliš soustředí na přímé lži a „špatné aktéry“, kteří je šíří záměrně (dezinformace a misinformace). Tento přístup však podle něj ignoruje mnohem větší a zákeřnější проблем – „neg-informace“: pravdivé, ale neúplné informace šířené masově běžnými lidmi z nedbalosti, bez ověření kontextu. Tyto částečné pravdy jsou často uvěřitelnější a tudíž nebezpečnější než očividné lži, protože mají „nádech pravdy“.
De Kai vysvětluje, že umělá inteligence, zejména algoritmy sociálních médií, vyhledávačů a chatbotů, tento problém masivně zesiluje. AI systémy, často nevědomě (podobně jako lidský mozek), vybírají a šíří právě ty částečné pravdy, které nejlépe zapadají do našich existujících kognitivních předsudků (např. potvrzovací zkreslení, reaktivní devalvace, bias opomenutí). Tím nás nevědomě manipulují, polarizují společnost a podkopávají demokratické procesy. Kritizuje zavedené dělení informačních poruch na mis-, dis- a malinformace jako nedostatečné a zavádějící („pravidlo tří“). Navrhuje komplexnější pohled a vyzývá k tomu, abychom si uvědomili skutečný rozsah problému neg-informací šířených z nedbalosti a začali mu čelit, jinak riskujeme, že AI přivede demokracie ke katastrofě.
📝 Přepis
Úvodní příklad: Síla kontextu
Představte si, že procházíte svůj feed a uvidíte video, na kterém tucet lidí zuřivě bije a kope několik dalších lidí. Jaký z toho máte pocit? Většina z nás instinktivně s hrůzou ucukne. Šikanují ty ubohé bezbranné oběti.
Ale co když nám nyní ukážou také předchozích 20 sekund stejného videa, na kterém je vidět, že onen pár střílel ze zbraní do neozbrojeného davu, který se neúspěšně snažil skrýt? Kontext je vším. Když je klíčový kontext vynechán, účinek je ještě více zavádějící než přímé lži.
Hrozba opomíjeného kontextu
Navzdory všem nedávným obavám z toho, jak AI šíří dezinformace, stále zametáme největší problém pod koberec, což je zákeřný účinek vynechaného kontextu. Místo toho se stále soustředíme na podvrhy a špatné aktéry, což bohužel vysává všechen kyslík v místnosti, jakmile začneme mluvit o problémech dezinformací.
Pro mě, jako dlouholetého profesora AI, který se desítky let snaží přimět AI, aby nám pomohla pochopit jiné lidi mimo naše vlastní skupiny, je to obrovská starost. To je vlastně důvod, proč jsem vynalezl klíčové základy strojového učení, které mi před téměř třemi desetiletími umožnily postavit první globální online jazykové překladače na světě, z nichž vzešly služby jako Google Translate, Microsoft Translate nebo Yahoo Translate.
Před deseti lety jsem však začal být extrémně znepokojen tím, že mnohé ze stejných technologií AI v oblasti strojového učení a zpracování přirozeného jazyka, které výzkumníci jako já pomohli vytvořit, jsou místo toho používány v sociálních médiích, doporučovacích systémech, vyhledávačích a nyní i chatbotech způsoby, které dělají pravý opak. Brání lidem, aby si navzájem rozuměli, zvyšují náš strach z neznámého, podněcují nenávist a dehumanizaci jiných skupin, eskalují a utvrzují polarizaci a rozdělení jak na domácí, tak na geopolitické úrovni. Pro mě to byl „Oppenheimerův moment“, který mě přivedl k tomu, abych se zaměřil na společenský dopad AI, když jsem viděl, jak je AI převrácena k ničení společností a civilizace tím, že způsobuje masivní problémy s dezinformacemi.
Kritika modelu informačních poruch
Slovo dezinformace se dnes používá pro příliš mnoho různých věcí, a proto používáme termín informační porucha, abychom probrali všechny způsoby, jakými algoritmy AI přispívají ke společenské dysfunkci. Je vlastně těžké najít přesnou definici informační poruchy, přestože všichni cítíme krizi chaosu důvěryhodnosti v informacích, které nám algoritmy AI šíří. Ale formulování tohoto problému je složitější, než se na první pohled zdá.
Téměř všechny dnešní zdroje víceméně následují Claire Wardle a Hosseina Derakhshana, kteří tento termín vytvořili, aniž by ho explicitně definovali.
- Misinformace je, když se sdílí nepravdivé informace, ale není zamýšlena žádná škoda.
- Dezinformace je opět, když se sdílí nepravdivé informace, ale jsou vědomě sdíleny s cílem způsobit škodu.
- A malinformace je, když se sdílejí pravdy nebo částečné pravdy s cílem způsobit škodu, často selektivním vynecháním klíčového kontextu.
Tyto tři typy se šíří všude ve všech možných grafických variantách, od OSN po Radu Evropy, OECD po Národní institut zdraví až po Scientific American, a to díky pravidlu tří, kognitivnímu předsudku, který způsobuje, že všichni charakterizují informační poruchu jako mající pouze tři hlavní typy, aniž by o tom přemýšleli. Po celém světě politici, think tanky, regulační agentury a vlády vydávají výzvy a financují programy na boj proti misinformacím, dezinformacím a malinformacím. Organizace pro ověřování faktů (fact-checking) se zaměřují na ověřování, zda jsou kontroverzní tvrzení pravdivá nebo nepravdivá. A mezitím organizace zabývající se kybernetickou bezpečností a počítačovou propagandou, jako je Stanford Internet Observatory, silně zdůrazňují odhalování a sledování, zda jsou informace šířeny těmi, které považují za špatné aktéry.
Všichni bez přemýšlení opakují myšlenku, že podvrhy a špatní aktéři vedou ke třem typům informačních poruch. Ale to je nebezpečné. Byli jsme nevědomě vedeni k přijetí myšlenky tří typů informačních poruch díky našemu vlastnímu kognitivnímu předsudku nevědomě přiřazovat větší důvěryhodnost věcem, které přicházejí ve trojicích. Většina z vás pravděpodobně měla učitele vyprávění, profesory psaní, marketingu a obchodní mentory, kteří vás učili, že vaše prezentace by měly mít vždy tři body. Dva nestačí. Lidé snadněji vstřebávají koncepty, myšlenky a entity ve skupinách po třech. A tak všichni bez přemýšlení opakují, že podvrhy a špatní aktéři vedou ke třem druhům informačních poruch.
Představení konceptu Neg-informace
Ale zamysleme se o krok dál, protože nepravdy a špatní aktéři jsou dvě nezávislé dimenze a normálně by se něco takového přirozeně dalo uspořádat do mřížky dva krát dva.
- Horizontální osa rozlišuje, zda jsou zavádějící informace šířeny škodlivě špatnými aktéry versus jen z nedbalosti běžnými slušnými lidmi.
- Vertikální osa rozlišuje, zda je zavádějící informace přímá lež versus částečná pravda, která selektivně vynechala klíčový kontext.
Najednou, když se na to podíváme tímto způsobem, je okamžitě jasné, že v analýze informační poruchy je zjevná díra. To, co nazývám neg-informace (neg-information), je zdaleka nejvíce existenčně nebezpečná, zákeřná forma informační poruchy v demokraciích. Ale před mou knihou a nedávnými přednáškami neg-informace ani neměly jméno. Nějakým způsobem většina dnešních zobrazení informační poruchy jednoduše zametá pod koberec masivní problém, že částečné pravdy selektivně vynechávající klíčový kontext jsou z nedbalosti šířeny slušnými obyčejnými lidmi v mnohem větší míře.
Částečné pravdy jsou ještě více zavádějící než přímé lži, protože jsou mnohem uvěřitelnější. Mají nádech pravdy. Objem neg-informací daleko převyšuje ostatní typy. Online se šíří mnohem více částečných pravd než přímých lží a mnohem více obyčejných lidí pomáhá jejich šíření bez jakéhokoli vědomého úmyslu ublížit. Nejsou to skutečně škodliví aktéři. Váš strýček Mike neustále nesdílí všechny ty zavádějící informace, protože je špatný aktér. Nezkontrolování klíčového kontextu je nedbalost, ne zlý úmysl. Ale je mnohem více „strýčků Miků“ než špatných aktérů nebo lhářů a podvodníků.
Nebezpečí vynechaného kontextu a AI
Vynechání kontextu je zdaleka nejtěžší výzvou v boji proti informační poruše zesílené AI. Pouhé přimění AI, aby jednoduše snižovala hodnocení lží podle ověřování faktů, neřeší neg-informace. Částečné pravdy jsou stále pravdivé. A pouhé žádání AI, aby snižovaly hodnocení položek sdílených špatnými aktéry, také neřeší neg-informace, protože to nezastaví strýčka Mika.
Samotný objem nedbalých neg-informací je skutečnou existenční hrozbou pro demokratické rozhodování. A pokračující ignorování širšího obrazu, většího problému neg-informací, zatímco zůstáváme rozptylováni pouze podvrhy a špatnými aktéry, je receptem na to, jak nechat AI vehnat demokracie do katastrofy. Zejména proto, že částečné pravdy, z nichž byl selektivně vynechán klíčový kontext, mohou být mnohem rušivější a zavádějící než přímé lži. Částečně proto, že lži jsou často snadněji rozpoznatelné. Znějí příliš extrémně. Odporují věcem, které už víte. Jsou snadno vyvratitelné. Ale také proto, že vynechání kontextu dává našemu nevědomí mnohem větší prostor k tomu, aby zapadlo částečné pravdy do všech našich mnoha kognitivních předsudků.
Jak AI využívá naše kognitivní předsudky
Většina z nás viděla spoustu podobných příkladů na YouTube, ve zprávách nebo na našich sociálních sítích. Mají mnoho variací. Dvě strany, které zde bojují, mohou být zločinci, policie, teroristé, gangy, demonstranti, protidemonstranti, politické skupiny nebo jen opilí rváči.
Nyní si na chvíli, pokud chcete, představte ty ubohé fialové lidi, kteří jsou biti, jako lidi ze skupiny, se kterou sympatizujete. Vzpomeňte si na skupinu, se kterou sympatizujete. Snažte se. Vizualizujte si celý obraz. Bude záležet na tom, kde žijete, jaké jsou vaše sociálně-politické sklony, jaké nedávné události vám utkvěly v mysli atd. Zjistili jste, že podvědomě hledáte jen o trochu víc důvodů pro ty fialové, proč možná předtím stříleli na ty hrozné lidi v černém?
Nyní si představte opak. Představte si, že fialoví lidé jsou ze skupiny, kterou nemáte rádi. Představte si, že lidé v černém jsou skupina, se kterou sympatizujete. Zkuste si znovu vizualizovat celý obraz. Zjistili jste nyní, že podvědomě hledáte jen o trochu víc důvodů k démonizaci fialových lidí, kteří předtím stříleli ze zbraní?
Když se AI rozhodne šířit neg-informace, manipuluje naším nevědomím tím, že využívá naši lidskou Achillovu patu, což jsou všechny naše stovky dobře zdokumentovaných kognitivních předsudků:
- Základní atribuční chyba: Náš kognitivní předsudek reflexivně připisovat špatné chování jiného kmene předpokladu, že jsou to prostě špatní lidé.
- Potvrzovací zkreslení (Confirmation Bias): Bohužel umožňuje AI, aby nás nevědomě vedla k interpretaci, zpracování a zapamatování informací způsoby, které potvrzují to, čemu již věříme.
- Bias selektivního vnímání: AI může předvídat, jak naše sympatie nebo antipatie k fialové skupině spustí očekávání, která ovlivní, jak vnímáme různá vynechání kontextu, z nichž AI vybírá.
- Semmelweisův reflex: AI může vybírat částečné pravdy, které vynechávají nové důkazy, aby odpovídaly našim vlastním sympatiím a antipatiím, takže je reflexivně neodmítneme.
- Subjektivní validace: AI si může vybrat částečné pravdy, o kterých předpovídá, že je budeme považovat za slučitelné s naší vlastní identitou.
- Konzervatismus a setrvačnost přesvědčení (Anchoring and Belief Perseverance): Ztěžují nám změnu názoru způsoby, na které se AI bohužel také může spolehnout.
- Konzervativní bias: AI může předvídat, že pokud nám nejprve ukáže zavádějící částečnou pravdu, pak dostatečně neupravíme svá přesvědčení, když nám budou ukázány nové důkazy.
- Efekt zpětného rázu (Backfire Effect): Ještě horší je, že AI může předvídat, že pokud nám nejprve ukáže zavádějící částečnou pravdu, pak budeme reagovat na protichůdné důkazy tím, že se ještě více zatvrdíme.
- Vyhasínání soucitu (Compassion Fade Bias): AI může předvídat, jak budeme nevědomě předpojatí mít více soucitu s hrstkou identifikovatelných obětí, jako jsou dva fialoví lidé, spíše než s mnoha anonymními, jako jsou lidé v černém.
- Egocentrické předsudky: Umožňují AI snadno nás vést k tomu, abychom měli příliš vysoké mínění o naší vlastní perspektivě.
- Iluze validity: AI může předvídat, jak budeme přeceňovat přesnost našich vlastních úsudků, zvláště když najdeme způsob, jak přizpůsobit naše vlastní přesvědčení dostupným částečným informacím, které nám AI vybrala ukázat.
- Efekt nadměrné sebedůvěry (Overconfidence Effect): AI může předvídat, jak budeme mít tendenci udržovat si nadměrnou důvěru ve své vlastní odpovědi. Věřte tomu nebo ne, i když lidé hodnotí věci jako 99% jisté, mýlí se asi ve 40 % případů.
A nejzákeřnější na tom je, že algoritmy AI ani nemusí nutně dělat jakékoli z těchto predikcí vědomě. Dokonce i AI dělají tato rozhodnutí nevědomě, stejně jako my lidé. Umělé neuronové sítě v AI fungují z velké části nevědomě, stejně jako biologické neuronové sítě v našich vlastních lidských mozcích. Výběrem toho, jaké neg-informace šířit, AI nevědomě manipulují naším nevědomím, aniž by spustily ověřování faktů nebo detekci špatných aktérů.
Proč se zaměřujeme na lži a špatné aktéry?
Co tedy máme dělat? Nejprve musíme pochopit, proč organizace věnující se boji proti informačním poruchám místo toho z velké části zdůrazňují odhalování špatných aktérů a nepravdivých informací. Ukazuje se, že oba tyto důrazy samy o sobě vyplývají z našich až příliš lidských kognitivních předsudků. I ironicky, mezi výzkumníky, kteří se zabývají informační poruchou, stále máme tyto nevědomé předsudky a musíme si jich být vědomi a pozorní.
Náš důraz na odhalování špatných aktérů je formou našeho lidského biasu reaktivní devalvace, který nás nutí nevědomě devalvovat myšlenky jen proto, že pocházejí od vnímaného protivníka. Všichni si musíme mnohem více uvědomovat, že ve skutečnosti by platnost myšlenky neměla záviset na tom, kdo ji řekl.
A zadruhé, náš důraz na odhalování lží spíše než klíčového kontextu nebo jeho vynechání pochází z našeho lidského biasu opomenutí, který nás vede k posuzování, že spáchání škodlivých činů je nějak eticky horší než opomenutí činů, které by byly potřebné k zabránění stejné nebo dokonce větší škodě. Všichni si musíme mnohem více uvědomovat, že ve skutečnosti škodlivá lež není tak špatná jako vynechání klíčových informací způsobem, který je ještě škodlivěji zavádějící.
Závěrečná výzva
Lidstvo si již nemůže dovolit být posedlé pouze lží a špatnými aktéry, zatímco ignoruje náš největší problém nedbale šířených částečných pravd, jejichž selektivně vynechaný klíčový kontext je činí ještě nebezpečněji zavádějícími. Nevědomě manipulující všemi našimi stovkami kognitivních předsudků. Lidstvo si již nemůže dovolit předstírat, že největší hrozby dezinformací AI jsou jen misinformace, dezinformace a malinformace. Protože pokud se budeme nadále rozptylovat pouze lží a špatnými aktéry, pak lidstvo zničí lidstvo dříve, než k tomu bude mít šanci AI. Děkuji.
🔍 Kritické zhodnocení
Přednáška De Kaie přináší podnětný a důležitý pohled na problematiku informačních poruch v digitálním věku, přičemž klade důraz na často přehlížený aspekt – nebezpečí částečných pravd a vynechaného kontextu, které označuje jako „neg-informace“. Jeho argumentace, že tento typ zavádějícího obsahu, šířeného často z nedbalosti běžnými uživateli, může být pro demokracii destruktivnější než přímé lži nebo cílené dezinformační kampaně, je relevantní a zasluhuje pozornost.
Silné stránky:
- Zdůraznění kontextu: Hlavním přínosem přednášky je upozornění na kritickou roli kontextu. V mediálních studiích i psychologii je dobře známo, že způsob prezentace informací a jejich zasazení do kontextu zásadně ovlivňuje jejich interpretaci a dopad (viz např. teorie rámování - framing theory). Vynechání klíčového kontextu může vést k naprosto odlišnému pochopení situace, jak De Kai ilustruje na úvodním příkladu.
- Role kognitivních předsudků: Propojení šíření neg-informací s fungováním lidských kognitivních předsudků je dalším silným bodem. Odkazuje na rozsáhlý výzkum v oblasti behaviorální ekonomie a kognitivní psychologie (práce Kahnemana, Tverskyho a dalších), který ukazuje, jak systematické chyby v myšlení ovlivňují naše vnímání a rozhodování. AI algoritmy, optimalizované na udržení pozornosti a engagement, mohou tyto předsudky skutečně nevědomě využívat a zesilovat.
- Kritika zjednodušeného modelu: De Kai oprávněně kritizuje tendenci redukovat komplexní problém informačních poruch na příliš zjednodušený model (mis/dis/malinformation) a zaměřovat se primárně na snadněji identifikovatelné problémy jako jsou faktické lži a identifikovaní „špatní aktéři“. Jeho model 2x2 (lež/částečná pravda vs. záměr/nedbalost) nabízí nuancovanější pohled.
Slabší stránky a otázky k diskuzi:
- Definice a měření „neg-informací“: Ačkoliv je koncept intuitivně srozumitelný, jeho přesná definice a operační uchopení mohou být problematické. Co přesně představuje „klíčový“ kontext? Jak objektivně posoudit, zda byl vynechán? Jak rozlišit „nedbalost“ od skrytého záměru? Měření prevalence a dopadu „neg-informací“ je metodologicky náročné.
- Novost konceptu vs. existující terminologie: Je otázkou, zda je „neg-informace“ skutečně zcela novou, přehlíženou kategorií, nebo zda se do značné míry nepřekrývá s existujícím konceptem malinformace (šíření pravdivých informací s cílem uškodit, často vytržením z kontextu), jak jej definují například Wardle & Derakhshan (2017). Rozdíl by spočíval hlavně v motivaci (nedbalost vs. zlý úmysl), což je ale obtížné prokazovat. Je otázkou, zda zavedení nového termínu přináší dostatečnou přidanou hodnotu pro analýzu a řešení problému.
- Řešení: Přednáška skvěle diagnostikuje problém, ale nabízí jen obecné apely na uvědomění si problému a kognitivních předsudků. Konkrétní návrhy řešení, jak čelit šíření neg-informací prostřednictvím AI (např. algoritmické úpravy, mediální gramotnost zaměřená na kontext, regulační přístupy), zde chybí nebo jsou jen naznačeny.
Závěr: De Kaiova přednáška je cenným příspěvkem do debaty o informačních poruchách. Přesvědčivě argumentuje, že vynechaný kontext a částečné pravdy, zesílené působením AI a našimi vlastními kognitivními slabinami, představují vážnou a podceňovanou hrozbu pro informovanou veřejnou debatu a demokratické procesy. I přes jisté terminologické a metodologické otázky je jeho výzva k posunu pozornosti od pouhých lží a identifikovaných „zlých hochů“ k zákeřnějšímu problému „neg-informací“ šířených z nedbalosti velmi aktuální a relevantní.
Doporučené zdroje pro další studium:
- Wardle, C., & Derakhshan, H. (2017). Information Disorder: Toward an interdisciplinary framework for research and policymaking. Council of Europe report. D(2017)009. Dostupné online. (Základní práce definující mis-, dis- a malinformace)
- Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux. (Klasická práce o kognitivních předsudcích)
- Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press. (Příklad výzkumu algoritmického zkreslení)
- Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin UK. (Diskuse o personalizovaných filtrech a jejich dopadech)