Evoluce AI – Jak můžeme vyřešit problém důvěry

Evoluce AI – Jak můžeme vyřešit problém důvěry

📊 Souhrn

Matt Kuperholz se ve své přednášce zaměřuje na evoluci umělé inteligence (AI) a na výzvy, kterým čelíme při optimalizaci této technologie pro lidstvo. Zdůrazňuje, že AI by neměla být definována antropocentricky, ale teleonomicky – jako něco, co usiluje o cíl s využitím výměny informací. Klíčovým problémem je ztráta kontroly a důvěry, protože nerozumíme přesně, jak AI funguje. To vede k výzvám v oblasti sladění cílů AI s lidskými cíli a v rozlišování mezi informacemi generovanými lidmi a stroji.

Kuperholz navrhuje řešení zvané MORE (Machine or Human), což je neziskový open-source standard pro označování obsahu jako strojově nebo lidsky generovaného. Cílem je obnovit důvěru v digitální obsah pomocí tagů, které budou obsahovat metadata o původu, autenticitě a dodržování standardů odpovědné AI. Tyto tagy, podobné nutričním etiketám na potravinách, by pomohly lidem a strojům lépe rozlišovat mezi důvěryhodnými a nedůvěryhodnými informacemi.

📝 Přepis

Ahoj, já jsem Matt. Myslím si, že je jasné, když někdo píše své jméno se znakem @, že je pravděpodobně docela vážný počítačový nerd. A já mám hluboký a smysluplný vztah s počítači od konce 70. let a používám AI téměř každý den, se zlobou i s láskou, od konce 90. let. Jsem tu, abych vám pověděl o evoluci AI, o některých výzvách, kterým čelíme, abychom optimalizovali tuto úžasnou technologii pro lidstvo, a předložím řešení, jak můžeme udělat víc pro to, abychom se těmto výzvám postavili. Malá nápověda. Řešení se jmenuje MORE.

Definice umělé inteligence

Jednou z obtíží při hovoru o AI je, že je definována mnoha různými způsoby, a často jsou tyto definice antropocentrické. Jde o to, aby počítače dělaly věci jako lidé. Místo toho začněme s inteligencí a vezměme si takzvanou teleonomickou definici, která odstraňuje myšlenku vědomí a místo toho říká, že inteligence je cokoli, co usiluje o cíl s využitím výměny informací. Takže AI je jednoduše něco, co usiluje o cíl s výměnou informací uměle.

Evoluce inteligence

Pokud se zamyslíme nad prvními inteligencemi před 4 miliardami let, naším posledním univerzálním společným předkem, který se vyvinul v archea a bakterie a poté v eukaryota do říší rostlin, hub a živočichů, všechny tyto věci jsou podle této definice inteligentní. A hned na vrcholu tohoto evolučního stromu najdete nás, opice, které dosahují složitých cílů a vyměňují si spoustu informací.

Lidská inteligence

Proč je tomu tak, že ve srovnání s šimpanzi s 99% společné DNA, nejsme jen o něco inteligentnější, ale exponenciálně inteligentnější? Asi před 100 000 lety jsme riskovali, vynaložili náklady a nakonec udělali transformativní sázku na naše mozky a naše větší kognitivní uvažování a abstraktní myšlení a na naši schopnost vynalézat a používat nástroje a systémy nástrojů, což jsou technologie, počínaje věcmi jako oheň a jazyk a první virtuální realita, náboženství, posouvající se dále a rychle s zemědělstvím, psaním a druhou virtuální realitou, penězi, a pak ještě dále s technologiemi matematické a vědecké revoluce, s průmyslovou revolucí a s digitální revolucí, kde poprvé aktiva nebyla vzácná a spotřebovaná, ale hojná a znovu použitelná z hlediska dat a kódu.

Vrchol vynálezů: Umělá inteligence

Na vrcholu těchto vynálezů, umělá inteligence, jsme nyní vytvořili technologie, které samy o sobě mohou usilovat o cíle a vyměňovat si informace. A cítíme to v našich exponenciálních opičích kostech, že se věci nikdy necítily, že se pohybují tak rychle, ale také nikdy nebudou tak pomalé znovu.

Výzvy spojené s AI

AI je jedinečná jako technologie v tom, že už přesně nerozumíme, jak dělá to, co dělá. A pokud jste vytvořili nástroj, který je tak složitý, že mu nerozumíte, pak je obtížné jej ovládat. A pokud je obtížné jej ovládat, pak je obtížné mu důvěřovat. Naše problémy s důvěrou, které ovlivňují naši schopnost optimalizovat hodnotu, kterou z toho získáváme, se vztahují k těmto dvěma oblastem inteligence.

  • Jak důvěřovat cíli? (Alignment challenge)
  • Jak důvěřovat informacím?

Výzva sladění (Alignment challenge)

Nejprve, jak důvěřujeme cíli? Tomu se říká výzva sladění, důvěřovat tomu, že cíl AI je v souladu s našimi cíli. Kransberg v roce 1985 řekl: “Technologie, to je opravdu důležité, technologie není ani dobrá, ani špatná, ani není neutrální.”

Dobrým cílem pro AI, který by byl dobře v jejím rámci v příštích deseti nebo dvaceti letech, by bylo například vymyslet nový způsob, jak sekvestrovat uhlík a zvrátit globální oteplování, nebo vyléčit všechny nemoci, nebo transmutovat mikroplasty v životním prostředí na potravu, nebo bojovat proti novým kybernetickým útokům.

Na druhou stranu mezi špatné cíle by mohlo patřit vymýšlení nových kybernetických útoků nebo jiných hrozných zbraní hromadného ničení, nebo propagace a šíření dezinformací, nebo vytváření nezvratné sociální disharmonie.

Problém s informacemi

Druhý problém je s informacemi, protože strojově generované informace se zdvojnásobují každý rok ve srovnání s lidmi generovanými informacemi, což znamená, že je brzy úplně zastíní a budou nerozeznatelné. Jak poznáte skutečnou fotografii od upravené, skutečný film od deep fake, úzkostlivý telefonát od vašeho dítěte, od podvodu, výzkum, který děláte, od pravdy nebo něco, co si vymyslel stroj v nějaké halucinaci. A je to tato výzva s porozuměním kvalitě informací, která není špatná jen pro lidi v důvěřování, ale také pro stroje, které se z těchto informací učí, aby byly užitečnými nástroji od nás. A pokud budou dál trávit pochybné strojové kvalitní informace, pak budou mít moment nemoci šílených krav. A už víme, že se modely zhoršují. Takže se musíme přesunout z prostředí, kde důvěřujeme ve výchozím nastavení, do prostředí, kde nedůvěřujeme ve výchozím nastavení.

Řešení: MORE (Machine or Human)

Tady je moje navrhované řešení. Jednoduchý nápad, který stojí za to šířit, abychom vrátili důvěru zpět. Jmenuje se MORE, což znamená stroj nebo člověk (Machine or Human). Je to návrh na použití neziskového open source standardu, kterým bychom brali tagy, což jsou ty hranaté závorky, k nesmazatelnému označení veškerého obsahu jako strojem nebo člověkem. Žádný tag, žádná důvěra. Jsem rád, že se vám to líbí.

Jak funguje MORE

Tagy jsou všudypřítomné. Existují od 70. let, protože byly spojením toho, jak počítače a lidé mohli číst stejné informace. Tagy jsou základem toho, jak je vše prezentováno na World Wide Web. Tagy mohou být čteny a automaticky aktualizovány a filtrovány našimi telefony, našimi prohlížeči, našimi zařízeními a našimi AI. Tagy jsou rozšiřitelné, což je fantastický počítačový způsob, jak říct rozšiřitelné, což znamená, že do tagů můžete dát další atributy, a tyto atributy si půjčí z osvědčených kryptografických protokolů, jako je digitální identita a digitální certifikace a kontrolní součty a ověření. Takže nejen, že je označen jako člověk, je dokázáno, že pochází od člověka. Vyřešili jsme důkaz lidství. Proto si AI nemůže otevřít bankovní účet nebo získat pas. Vyřešili jsme autenticitu. To je ten visací zámek ve vašem prohlížeči. Tak víme, že obsah a tag nebyly zfalšovány. Už máme důkaz původu a důkaz originality a důkaz vlastnictví a důkaz původu. A do těchto tagů můžeme vložit certifikaci, ujištění o odpovědných standardech AI, které nám pomohou důvěřovat, že cíle AI jsou v souladu s našimi očekáváními.

Analogie s nutričními etiketami

Už dlouho máme na našich potravinách nutriční etikety, které nám pomáhají rozhodovat se, co jíst. MORE je jako nutriční etiketa pro naši informační dietu. Je to jako zájmeno, ale ve prospěch celého druhu a naší technologie. Neházím zájmena jen tak, abych byl dvojsmyslný. Pamatujte si, že zájmena nebyla nápad shora dolů a hnutí, ale spíše něco, co si někdo myslel, že je to skvělý nápad, který stojí za to šířit, a vzešlo to zdola nahoru. A teď jsme tady.

George Bernard Shaw řekl, že peklo je unášet se a nebe je řídit se. AI není dobrá, AI není špatná, AI není neutrální. Ani AI se nestará, jestli to uděláme správně. Příroda se také nestará. My se staráme. Měli bychom dělat víc společně co nejdříve, abychom se zaměřili na jasnou budoucnost AI.

🔍 Kritické zhodnocení

Přednáška Matta Kuperholze poutavě nastiňuje výzvy spojené s rostoucí složitostí a autonomií umělé inteligence. Jeho návrh MORE (Machine or Human) jako standardu pro označování obsahu generovaného AI je zajímavý a relevantní pro řešení problémů s důvěrou a autenticitou informací. Myšlenka nutričních etiket pro informace je srozumitelná a přiléhavá.

Podobné iniciativy se již objevují v různých formách. Například projekt Content Authenticity Initiative (CAI), vedený společnostmi Adobe a dalšími partnery, se zaměřuje na vytvoření standardů pro ověřování původu a historie digitálního obsahu. CAI využívá kryptografické metody k ověření původu obrázků a dalších médií, což uživatelům umožňuje posoudit důvěryhodnost obsahu [1].

Nicméně, implementace MORE nebo podobných standardů naráží na praktické překážky. Je nutné zajistit celosvětovou adopci a spolupráci mezi technologickými společnostmi, vládami a tvůrci obsahu. Dále je třeba řešit otázky technické proveditelnosti a nákladů spojených s implementací a údržbou takového systému. Také je nutné zvážit, jak se vyhnout zneužití těchto systémů k cenzuře nebo omezení svobody projevu.

Kuperholz ve své přednášce správně zdůrazňuje neutrální povahu technologie, jak ji popsal Melvin Kranzberg. Je klíčové, aby se diskuze o AI zaměřila na etické otázky a na to, jak zajistit, aby cíle AI byly v souladu s lidskými hodnotami. Důležitost interdisciplinárního přístupu, který kombinuje technologické, etické a sociální aspekty, je pro úspěšné zvládnutí výzev spojených s AI nezbytná.

Odkazy:

[1] Content Authenticity Initiative: https://contentauthenticity.org/

Odkaz na originální video