Sam Altman - ChatGPT, agenti AI a superinteligence

Sam Altman - ChatGPT, agenti AI a superinteligence

📊 Souhrn

V rozhovoru Sam Altman představuje schopnosti nových modelů OpenAI, jako je generátor obrázků a videí Sora a vylepšení v rámci GPT-4. Demonstruje jejich schopnost nejen generovat vizuální obsah, ale i propojovat informace a koncepty, například při tvorbě diagramu rozdílu mezi inteligencí a vědomím. Diskuze se rychle stočí k etickým otázkám, zejména k autorským právům a kompenzaci tvůrců, jejichž díla nebo styly AI využívá. Altman uznává potřebu nových ekonomických modelů a zdůrazňuje, že OpenAI brání přímému kopírování stylu žijících umělců, ale otázka inspirace a odvozených děl zůstává složitá. Mluví také o důležitosti open source modelů a plánu OpenAI v této oblasti konkurovat.

Altman dále popisuje explozivní růst uživatelské základny ChatGPT a představuje funkci paměti, která má AI umožnit lépe poznat uživatele a stát se personalizovaným společníkem. Vidí obrovský potenciál AI v akceleraci vědeckého výzkumu a transformaci softwarového inženýrství, kde již nyní AI dramaticky zvyšuje produktivitu. Zároveň otevřeně hovoří o bezpečnostních rizicích, včetně možného zneužití pro dezinformace, bioterrorismus nebo kybernetické útoky, a o potřebě pečlivého testování a iterativního přístupu k zajištění bezpečnosti. Diskutuje také o definici AGI (obecné umělé inteligence), kterou vidí spíše jako kontinuální škálu schopností než jediný bod zlomu, a zdůrazňuje naléhavost řešení výzev spojených s nástupem agentní AI – systémů schopných autonomně jednat. Rozhovor se dotýká i otázky regulace a morální odpovědnosti za vývoj technologie s potenciálem přetvořit lidstvo.

📝 Přepis

Moderátor: Same, vítejte na TEDu. Mockrát děkujeme, že jste přišel.

Sam Altman: Děkuji. Je mi ctí.

Moderátor: Vaše společnost vydává šílené, neuvěřitelné nové modely prakticky každý druhý týden. Připadá mi to tak. S několika z nich jsem si hrál. Rád bych vám ukázal, s čím jsem si hrál. Takže, Sora, to je generátor obrázků a videí. Zeptal jsem se Sory tohle: Jak to bude vypadat, až tady na TEDu sdělíte nějaká šokující odhalení? Chcete vidět, jak si to představila? Víte, no, není to špatné, že? Jak byste to oznámkoval?

Sam Altman: Pět prstů na všech rukou. Velmi blízko tomu, co mám na sobě. Víte, je to dobré.

Moderátor: Nikdy jsem vás neviděl takhle animovaného. Normálně…

Sam Altman: Ne, nejsem tak animovaný člověk. Takže možná B-. Ale tohle, tohle mě upřímně ohromilo, když jsem ji požádal, aby vytvořila diagram, který ukazuje rozdíl mezi inteligencí a vědomím. Jak byste to udělal vy? Tohle udělala ona. Chci říct, je to tak jednoduché, ale neuvěřitelné. Jaký proces by tohle umožnil? Tohle zjevně není jen generování obrázků. Napojuje se to na základní inteligenci, kterou má váš celkový model.

Sam Altman: Ano, nový model pro generování obrázků je součástí GPT-4.0. Takže má v sobě veškerou tu inteligenci. A myslím, že to je jeden z důvodů, proč dokáže dělat věci, které se lidem opravdu líbí.

Moderátor: Chci říct, kdybych byl manažerský konzultant a hrál si s něčím takovým, říkal bych si, „jejda, jak vypadá moje budoucnost?“

Sam Altman: Myslím, že existují… jsou takové dva pohledy, které můžete zaujmout. Můžete říct: „Ach ne, dělá to všechno, co dělám já. Co se se mnou stane?“ Nebo můžete říct, jako při každé jiné technologické revoluci v historii: „Dobře, teď je tu tento nový nástroj. Můžu toho udělat mnohem víc. Co budu schopen dělat?“ Je pravda, že očekávání, co budeme od někoho na určité pozici chtít, porostou, ale schopnosti se zvýší tak dramaticky, že myslím, že bude snadné se těmto očekáváním přizpůsobit.

Moderátor: Tohle mě taky ohromilo. Požádal jsem ho, aby si představil Charlieho Browna, jak o sobě přemýšlí jako o AI, a přišel s touto myšlenkou. Byla vlastně docela hluboká. Co si myslíte?

Sam Altman: Kvalita psaní některých nových modelů, nejen zde, ale do detailu, se opravdu posouvá na novou úroveň.

Moderátor: Jo, chci říct, tohle je neuvěřitelná meta odpověď, ale není žádný způsob, jak zjistit, jestli si to myslí, nebo to jen mnohokrát viděl.

Sam Altman: V trénovacích datech. A samozřejmě, pokud nedokážete rozpoznat rozdíl, jak moc vám na tom záleží?

Moderátor: To je opravdu zajímavé. Nevíme. Není to ale… Na první pohled to vypadá jako krádež duševního vlastnictví. Nemáte dohodu s držiteli práv k Peanuts, nebo… Můžete tomu tleskat, jak chcete. Užijte si to.

Sam Altman: Řekl bych, že tvůrčí duch lidstva je neuvěřitelně důležitá věc. A my chceme vytvářet nástroje, které ho pozvednou, které umožní novým lidem tvořit lepší umění, lepší obsah, psát lepší romány, které nás všechny baví. Hluboce věřím, že lidé budou v centru toho všeho. Také věřím, že pravděpodobně potřebujeme vymyslet nějaký nový model kolem ekonomiky tvůrčího výstupu. Myslím, že lidé staví na kreativitě ostatních už dlouho. Lidé se dlouho inspirují, ale jak se přístup ke kreativitě neuvěřitelně demokratizuje a lidé neustále staví na nápadech druhých, myslím, že existují neuvěřitelné nové obchodní modely, které my i ostatní s nadšením zkoumáme. Jak přesně to bude vypadat, si nejsem jistý. Samozřejmě jsou tu nějaké jasné věci. Nemůžete kopírovat práci někoho jiného. Ale kolik inspirace si můžete vzít? Pokud řeknete: „Chci generovat umění ve stylu těchto sedmi lidí, kteří s tím všichni souhlasili,“ jak rozdělíte, kolik peněz půjde každému z nich? To jsou velké otázky. Ale pokaždé v historii, když jsme dali tvůrcům do rukou lepší a výkonnější technologie, myslím, že jsme kolektivně získali lepší tvůrčí výstup a lidé dělají prostě úžasnější věci.

Moderátor: Ještě větší otázka je, když s tím nesouhlasili. Na našem úvodním zasedání Carol Cadwaladrová ukázala, jak ChatGPT přednesl projev ve stylu Carol Cadwaladrové. A skutečně, přednesl projev, který nebyl tak dobrý jako ten její, ale byl docela působivý. A ona řekla: „Dobře, je to skvělé, ale já jsem s tím nesouhlasila.“ Jak se v tomhle zorientujeme? Není nějaký způsob? Mělo by to být jen pro lidi, kteří souhlasili, nebo by neměl existovat model, který nějak řekne, že každý jmenovaný jedinec v promptu, jehož práce je pak použita, by za to měl něco dostat?

Sam Altman: Právě teď, pokud použijete naši věc na generování obrázků a řeknete: „Chci něco ve stylu žijícího umělce,“ tak to neudělá. Ale pokud řeknete: „Chci to ve stylu této konkrétní atmosféry nebo tohoto studia nebo tohoto uměleckého hnutí nebo cokoli jiného,“ tak to udělá. A samozřejmě, pokud řeknete: „Vytvoř píseň, která je kopií této písně.“ To neudělá. Otázka, kde by ta hranice měla být a jak lidé řeknou: „Tohle je příliš,“ jsme už dříve vyřešili autorským zákonem a tím, jak vypadá „fair use“ (oprávněné užití). Znovu si myslím, že ve světě AI bude nový model, který vymyslíme.

Moderátor: Z tohoto pohledu… svět je plný kreativních lidí, někteří z nich jsou teď nejnaštvanější lidé nebo nejvyděšenější lidé z AI. A rozdíl mezi pocitem, že vám kradou práci a vaši budoucnost, a pocitem, že vaše práce je zesilována a může být zesilována, to jsou tak odlišné pocity. A kdybychom se mohli přesunout k tomu druhému, myslím, že to opravdu změní, jak moc lidstvo jako celek tohle všechno přijme.

Sam Altman: Znovu bych řekl, někteří kreativní lidé jsou velmi naštvaní. Někteří tvůrci říkají: „Tohle je nejúžasnější nástroj vůbec. Dělám neuvěřitelnou novou práci.“ Ale rozhodně je to změna. A mám velké pochopení pro lidi, kteří si prostě říkají: „Přál bych si, aby se tato změna neděla. Líbilo se mi, jak to bylo dřív.“

Moderátor: Ale v principu můžete z jakéhokoli daného promptu vypočítat, kolik… Měl by existovat nějaký způsob, jak vypočítat, jaké procento příjmů z předplatného nebo čehokoli jiného jde na každou odpověď.

Sam Altman: V principu by mělo být možné, pokud by se podařilo vyřešit zbytek pravidel, a je to samozřejmě složité, vypočítat nějaký druh sdílení příjmů. Teď, pokud jste hudebník a strávíte celý život, celé dětství, cokoli, posloucháním hudby, a pak dostanete nápad a jdete složit píseň, která je inspirována tím, co jste slyšel dříve, ale je to nový směr. Bylo by pro vás velmi těžké říct: „Tohle bylo z téhle písně, kterou jsem slyšel, když mi bylo 11. Tohle z doby, kdy mi bylo 11.“

Moderátor: To je pravda. Ale tady mluvíme o situaci, kdy někdo specificky v promptu jmenuje někoho.

Sam Altman: Jo. Takže já… No, znovu, právě teď, pokud se pokusíte třeba vygenerovat obrázek v něčím jmenovaném stylu, prostě řekneme, že to neděláme. Ale myslím, že by bylo skvělé vymyslet nový model, kde pokud řeknete: „Chci to udělat ve jménu tohoto umělce“ a on se přihlásí, existuje tam model příjmů. Myslím, že je to dobrá věc k prozkoumání.

Moderátor: Takže myslím, že svět by vám měl pomoci ten model rychle vymyslet. A myslím, že to udělá obrovský rozdíl. Vlastně chci rychle změnit téma. Bitva mezi vaším modelem a open source. Jak moc vás otřásl příchod Deepseek?

Sam Altman: Myslím, že open source má důležité místo. Vlastně jsme zrovna včera večer hostili naše první komunitní setkání, abychom rozhodli o parametrech našeho open source modelu a jak ho chceme formovat. Uděláme velmi výkonný open source model. Myslím, že je to důležité. Uděláme něco blízko hranice možností, myslím, že lepší než jakýkoli současný open source model. Nebude to… Budou lidé, kteří to použijí způsoby, které se některým lidem v této místnosti, možná vám nebo mně, nelíbí. Ale pro open source modely bude jako součást této konstelace důležité místo. A myslím, že jsme v tom jednali pozdě, ale teď to uděláme opravdu dobře.

Moderátor: Chci říct, zdá se, že utrácíte o řád nebo dokonce řády více, než údajně utratil Deepseek, i když vím, že kolem toho panují kontroverze. Jste si jistý, že skutečně lepší model bude rozpoznán, nebo si vlastně říkáte, není to v některých ohledech život ohrožující pro představu, že… jo, tím, že půjdeme do masivního měřítka, investic desítek miliard dolarů, si můžeme udržet neuvěřitelný náskok po celý den?

Sam Altman: Volám lidem a prosím je, aby nám dali své GPU. Jsme tak neuvěřitelně omezení. Náš růst jde takhle… Deepseek spustil a nezdálo se, že by to mělo dopad. Dějí se jiné věci.

Moderátor: Povězte nám o růstu. Vlastně jste mi tam v zákulisí řekl šokující číslo. Nikdy jsem neviděl růst v žádné společnosti, ať už jsem se na ní podílel nebo ne, jako tento, jako růst ChatGPT. Je to opravdu zábava. Cítím se skvěle, hluboce poctěn, ale je šílené tím žít a naše týmy jsou vyčerpané a ve stresu a snažíme se udržet věci v chodu. Kolik máte teď uživatelů?

Sam Altman: Myslím, že naposledy jsme řekli 500 milionů týdenních aktivních uživatelů a roste to velmi rychle.

Moderátor: Chci říct, řekl jste mi, že se to zdvojnásobilo během několika týdnů, pokud jde o výpočetní výkon nebo pokud jde o… soukromě, ale myslím…

Sam Altman: Oh, špatně jsem si to zapamatoval.

Moderátor: Same, omlouvám se, omlouvám se. Můžeme to z té věci vystřihnout, pokud opravdu chcete. A nikdo tady by to netweetoval. Roste to velmi rychle. Takže jste si jistý, vidíte, jak to roste, startuje jako raketa. Neustále vydáváte neuvěřitelné nové modely. Co vidíte ve svých nejlepších interních modelech právě teď, co jste ještě nesdělili světu, ale rád byste to slyšel na tomto pódiu?

Sam Altman: Takže… nejprve jste se ptal, víte, jestli se bojíme tohoto modelu nebo tamtoho modelu. Na světě bude spousta inteligentních modelů. Velmi chytré modely budou do jisté míry komoditizovány. Myslím, že my budeme mít ten nejlepší a pro některé účely ho budete chtít. Ale upřímně, modely jsou teď tak chytré, že pro většinu věcí, které většina lidí chce dělat, jsou dostatečně dobré. Doufám, že se to časem změní, protože lidé zvýší svá očekávání. Ale pokud používáte ChatGPT jako běžný uživatel, schopnosti modelu jsou velmi chytré, ale musíme vytvořit skvělý produkt, nejen skvělý model. A tak bude spousta lidí se skvělými modely a my se pokusíme vytvořit ten nejlepší produkt. A lidé chtějí své generování obrázků, víte, některé příklady Sory pro video dříve. Chtějí to integrovat se všemi svými věcmi. Právě jsme spustili novou funkci nazvanou… no, stále se jmenuje paměť, ale je mnohem lepší než paměť předtím, kde vás tento model pozná v průběhu vašeho života. A máme spoustu dalších věcí, které přijdou, abychom vytvořili tento skvělý integrovaný produkt. A myslím, že lidé u toho zůstanou. Takže bude mnoho modelů, ale myslím, že my, doufám, se budeme i nadále soustředit na budování nejlepšího definujícího produktu v tomto prostoru.

Moderátor: Chci říct, poté, co jsem viděl vaše včerejší oznámení, že ChatGPT bude nyní znát celou vaši historii dotazů, zadal jsem „řekni mi o mně, ChatGPT, ze všeho, co víš,“ a spadla mi čelist. Same. Bylo to šokující. Věděl, kdo jsem, a všechny tyhle druhy zájmů, které, doufejme, byly většinou docela vhodné a sdílitelné, ale bylo to… bylo to ohromující. A cítil jsem pocit skutečného vzrušení, trochu nevolnosti, ale hlavně vzrušení, vlastně z toho, o kolik víc mi to umožní… být pro mě užitečný.

Sam Altman: Jeden z našich výzkumníků tweetoval, něco jako včera, dnes ráno, že nahrávání probíhá kousek po kousku. Není to tak, že byste si jednoho dne připojili mozek, ale budete mluvit s ChatGPT v průběhu svého života. Jednoho dne, možná pokud budete chtít, vás bude poslouchat po celý den a jaksi pozorovat, co děláte. A pozná vás a stane se tímto rozšířením vás samých, tímto společníkem, touto věcí, která se vám jen snaží pomoci být nejlepší, dělat to nejlepší, co můžete.

Moderátor: Ve filmu Her (Ona) AI v podstatě oznámí, že si přečetla všechny jeho e-maily a rozhodla se, že je skvělý spisovatel, a přesvědčí vydavatele, aby ho vydal. To by mohlo přijít dříve, než si myslíme.

Sam Altman: Nemyslím si, že se to stane přesně takhle. Ale ano, myslím, že něco ve směru, kdy AI, nemusíte jen jít na ChatGPT nebo cokoli jiného a říct: „Mám otázku, dej mi odpověď.“ Ale proaktivně vám budou podsouvány věci, které vám pomohou, které vás zlepší, cokoli. To se zdá být brzy.

Moderátor: Takže co jste viděl, co se chystá interně, co si myslíte, že lidem vyrazí dech? Dejte nám alespoň náznak toho, co bude další velká věc, ze které spadne čelist.

Sam Altman: Věc, která mě osobně nejvíce vzrušuje, je AI pro vědu. V tomto bodě si myslím… Jsem velkým zastáncem toho, že nejdůležitějším hybatelem světa a toho, že se životy lidí stále zlepšují, jsou nové vědecké objevy. Můžeme dělat více věcí s menšími prostředky. Jaksi posouváme hranice možného. Začínáme hodně slyšet od vědců s našimi nejnovějšími modely, že jsou skutečně produktivnější než dříve. To se skutečně projevuje v tom, co mohou objevit.

Moderátor: Jaký je pravděpodobný krátkodobý objev? Třeba supravodiče při pokojové teplotě? To by bylo…

Sam Altman: Jo, supravodivost.

Moderátor: Je to možné?

Sam Altman: Jo, nemyslím si, že by tomu bránily fyzikální zákony. Takže by to mělo být možné, ale nevíme to jistě. Myslím, že začnete vidět nějaký smysluplný pokrok proti nemocem s nástroji asistovanými AI. Víte, fyzika možná potrvá trochu déle, ale doufám v to. Takže to je jeden směr. Další, který si myslím, že je velký, začíná docela brzy, jako v nadcházejících měsících. Vývoj softwaru už byl docela transformován. Je docela úžasné, jak odlišný je proces tvorby softwaru nyní než před dvěma lety. Ale očekávám další tak velký posun v nadcházejících měsících, jak se agentní softwarové inženýrství opravdu začne dít.

Moderátor: Slyšel jsem inženýry říkat, že zažili téměř náboženské okamžiky s některými novými modely, kdy najednou mohli udělat za odpoledne to, co by jim dříve trvalo dva roky.

Sam Altman: Jo, je to jako… opravdu… to byl jeden z mých velkých „cítím AGI“ momentů. Ale mluvme o tom, co je nejděsivější věc, kterou jste viděl, protože venku si spousta lidí představuje, že máte přístup k těmto věcem a slyšíme všechny ty zvěsti vycházející z AI a je to jako: „Ó můj bože, viděli vědomí nebo viděli AGI nebo viděli nějakou přicházející apokalypsu.“ Viděl jste… byl tam děsivý okamžik, kdy jste viděl něco interně a pomyslel si: „Aha, na tohle si musíme dát pozor.“?

Sam Altman: Byly tam okamžiky úžasu a myslím, že s tím je vždycky: „Jak daleko tohle zajde? Co to bude?“ Ale není tam žádné… tajně nemáme, víte, nesedíme tajně na vědomém modelu nebo něčem, co je schopné sebezdokonalování nebo něčeho takového. Víte, já… lidé mají velmi odlišné názory na to, jaká budou velká rizika AI, a já sám jsem se vyvíjel v přemýšlení o tom, kde je uvidíme. Ale… nadále věřím, že přijdou velmi mocné modely, které lidé mohou zneužít velkými způsoby. Lidé hodně mluví o potenciálu nových druhů modelů pro bioterrorismus, které mohou představovat skutečnou výzvu pro kybernetickou bezpečnost, modelů, které jsou schopné sebezdokonalování způsobem, který vede k nějaké ztrátě kontroly. Takže si myslím, že tam jsou velká rizika, a pak je tu spousta dalších věcí, což upřímně je to, co si myslím, že mnoho lidí má na mysli, když mluví o dezinformacích nebo modelech říkajících věci, které se jim nelíbí, nebo podobných věcech.

Moderátor: Zůstaňme u toho prvního. Kontrolujete to interně před vydáním?

Sam Altman: Samozřejmě, ano. Máme tento rámec připravenosti (preparedness framework), který popisuje, jak to děláme.

Moderátor: Chci říct, měli jste nějaké odchody z vašeho bezpečnostního týmu. Kolik lidí odešlo? Proč odešli?

Sam Altman: Máme… neznám přesné číslo, ale zjevně existují různé názory na bezpečnostní systémy AI. Opravdu bych poukázal na naše výsledky. Jsou lidé, kteří budou říkat všemožné věci. Víte, něco jako 10 % světa teď hodně používá naše systémy. A jsme velmi hrdí na bezpečnostní výsledky.

Moderátor: Ale výsledky nejsou problémem, svým způsobem, protože ne… Mluvíme o exponenciálně rostoucí moci, kde se bojíme, že se jednoho dne můžeme probudit a svět bude končit. Takže to opravdu není o výsledcích, je to o věrohodném tvrzení, že jsou zavedeny mechanismy k rychlému zastavení věcí, pokud uvidíme nebezpečí.

Sam Altman: Ó ano, ano, samozřejmě, samozřejmě, to je důležité. Nemůžete se jednoho dne probudit a říct: „Hej, neměli jsme žádný bezpečnostní proces. Teď si myslíme, že model je opravdu chytrý. Takže teď se musíme starat o bezpečnost.“ Musíte se o ni starat po celou dobu této exponenciální křivky. Samozřejmě sázky rostou a jsou tu velké výzvy, ale způsob, jak se učíme budovat bezpečné systémy, je tento iterativní proces jejich nasazování do světa, získávání zpětné vazby, dokud jsou sázky relativně nízké, učení se o tom, jako: „Hej, tohle je něco, co musíme řešit.“ A myslím, že jak se posouváme do těchto agentních systémů, je tu celá velká kategorie nových věcí, které se musíme naučit řešit.

Moderátor: Takže pojďme mluvit o agentních systémech a vztahu mezi tím a AGI. Myslím, že tam panuje zmatek. Jsem zmatený. Takže umělá obecná inteligence. Mám pocit, že ChatGPT už je obecná inteligence. Můžu se ho zeptat na cokoli a vrátí se s inteligentní odpovědí. Proč to není AGI?

Sam Altman: Za prvé, nemůžete se zeptat na cokoli. To je od vás velmi milé, že to říkáte, ale je spousta věcí, ve kterých je stále trapně špatný. Ale i kdybychom to napravili, což doufejme uděláme, neučí se a nezlepšuje se neustále. Nemůže se jít zlepšit v něčem, v čem je momentálně slabý. Nemůže jít objevit novou vědu a aktualizovat své porozumění a dělat to. A také jaksi nemůže, i když snížíme laťku, nemůže prostě dělat jakoukoli znalostní práci, kterou byste mohli dělat před počítačem. Vlastně, i bez té schopnosti zlepšit se v něčem, co ještě neví, bych to mohl přijmout jako definici AGI, ale současným systémům nemůžete říct: „Hej, jdi udělat tento úkol pro mou práci.“ A on jde a kliká po internetu, zavolá někomu, podívá se na vaše soubory a udělá to. A bez toho to rozhodně nedosahuje AGI.

Moderátor: Máte interně jasnou definici toho, co je AGI a kdy si myslíte, že tam můžeme být?

Sam Altman: Je to jedno z těch… je to jako ten vtip. Kdybyste dostal 10 výzkumníků OpenAI do místnosti a požádal je, aby definovali AGI, dostali byste 14 definic.

Moderátor: To je ale znepokojující, ne? Protože to byla původně mise. Budeme první, kdo dosáhne AGI. Uděláme to bezpečně, ale nemáme jasnou definici toho, co to je.

Sam Altman: Chtěl jsem dokončit odpověď. Co si myslím, že záleží, a co lidé chtějí vědět, není, kde je ten jeden magický okamžik „skončili jsme“? Ale vzhledem k tomu, co se zdá, že se stane, je, že modely budou prostě chytřejší a schopnější a chytřejší a schopnější a chytřejší a schopnější na této dlouhé exponenciále. Různí lidé to budou nazývat AGI v různých bodech, ale všichni se shodneme, že to půjde daleko, daleko za to, víte, ať už chcete tyto systémy, které se stanou mnohem schopnějšími než my, nazvat jakkoli. To, na čem záleží, je, jak… jak mluvíme o systému, který je bezpečný během všech těchto kroků a dále, jak se systém stává schopnějším než my, jak systém může dělat věci, kterým úplně nerozumíme. A myslím, že důležitější než „kdy přijde AGI a co to je, víte, jaká je její definice“, je uznání, že jsme v této neuvěřitelné exponenciální křivce. Ano. A můžete, víte, říct: „Tohle si myslím, že je AGI.“ Můžete říct: „Myslíte si, že tohle si myslíte, že je AGI.“ Někdo jiný může říct: „Superinteligence je tady venku,“ ale budeme se muset potýkat a získávat úžasné výhody z tohoto neuvěřitelného systému. A tak si myslím, že bychom měli přesunout konverzaci od „jaký je okamžik AGI“ k uznání, že tahle věc se nezastaví. Půjde daleko za to, co by kdokoli z nás nazval AGI, a musíme vybudovat společnost, abychom získali obrovské výhody z toho a zjistili, jak to udělat bezpečné.

Moderátor: Jednou z konverzací tohoto týdne bylo, že skutečným momentem změny je… chci říct, AGI je nejasná věc, ale co je jasné, je agentní AI. Když je AI vypuštěna, aby sama sledovala projekty a skládala kousky dohromady, vlastně… máte věc zvanou Operator, která to začíná dělat. A vyzkoušel jsem to. Víte, chtěl jsem si zarezervovat restauraci a je to docela neuvěřitelné. Jaksi to může jít a udělat to, ale tohle to řeklo. Je tam… víte, byl to zajímavý proces a, víte, dejte mi svou kreditní kartu a všechno ostatní. A odmítl jsem v tomto případě pokračovat, ale myslím, že tohle je výzva, kterou lidé budou mít. Je to tak trochu… je to neuvěřitelná superschopnost. Je to trochu děsivé. A Yoshua Bengio, když zde mluvil, řekl, že agentní AI je věc, na kterou si máme dát pozor. To je okamžik, kdy by se všechno mohlo pokazit, když dáváme AI moc jít na internet a dělat věci. Chci říct, jít na internet bylo vždycky, ve sci-fi příbězích, momentem, kdy došlo k úniku a potenciálně se mohly stát hrozně špatné věci. Jak zároveň uvolníte agentní AI a budete mít zavedené zábrany, aby nezašla příliš daleko?

Sam Altman: Za prvé, samozřejmě si můžete vybrat, že to neuděláte a řeknete: „Tohle nechci. Zavolám do restaurace a přečtu jim svou kreditní kartu po telefonu.“

Moderátor: Já si můžu vybrat, ale někdo jiný by mohl říct: „Ach, jdi ChatGPT na internet obecně a přepiš internet, aby byl lepší pro lidi“ nebo cokoli jiného.

Sam Altman: Pointa, kterou jsem chtěl říct, je, že jako u každé nové technologie chvíli trvá, než si lidé zvyknou. Pamatuji si, jak jsem nechtěl dát svou kreditní kartu na internet, protože mě rodiče přesvědčili, že někdo přečte číslo a museli jste vyplnit formulář a pak jim zavolat. A pak jsme si tak nějak všichni řekli: „Dobře, vytvoříme systémy proti podvodům a můžeme si na to zvyknout.“ Myslím, že lidé si budou na agentní AI zvykat pomalu v mnoha ohledech. Ale také opravdu souhlasím s tím, co jste řekl, což je, že i když někteří lidé s tím budou spokojeni a někteří ne, budeme mít AI systémy klikající po internetu. A tohle je myslím nejzajímavější a nejdůležitější bezpečnostní výzva, které jsme dosud čelili. Protože AI, které dáte přístup k vašim systémům, vašim informacím, schopnost klikat po vašem počítači, teď ty… víte, když AI udělá chybu, sázky jsou mnohem vyšší. Je to…

Moderátor: Je to brána…

Sam Altman: Takže jsme mluvili dříve o bezpečnosti a schopnostech. Myslím, že se stále více stávají jednorozměrnými. Jakože dobrý produkt je bezpečný produkt. Nebudete používat naše agenty, pokud jim nebudete důvěřovat, že vám nevyprázdní bankovní účet nebo nesmažou data nebo kdo ví co ještě. A tak lidé chtějí používat agenty, kterým mohou opravdu důvěřovat, kteří jsou opravdu bezpeční. A myslím, že jsme omezeni naší schopností dosáhnout pokroku, naší schopností to udělat. Ale je to základní součást produktu.

Moderátor: Ve světě, kde existuje agentnost a řekněme, že možná otevřené modely jsou široce distribuovány a někdo řekne: „Dobře, AGI, chci, abys šla na internet a šířila mem, jakkoli můžeš, že X lidí jsou zlí“ nebo cokoli to je. Nemusí to být individuální volba. Jediný člověk by mohl toho agenta vypustit a agent by se mohl rozhodnout: „No, abych mohl tuto funkci provést, musím se všude zkopírovat.“ A existují červené linie, které jste si interně jasně stanovili, kde víte, jaké jsou nebezpečné momenty a že nemůžeme vypustit něco, co by mohlo jít za toto?

Sam Altman: Ano. To je účel našeho rámce připravenosti (preparedness framework) a budeme ho časem aktualizovat. Ale pokusili jsme se nastínit, kde si myslíme, že jsou nejdůležitější nebezpečné momenty nebo jaké jsou kategorie, jak to měříme a jak bychom něco zmírnili před vydáním.

Moderátor: Z konverzace poznám, že si přejete AI… nejste velký fanoušek AI.

Sam Altman: Ne, vlastně naopak, používám ji každý den. Jsem jí ohromen. Myslím, že je to neuvěřitelná doba k životu. Nechtěl bych žít v žádné jiné době a nemůžu se dočkat, kam to půjde. Ale drželi jsme…

Moderátor: Myslím, že je zásadní držet… Nemůžete lidi rozdělit do těchto táborů. Musíte mít vášnivou víru v možnosti, ale nenechat se tím příliš svést, protože věci by se mohly hrozně pokazit.

Sam Altman: Ne, ne, co jsem chtěl říct, je, že to naprosto chápu. Naprosto chápu, když se na to díváte a říkáte: „Tohle je neuvěřitelná změna přicházející do světa a možná to nechci, nebo možná miluji části toho, možná miluji mluvení s ChatGPT, ale bojím se, co se stane s uměním a bojím se tempa změn a bojím se těchto agentů klikajících sem, klikajících po internetu.“ A možná na váhu bych si přál, aby se to nedělo, nebo možná bych si přál, aby se to dělo trochu pomaleji, nebo možná bych si přál, aby se to dělo způsobem, kde bych si mohl vybrat, které části pokroku se stanou. A myslím, že strach je naprosto racionální. Úzkost je naprosto racionální. Všichni jí máme také hodně. Ale A, bude tu obrovský přínos, očividně to používáte každý den, líbí se vám to. B, opravdu věřím, že společnost časem vymyslí, s několika velkými chybami cestou, jak správně zvládnout technologii. A C, tohle se stane. Tohle je jako objev základní fyziky, o kterém svět teď ví, a bude to součástí našeho světa. A myslím, že tato konverzace je opravdu důležitá. Myslím, že mluvit o těchto oblastech nebezpečí je opravdu důležité. Mluvit o nových ekonomických modelech je opravdu důležité. Ale musíme to přijmout s opatrností, ale ne se strachem, nebo nás převálcují jiní lidé, kteří používají AI, aby byli lepší.

Moderátor: Vlastně jste byl jedním z nejvýmluvnějších zastánců bezpečnosti. Svědčil jste v Senátu. Myslím, že jste v podstatě řekl, že bychom měli vytvořit novou bezpečnostní agenturu, která by licencovala jakékoli úsilí, že odmítne licencovat určitá úsilí. Stále věříte v tento politický návrh?

Sam Altman: Naučil jsem se více o tom, jak funguje vláda. Nemyslím si, že tohle je úplně správný politický návrh.

Moderátor: Jaký je správný politický návrh?

Sam Altman: Myslím si, že myšlenka, že jak se tyto systémy stávají pokročilejšími a mají legitimní globální dopad, potřebujeme nějaký způsob, možná samotné společnosti sestaví správný rámec nebo správný model pro toto. Ale potřebujeme nějaký způsob, jak velmi pokročilé modely budou mít externí bezpečnostní testování a pochopíme, kdy se přiblížíme k některým z těchto nebezpečných zón. V to velmi stále věřím.

Moderátor: Přijde mi ironické, že bezpečnostní agentura (safety agency) by mohla být to, co chceme, a přesto agentnost (agency) je právě to, co je nebezpečné. V té řeči je něco zvláštního. Ale každopádně, zeptal jsem se…

Sam Altman: Můžu říct ještě jednu věc?

Moderátor: Ano, prosím. Ano.

Sam Altman: Myslím si, že tento koncept, že potřebujeme definovat rigorózní testování pro modely, pochopit, jaké jsou hrozby, na které se my kolektivně, společnost, nejvíce chceme zaměřit, a zajistit, že jak se modely stávají schopnějšími, máme systém, kde všichni pochopíme, co se vypouští do světa. Myslím, že je to opravdu důležité, a myslím, že nejsme daleko od modelů, které budou v tomto smyslu velkým veřejným zájmem.

Moderátor: Takže, Same, zeptal jsem se vašeho modelu 01 Pro Reasoning, který je neuvěřitelný. Děkuji za těch 200$. 200$ měsíčně? Za tu cenu je to výhodná koupě, řekl. Jaká je jediná nejpronikavější otázka, kterou bych vám mohl položit? Přemýšlel o tom dvě minuty. Dvě minuty. Chcete vidět tu otázku?

Sam Altman: Chci.

Moderátor: Same, vzhledem k tomu, že pomáháte vytvářet technologii, která by mohla přetvořit osud celého našeho druhu, kdo vám nebo komukoli jinému udělil morální autoritu to dělat? A jak jste osobně zodpovědný, odpovědný, pokud se mýlíte?

Sam Altman: Bylo to dobré. To bylo působivé. Ptáte se mě na verze tohoto posledních půl hodiny. Co si myslíte? Ale co bych řekl, je tohle. Tady je moje verze té otázky, ale žádná odpověď. Jaká byla vaše otázka, Fee? Ano. Jak byste na ni odpověděl ve vaší kůži? Ano. Nebo co vy, jako outsider?

Moderátor: Nevím. Jsem z vás zmatený. Jsem vámi tak trochu ohromen, protože jste postavil jednu z nejúžasnějších věcí. Existují o vás dva narativy. Jeden je, že jste tento neuvěřitelný vizionář, který dokázal nemožné. A šokoval jste svět s mnohem méně lidmi než Google. Přišli jste s něčím, co bylo mnohem silnější než cokoli, co udělali. Chci říct, je úžasné, co jste postavili. Ale druhý narativ je, že jste změnil půdu pod nohama, že jste se posunul od bytí OpenAI, této otevřené věci, k vábení budování něčeho supermocného. A ztratil jste některé ze svých klíčových lidí. Existuje narativ, někteří lidé věří, že vám v tomto prostoru nelze věřit. Rád bych věděl, kdo jste. Jaký je váš narativ o sobě? Jaké jsou vaše základní hodnoty? Same, které nám mohou dát světu důvěru, že někdo s takovou mocí zde na ni má nárok?

Sam Altman: Podívejte, myslím, že jako kdokoli jiný, jsem nuancovaná postava, která se nedá dobře redukovat na jednu dimenzi. Takže, víte, pravděpodobně některé z dobrých věcí jsou pravdivé a pravděpodobně část kritiky je také pravdivá, pokud jde o OpenAI. Naším cílem je vytvořit AGI a distribuovat ji, učinit ji bezpečnou pro široký prospěch lidstva. Myslím, že podle všech měřítek jsme v tomto směru udělali hodně. Je jasné, že naše taktika se časem posunula. Myslím, že jsme opravdu nevěděli, čím budeme, až vyrosteme. Nemysleli jsme si, že budeme muset kolem toho postavit společnost. Hodně jsme se naučili o tom, jak to chodí, a o realitě toho, co tyto systémy budou vyžadovat z hlediska kapitálu. Ale myslím, že pokud jde o dávání neuvěřitelně schopné AI s vysokým stupněm bezpečnosti do rukou mnoha lidí a dávání jim nástrojů, aby mohli dělat jakékoli úžasné věci, které budou dělat. Myslím, že by bylo těžké nám za to dát špatnou známku. Myslím si, že je fér, že bychom měli více open sourcovat. Myslím, že bylo rozumné ze všech důvodů, na které jste se ptal dříve, protože jsme si nebyli jisti dopadem, jaký budou mít tyto systémy, a jak je učinit bezpečnými, že jsme jednali s opatrností. Myslím, že mnoho vašich dřívějších otázek by naznačovalo alespoň určitou sympatii k tomu, že jsme takto fungovali. Ale teď si myslím, že jako svět máme lepší porozumění a je čas, abychom do světa vypustili velmi schopné otevřené systémy. Pokud mě pozvete zpět příští rok, pravděpodobně na mě budete křičet kvůli někomu, kdo tyto open source systémy zneužil, a řeknete, proč jste to udělal? To bylo špatné. Neměl jste se vracet ke svým otevřeným kořenům. Ale víte, nedostaneme… ve všem, co děláme, jsou kompromisy a my jsme jeden hráč v tomto, jeden hlas v této AI revoluci, snažící se dělat to nejlepší, co můžeme, a jaksi spravovat tuto technologii do světa zodpovědným způsobem. Určitě jsme udělali chyby, určitě jich v budoucnu uděláme více, celkově. Myslím, že jsme za posledních téměř deset let, už je to dlouhá doba. Je to, víte, většinou jsme dělali to, co jsme si předsevzali. Máme před sebou dlouhou cestu. Naše taktika se v budoucnu ještě změní. Ale oddanost této misi a tomu, co se snažíme dělat, si myslím, je velmi silná.

Moderátor: Existuje… zveřejnil jste tohle. Dobře. Takže tady je Prsten moci z Pána prstenů, váš rival, řekl bych, ne váš nejlepší přítel v tuto chvíli. Elon Musk tvrdil, že, víte, myslel si, že jste byli zkorumpováni Prstenem moci. Obvinění, které, mimochodem… Obvinění. Ahoj, Steve. Obvinění, které by mohlo být aplikováno i na Elona, víte, abychom byli spravedliví. Ale jsem zvědavý, lidé. Máte…

Sam Altman: Možná odpovím, přemýšlím o tom. Možná něco řeknu.

Moderátor: Co je v myslích všech, když vidíme, jak technologičtí CEO získávají větší moc, bohatnou, je, zda to zvládnou, nebo se to stane neodolatelným? Stane se moc a bohatství nemožným někdy udělat správnou věc? A musíte se jen pevně držet toho prstenu. Co si myslíte? Cítíte ten prsten někdy? Jak si myslíte, že si vedu ve srovnání s jinými CEO, kteří získali hodně moci a změnili způsob, jakým jednají nebo udělali spoustu věcí ve světě?

Moderátor: Jak si myslíte… máte krásné… Nejste hrubý, naštvaný člověk, který vychází a říká agresivní věci ostatním lidem. Neděláte to.

Sam Altman: To je můj jediný neřest, víte.

Moderátor: Ne, myslím, že ve způsobu, jakým se osobně chováte, je to působivé. Chci říct, otázka, kterou si někteří lidé kladou, je, jste to skutečný vy? Nebo, víte, děje se něco jiného? Ale beru zpětnou vazbu, kterou jste viděl. Dali jste tam Sauronův Prsten moci nebo co to je. Takže beru zpětnou vazbu. Co je jako něco, co jsem udělal, kde si myslíte, že jsem byl zkorumpován mocí?

Moderátor: Myslím, že strach je, že právě přechod OpenAI na ziskový model je, víte, někteří lidé říkají: „No, tak tady to máte. Byl jste zkorumpován touhou po bohatství.“ Víte, v jednu chvíli v tom neměl být žádný vlastní kapitál. Udělá vás to pohádkově bohatým, mimochodem. Nemyslím si, že to je vaše motivace, osobně. Myslím, že chcete stavět věci, které jsou šíleně cool.

A čeho se obávám, je ten pocit soutěživosti, kdy vidíte, že to dělají jiní lidé, a to znemožňuje vývoj správným tempem. Ale řekněte mi, jestli to tak necítíte. Jen tak málo lidí na světě má takové schopnosti a potenciál jako vy. My nevíme, jaký je to pocit. Jaký je to pocit?

Šokující je, že stejně jako předtím. Myslím, že si člověk může postupně zvyknout na cokoliv. Kdybych se přenesl z doby před 10 lety do současnosti najednou, bylo by to velmi dezorientující, ale cokoli se stane jakousi novou normou. Takže se to nijak neliší. A je zvláštní tu sedět a mluvit o tom, ale ta monotónnost každodenního života, což myslím v nejlepším možném slova smyslu, je naprosto stejná. Jste stejný člověk. Tedy, jsem si jistý, že v mnoha ohledech nejsem, ale necítím se nijak jinak.

Tohle byla krásná věc, kterou jste zveřejnil. Váš syn, myslím to poslední, co jste řekl, že jste nikdy necítil takovou lásku. Myslím, že každý rodič v místnosti ten pocit zná, ten divoký biologický pocit, který lidé mají a AI nikdy mít nebude, když držíte své dítě. A zajímalo by mě, jestli to změnilo váš pohled na věci. Jako kdyby, víte, tady byla červená krabička, tady černá krabička s červeným tlačítkem, a vy byste mohl to tlačítko stisknout a dát svému synovi pravděpodobně ten nejneuvěřitelnější život, ale zároveň byste vnesl 10% šanci, že bude zničen. Stiskl byste to tlačítko?

V doslovném případě ne. Pokud je otázka, zda mám pocit, že to dělám se svou prací? Odpověď je, že ani to tak necítím. Mít dítě změnilo spoustu věcí. A je to zdaleka ta nejúžasnější věc, která se mi kdy stala, jako všechno, co všichni říkají, je pravda. Myslím, že můj spoluzakladatel Ilja jednou řekl, nevím, je to parafráze, něco jako: „Nevím, jaký je smysl života, ale určitě to má něco společného s dětmi.“ A je to neuvěřitelně přesné. Změnilo to, kolik jsem ochoten trávit čas určitými věcmi, a cena za to, že nejsem se svým dítětem, je prostě šíleně vysoká. Ale víte, opravdu mi záleželo na tom, abych nezničil svět už předtím, a opravdu mi na tom záleží i teď. Nepotřeboval jsem k tomu dítě. Určitě víc přemýšlím o tom, jaká bude budoucnost konkrétně pro něj. Ale cítím zodpovědnost udělat to nejlepší, co mohu pro budoucnost, pro všechny.

Tristan Harris zde tento týden přednesl velmi působivou řeč, ve které řekl, že klíčovým problémem podle jeho názoru je, že vy a vaši kolegové v těchto dalších modelech v podstatě všichni cítíte, že vývoj pokročilé AI je nevyhnutelný, že závod probíhá a že není jiné volby než se pokusit tento závod vyhrát a udělat to co nejzodpovědněji. A možná existuje scénář, kdy vaše superinteligentní AI může fungovat jako brzda pro všechny ostatní nebo něco podobného. Ale samotný fakt, že všichni věří, že je to nevyhnutelné, znamená, že je to cesta k vážnému riziku a nestabilitě. Myslíte si, že vy a vaši kolegové cítíte, že je to nevyhnutelné? A vidíte nějakou cestu ven, kde bychom se mohli kolektivně dohodnout, že věci trochu zpomalíme, necháme společnost jako celek trochu zasáhnout a říct: „Ne, víte, nechceme, aby se to stalo tak rychle. Je to příliš rušivé.“

Zaprvé si myslím, že lidé věci neustále zpomalují, protože technologie není připravena, protože něco není dostatečně bezpečné, protože něco nefunguje. Myslím, že existují veškeré snahy věci pozdržet, pozastavit, odložit, nevydávat určité schopnosti. Takže si myslím, že se to děje. A opět, tady si myslím, že záleží na dosavadních výsledcích. Kdybychom věci uspěchávali a byly by nejrůznější problémy, buď by produkt nefungoval tak, jak lidé chtěli, nebo by tam byly skutečné bezpečnostní problémy nebo jiné věci. A vrátím se ke změně, kterou jsme udělali. Myslím, že byste to mohli udělat. Mezi většinou snah, s jednou výjimkou, probíhá komunikace. Myslím, že všem snahám velmi záleží na bezpečnosti AI. A myslím si, že lidé… Samozřejmě nebudu říkat, a myslím si, že existuje opravdu hluboká péče o to, aby se to udělalo správně. Myslím, že karikatura toho, že je to jen šílený závod nebo sprint nebo cokoli jiného, ​​postrádá nuanci toho, že se lidé snaží rychle vydávat modely a vytvářet skvělé produkty pro lidi. Ale lidé cítí dopad toho tak neuvěřitelně, že si myslím, že kdybyste mohli sedět na schůzce v OpenAI nebo jiných společnostech, řekli byste si: „Aha, tito lidé se o to opravdu starají.“

Udělali jsme nedávno změnu v tom, jak přemýšlíme o jedné části toho, co se tradičně chápe jako bezpečnost, což je, že s naším novým obrazovým modelem jsme dali uživatelům mnohem větší svobodu v tom, co bychom tradičně považovali za škody způsobené řečí. Pokud se pokusíte urazit modelem, nechá vás model urazit? V minulosti jsme na to měli mnohem přísnější mantinely. Ale myslím si, že součástí sladění modelu je následovat to, co uživatel modelu chce, aby dělal, v rámci velmi širokých hranic toho, co společnost rozhodne. Takže pokud požádáte model, aby zobrazil spoustu násilí nebo něco podobného, nebo aby posílil nějaký stereotyp, je otázka, zda by to měl dělat, a my nyní zaujímáme mnohem tolerantnější postoj. Existuje místo, kde to začíná interagovat se skutečnými škodami, a musíme přijít na to, jak pro to nakreslit hranici. Ale myslím si, že budou případy, kdy společnost řekne: „Dobře, slyšeli jsme zpětnou vazbu od společnosti. Lidé opravdu nechtějí, aby je modely cenzurovaly způsoby, které jim nepřipadají smysluplné.“ To je spravedlivé vyjednávání o bezpečnosti.

Ale do té míry, do jaké je to problém kolektivní víry, řešením takových problémů je svést lidi dohromady, setkat se v jednom bodě a uzavřít jinou dohodu. Kdyby existovala skupina lidí, řekněme zde nebo někde ve světě, kteří by byli ochotni uspořádat summit nejlepších etiků, technologů, ale ne příliš mnoho lidí, malý, a vás a vašich kolegů, aby se pokusili rozlousknout, jaké by mohly být dohodnuté bezpečnostní linie po celém světě, byl byste ochoten se zúčastnit? Naléhal byste na své kolegy, aby…

Ale mnohem více mě zajímá, co chtějí naše stovky, miliony uživatelů jako celek. Víte, myslím si, že spousta rozhodnutí v této místnosti byla historicky učiněna na malých elitních summitech. Jednou ze skvělých nových věcí na AI je, že naše AI může mluvit s každým na Zemi a my se můžeme naučit kolektivní hodnotové preference toho, co každý chce, spíše než aby banda lidí, kteří jsou požehnáni společností, seděla v místnosti a dělala tato rozhodnutí. Myslím, že je to velmi skvělé. A myslím, že uvidíte, že v tomto směru uděláme více. A když jsme udělali chyby, protože elity v místnosti měly jiný názor na to, co lidé chtěli pro mantinely u ImageGen, než co lidé skutečně chtěli. A nemohli jsme poukázat na skutečnou škodu. Takže jsme tu změnu udělali. Jsem na to hrdý.

Existuje dlouhá historie nezamýšlených důsledků vyplývajících z jednání stovek milionů lidí. A jsou tu také lidé, 100 lidí v místnosti, kteří dělají předpoklady. A stovky milionů lidí nemají kontrolu nad tím, nemusí nutně vidět, kam by mohl vést další krok.

Doufám, že to je naprosto přesné a naprosto správné. Doufám, že nám AI může pomoci být moudřejšími, činit lepší rozhodnutí, může s námi mluvit. A pokud řekneme: „Hej, chci věc X,“ víte, spíše než aby to dav roztočil, AI může říct: „Hej, naprosto chápu, že to je to, co chceš. Pokud je to to, co chceš na konci této konverzace, máš to pod kontrolou. Vyber si. Ale zvážil jsi to z pohledu této osoby nebo dopad, který to bude mít na nás lidi?“ Myslím, že nám AI může pomoci být moudřejšími a činit lepší rozhodnutí o kolektivní správě než dříve.

No, už jsme dávno přetáhli čas, Same. Dám vám poslední slovo. Do jakého světa si myslíte, všechno zváženo, že váš syn vyroste?

Pamatuji si, je to už tak dávno. Nevím, kdy vyšel první iPad. Je to tak 15 let? Něco takového? Pamatuji si, jak jsem tehdy sledoval na YouTube video malého batolete sedícího v čekárně u lékaře nebo tak něco, a byl tam časopis, jako jeden z těch starých časopisů s lesklou obálkou, a batole na něm mělo ruku a dělalo tohle [gesto šoupání po obrazovce] a bylo trochu naštvané. A pro to batole to byl jako rozbitý iPad. A nikdy si nepředstavilo svět, ve kterém neexistují dotykové obrazovky. A pro všechny dospělé, kteří to sledovali, to byla úžasná věc, protože to bylo jako: „Je to tak nové. Je to tak úžasné. Je to zázrak. Samozřejmě, časopisy jsou způsob, jakým funguje svět.“

Moje dítě. Mé děti, doufejme, nikdy nebudou chytřejší než AI. Nikdy nevyrostou ve světě, kde produkty a služby nejsou neuvěřitelně chytré, neuvěřitelně schopné. Nikdy nevyrostou ve světě, kde vám počítače prostě nerozumí a neudělají, pro nějakou definici čehokoli, co si dokážete představit. Cokoli si dokážete představit. Bude to svět neuvěřitelného materiálního blahobytu. Bude to svět, kde rychlost změn je neuvěřitelně rychlá a dějí se úžasné nové věci. A bude to svět, kde individuální schopnosti, dopad, cokoli, jsou prostě tak daleko za tím, co může člověk udělat dnes. Doufám, že mé děti a všechny vaše děti se na nás budou dívat zpět s jistou lítostí a nostalgií a budou si říkat: „Žili tak hrozné životy. Byli tak omezení. Svět stál za tolik.“ Myslím, že je to skvělé.

Je neuvěřitelné, co jste vybudoval. Opravdu je. Je to neuvěřitelné. Myslím, že v příštích několika letech budete mít jedny z největších příležitostí, největších morálních výzev, největších rozhodnutí, která možná kdy jakýkoli člověk v historii musel udělat. Měl byste vědět, že všichni tady vám budeme fandit, abyste udělal správnou věc.

Uděláme, co bude v našich silách. Děkuji mnohokrát. Děkuji. Děkuji, že jste přišel na TED. Děkuji, Same. Děkuji. Mockrát děkuji. Užili jsme si to. Díky.

🔍 Kritické zhodnocení

Toto kritické zhodnocení vychází z poskytnutého souhrnu a částečného přepisu rozhovoru se Samem Altmanem.

1. Kvalita a relevance obsahu: Obsah videa je vysoce relevantní a aktuální. Téma umělé inteligence, konkrétně vývoj v OpenAI (Sora, GPT-4), etické otázky, bezpečnostní rizika a budoucnost AGI, patří mezi nejdiskutovanější témata současnosti. Rozhovor s CEO OpenAI, jednou z klíčových postav oboru, přináší cenný vhled přímo od zdroje. Kvalita obsahu se zdá být vysoká – pokrývá jak technologické novinky a jejich demonstrace (diagram inteligence vs. vědomí), tak zásadní společenské a etické implikace (autorská práva, bezpečnost, AGI). Diskuse se dotýká jak potenciálu AI (věda, produktivita), tak jejích rizik.

2. Přesnost a spolehlivost informací: Informace týkající se schopností modelů OpenAI (Sora, GPT-4) lze považovat za spolehlivé, neboť pocházejí přímo od Sama Altmana. Ukázky (video, diagram) poskytují konkrétní důkazy o těchto schopnostech. Je však nutné brát v potaz, že Altman vystupuje jako zástupce OpenAI a jeho pohled je přirozeně ovlivněn zájmy společnosti. Jeho interpretace etických dilemat (např. kompenzace tvůrců, rozdíl mezi kopírováním a inspirací) představuje stanovisko OpenAI, které nemusí být nutně objektivní nebo univerzálně přijímané. Podobně jeho názory na budoucí vývoj (AGI jako škála, zvládání rizik) jsou sice informované, ale stále jde o predikce a postoje, nikoli o ověřená fakta. Otevřenost ohledně rizik je pozitivní, avšak míra jejich bagatelizace či naopak zdůraznění může být ovlivněna PR strategií.

3. Prezentační styl a srozumitelnost: Z přepisu vyplývá, že rozhovor má konverzační formát. Altman působí klidně a (dle moderátora možná až příliš) uměřeně. Zdá se, že se snaží vysvětlovat komplexní témata srozumitelně, jak ukazuje příklad s diagramem nebo přirovnání AI k novému nástroji zvyšujícímu produktivitu. Použití vizuálních demonstrací (Sora, diagram) pravděpodobně zvyšuje srozumitelnost a angažovanost publika. Celkově lze očekávat, že styl je přizpůsoben širšímu, ale informovanému publiku (typickému pro TED), a tudíž je srozumitelný i pro diváky bez hlubokých technických znalostí.

4. Silné a slabé stránky:

  • Silné stránky:
    • Autorita mluvčího: Sam Altman jako CEO OpenAI poskytuje unikátní perspektivu.
    • Aktuálnost a relevance: Téma je na špici technologického a společenského zájmu.
    • Šíře záběru: Pokrývá technologii, etiku, bezpečnost, budoucnost i praktické aplikace.
    • Konkrétní ukázky: Demonstrace schopností AI zvyšují názornost.
    • Otevřenost (alespoň částečná) ohledně rizik: Přiznání existence bezpečnostních a etických výzev.
  • Slabé stránky:
    • Potenciální střet zájmů: Altman přirozeně prezentuje OpenAI v co nejlepším světle.
    • Omezená hloubka: V rámci rozhovoru nemusí být dostatek prostoru pro hlubokou analýzu komplexních témat (etika, regulace).
    • Jednostrannost pohledu: Chybí přímá konfrontace s kritickými názory nebo alternativními pohledy (např. od umělců, regulátorů, jiných AI laboratoří).
    • Nejasné řešení etických otázek: Uznání problému (kompenzace tvůrců) nemusí být doprovázeno dostatečně konkrétním řešením.

5. Pro koho je obsah vhodný: Video je vhodné pro široké spektrum diváků se zájmem o technologie a jejich dopad na společnost:

  • Zájemce o nejnovější vývoj v oblasti umělé inteligence.
  • Uživatele ChatGPT a dalších nástrojů AI.
  • Technologické profesionály, podnikatele a inovátory.
  • Tvůrce, umělce a zástupce kreativních průmyslů (kvůli tématu autorských práv).
  • Studenty a akademiky zabývající se AI, etikou nebo sociálními vědami.
  • Politiky a regulátory hledající informace o vývoji a rizicích AI.
  • Širokou veřejnost, která chce porozumět jedné z nejdůležitějších technologií současnosti.

Celkově se jedná o cenný příspěvek do diskuze o AI, který nabízí pohled klíčového hráče. Divák by si však měl být vědom možného zkreslení plynoucího z Altmanovy pozice a doplňovat informace i z jiných, nezávislých zdrojů.

Odkaz na originální video