ChatGPT

Na italském levicovém serveru „Sinistra in Rete“ vyšla úvaha Pina Donghiho o novém (a trendovém) tématu – komunikačním robotu ChatGPT. Ten ohromil (po vlastních prvních pokusech - oprávněně) širokou veřejnost efektem, který byl patrný už na jednoduchoučké algoritmické psychoanalytičce Eliza ze 60. let (který na vše opakoval: „Jaké o tom máte pocity?“) – obecným dojmem inteligence. Nově dodává skutečné reakce, paměť, dojem pochopení. Po tom, co se dialog mezi živými lidmi rozmělnil v množství komunikačních platforem, po tom, co byl naplněný automatismem a bezmyšlenkovitostí, není divu, že zní ChatGPT lidštěji než dialog s člověkem.

ChatGPT koupil Microsoft, což mu možná umožňuje konkurovat globálnímu monopolu – Googlu – ve vyhledávání a získávání, zjednodušování informací, vysvětlování, shrnování. A získat tak pozornost lidí, což je komodita, které tyto molochy nabízejí pro reklamní účely. Data, informace o lidech, i o jejich chování jsou jejich kapitál. Podobně jako mohutné výpočetní a ukládací schopnosti. Smlouvy, kooperace a dohody s centry moci, k omezení nebo rozšíření určitého politicko-ideového poselství, jsou nutnou podmínkou pro jejich fungování.

Kapitál vždy vrhal své přebytky (zvlášť, když nenacházel jiné ziskové cíle) nejdříve do vytváření nových potřeb (umělých či nikoliv), které by mohl naplnit, a dál do perspektivy zkracování-nahrazování lidské práce – lidské činnosti. Manuální práce po její standardizaci a dělbě - byla podřízena rytmu stroje jím absorbována a nahrazována. I sdílení a šíření informací získalo dimenze a standardizace, které mohl nabýt rozsahu bitu až po kdovíjaké exabajty. Od knihtisku, psacího stroje, přes děrné štítky, celuloid, magnetickou pásku a disk, radiové vlny, kabel, PC až k celé internetové síti. To samo nedostačovalo na komplexní, robustní a přirozené zpracování informace u člověka, který naráží na omezenou propustnost dovnitř a ven individuálního vědomí. Tak tedy přišel nový pokrok, s pozadím v podobě korpusu světových dat, s výpočetními prostředky a novým modelem rekurzivní (na sebe reagující) sítě, který na rozdíl od předchozích pokusů není založen na teorii jazyka a pojmu, ale prostě na statistice a predikci. A po přiměřeném (obrovském) nárůstu parametrů se „kvantita zvrátila v kvalitu“ (stařičký Hegel, Engels i teorie katastrof) a podařilo se vytvořit něco uvěřitelného. Něco, pro co dnes chybí formální nástroje k analýze příčin takového projevu. Znalosti o syntaxi a sémantice, psychologii textu jsou zde implicitní a rozptýlené ve vahách sítě, a nelze je nyní explicitně uchopit.

Jaké to bude mít následky, o tom se diskutuje. Od technologického optimismu o bezpraceném (a bezmyšlenkovitém) životě až po katastrofické vize a připomínky rozbíječů strojů (příznačná reakce z dob neexistence politického vědomí dělnické třídy – historie se vrací, po druhé jako fraška). Ale skutečné využití a negativa technologie se projeví až po jejím rozšíření. Pravděpodobně to nebude proud živé vody rozkládajícího kapitálu, jak si ten od toho slibuje. Překlady bude možné udělat strojem, stejně jako výtahy z dlouhého textu a na podrobnosti se doptávat. Poznat omezení a chyby (vnesené technickými omezeními nebo systémem, co ho vlastní) na druhé straně ve většim množství dat a delší době práce bude těžší a bude vyžadovat pozornost a inteligenci – tu která je moderním světem a dosavadním vývojem tolik vyčerpaná. Strojové řízení dopravních prostředků a jiných oblastí vždy může (v „okrajových případech“) udělat chybu, bolestivou, drahou, smrtelnou chybu, něco nerozpoznat, ale vyhodnocování problematické situace vyžaduje pozornost, kterou chtěl člověk delegovat na stroj.

Některé věci se budou muset promyslet znovu. Co ale víme z dějin a po jejich teoretizaci od Marxe – v kapitalismu každé posílení společenských sil (i těch informačních, informace je jen jiná forma hmoty) vede k ožebračení, oslabování bezprostředního člověka. Vede k odcizení a fetišizaci společenských vzthaů. A pokud kapitál zaplňuje každý volný pór tohoto jediného světa, daleko víc, než za Marxových časů, dostávají odcizení a fetišizace monstrózní a bezprecedentní rozměr.

Pino Donghi je spisovatel, ve svých románech řeší problémy svobody, závislosti a omezení techniky.

Dodejme, že překlad pro Šturm vznikl z pomocí nástroje umělé inteligence, který překvapil o něco dříve, ale podobně jako ChatGPT.

 

Co je překvapivé, je ohromující. Ale opravdu mohl někdo pochybovat o tom, že se věcička jako ChatGPT dříve či později stane dostupnou - spíše dříve než později? Opravdu jsme si neuvědomili, že Google Translate nás už nějakou dobu - a to už docela dlouhou - přestal rozesmívat, když jsme četli nepravděpodobné překlady, které nám zpočátku nabízel, a stal se velmi užitečným nástrojem, pro mnohé každodenního použití? Právě David Quammen ve své velmi nedávné knize Bez dechu vypráví příběh o tom, jak na Silvestra roku 2020 Marjorie Pollocková, zástupkyně ředitele epidemiologické zpravodajské služby, našla na spolehlivém čínskojazyčném zpravodajském webu zprávu, zkopírovala ji do automatického překladového systému ve svém počítači a poprvé si uvědomila, že se náš život chystá zahltit nový patogen z rodiny koronavirů. Just simple as that: funguje to! 

Otázkou je jak. A odpověď, víceméně od počátku devadesátých let, zní: bez teorie! V případě Google Translate bez vědecké teorie jazyka, bez symbolů a bez logiky; bez anatomické teorie obličeje, pokud se jmenujete Clearview a prodáváte policii služby face recognition (rozpoznávání obličejů), přičemž místo toho používáte 3 miliardy obrázků dostupných na sociálních sítích (a pak, hrubou silou, prostřednictvím výpočetního výkonu). Pokud se jmenujete Cambridge Analytica... no, to už znáte! Ale je tu také strašidelný IBorder Ctrl, který před rokem a půl testoval možnost využití automatizovaného softwaru k výslechu uprchlíků na hranicích, aby bylo možné číst mikrovýrazy obličeje a odhalit případné lživé výpovědi: a pokud jste si nechali zarámovat... ano, přesně jako ve filmu Blade Runner (jehož vzdálenou budoucností byl rok 2019).

To vše je jen zlomek toho, co je možné s dnešní umělou inteligencí, víceméně o třicet let později. Ta dřívější, projekt zahájený zhruba v padesátých letech, se v osmdesátých letech 20. století zastavila. Důvody si můžete poslechnout z živém podání Nella Cristianiniho (https://www.youtube.com/watch?v=GmVeGIaeLRc) - Itala, který vyučuje umělou inteligenci v Bristolu - na XXXVI. ročníku konference "La lettura del Mulino", kterou uspořádal 6. listopadu 2021 a která stojí za mnohem víc, než kolik času jí věnujete. Předjímáme: Dokud jsme si mysleli, že programy umělé inteligence vyvíjíme tak, že si nejprve představíme teorii, získáme znalosti a axiomy a pak vyvineme algoritmus (nejdříve lingvistickou teorii, řekli jsme si, pak implementaci) no, stroj nikdy nefungoval.
Až do dne, kdy Frederick Jelinek (s Elfriede nemá nic společného), teoretik informace čecho-amerického původu, který pracoval v IBM, v oněch osmdesátých letech stagnace výzkumu, dostal nápad, jak to vzít zkratkou, nahradil gramatiku statistikou, začal stroj krmit texty, dalšími a dalšími texty, nediferencovaně, bez jakéhokoli kritéria výběru, tisíci, miliony, stamiliony textů, a vyslovil větu, která se stala v prostředí ikonickou: "Pokaždé, když vyhodím lingvistu, zvýší se výkonnost rozpoznávání řeči."

Žádná teorie, k čertu s axiomy a znalostmi: pokud systému nerozumíme, nevadí, stačí emulovat jeho chování, počítá se predikce, ne pochopení jevu, který reprodukujeme pomocí stroje. To je úsvit machine learning, to, co překládáme jako "strojové učení", to je příběh umělé inteligence posledních 25-30 let. Tak se zrodil Amazon, tak se řídíme při svých nákupech: když si koupím gin, dříve nebo později se mi někde v telefonu "vykáže" návrh přidat do košíku tonik. Vskutku dobrý nápad! Takhle funguje program na doplňování vět: napíšu: "Kdo sem moc ptá.." a můj device doplní: "...moc se dozví." To je přesně to, co se mi líbí.

Je to proto, že je inteligentní jako já? Ne! Je to proto, že přemýšlí? Ani náhodou. Je to statistika a výpočet pravděpodobnosti. Umělá inteligence nepřemýšlí jako my. Pravdou je, že nemyslí - i když to rádi píšeme - natož aby rozuměla. Rozmělňuje hvězdné množství dat tam, kde vyčte nejpravděpodobnější předpověď: dnes začíná chrlit texty ve všech směrech podobné těm, které vaří naše přirozená inteligence, ale nedělá to jako nejnovější verze homo sapiens. Funguje to tedy jinak, ale funguje to. Just simply as that!

Jednoduše (!), ale samozřejmě s problémy. S jinými problémy, s novými problémy. Cristianini, kterého jsem až příliš vykrádal, o tom mluví také: přesto se o nich zmíním na závěr. Místo toho se vraťme ke zprávám, k rozhořčení po zátahu na ChatGPT. Není třeba říkat, že všeobecnou obavou je, že umělá inteligence je předurčena k tomu, aby nahradila lidskou mysl. Jsme stále tam, v blízkosti Matrixu a předtím tří zákonů robotiky, i když, ač v dáli, zůstává mytologický profil Golema a doktora Frankensteina. Hubris.

Místo v literatuře a ve sci-fi obecně je podle mého názoru až příliš časté. Nakonec se mu nechtěli vyhnout ani Kazuo Ishiguro a Ian McEwan, první s Klárou a sluncem, druhý se Stroji jako já. Ishiguro vkládá do úst otce dítěte Josie otázku pro Kláru, UP, umělého přítele, nevyhnutelnou otázku, chtělo by se dodat: "Věříš v lidské srdce? [...] Neměla bys poznat jeho srdce?"; Adam, android navržený Turingem, který nespáchal sebevraždu, v McEwanem představované protipóze žárlí na vztah mezi Charliem, "majitelem", který si ho "koupil" investováním svých nepříliš dobrých výdělků, a mladou Mirandou. Mozek a vášeň, sense and sensibility.

Budou stroje schopny cítit lásku nebo hněv? Stanou se chytřejšími než my a budou mít konečně navrch? Pokud ano, budou, celý život se honíme za prométheovskými pokušeními. Ach! Staré problémy, dávné obavy. Lepší, podle mého názoru mnohem lepší, je německý film z roku 2021, který napsala a režírovala Maria Schraderová, s názvem Miluj svého robota (v originále Ich bin dein Mensch - Jsem tvůj člověk), kde vynikající Dan Stevens, který se proslavil ságou Downton Abbey (a který hraje perfektně německy), hraje roli robota Toma, naprogramovaného jako ideální muž pro Almu (Alma!), výzkumnici zamilovanou do své práce paleolingvistky a láskyplně vydíranou svým šéfem, který ji výměnou za financování výzkumu požádá, aby humanoida tři týdny "testovala", aby mohl poslat užitečnou zprávu etické komisi, kterou vede, a následně rozhodnout, zda a jak těmto "strojům jako my" umožnit život ve společnosti.

Tom nepřemýšlí a nejedná jako člověk, učí se a postupuje tak, že čte data, tedy Almino chování, a po prvních nevyhnutelných přehmatech ji ujišťuje, že časem, a možná v krátké době, se bude umět chovat tak, jak ona očekává, jako člověk, kterého by Alma chtěla mít po svém boku. Aniž bych chtěl kazit překvapení z velmi doporučeníhodné vize, Alma v podání velmi citlivé Maren Eggertové je po počáteční reakci, která je mírně řečeno zmatená a místy otrávená, a přestože si plně uvědomuje Tomovu "ne-lidskou" povahu, nucena přiznat: "Kéž bych tě nikdy nepotkala. Teď je můj život bez tebe jen životem bez tebe."

Nutí to člověka přemýšlet. Protože žijeme ve vztazích, jsme uzly v síti vazeb, které nás vzájemně vymezují s ostatními lidmi, ale také se zvířecími přáteli, více či méně domácími, s rostlinami a také s předměty, které jsou nám drahé (naše ochranné dečky), s individuálními i kolektivními vzpomínkami, s příběhy, obrazy, hudebními skladbami... Almin výrok nabývá významu stejně cenného jako hlubokého: když někdo, ale i něco, vstoupí do našeho života, může se to stát významným, bez ohledu na jeho ontologickou povahu. V tomto smyslu bych nepovažoval za nutné rozlišovat/kontrastovat mezi obávaným imperialismem (různých) symbolických virtuálů a realitou. Především proto, že to, co zakoušíme svými smysly a inteligencí a jazykem, jimiž to vyslýcháme, je skutečné. Pro Sars-CoV-2 je realitou vše, co mu umožňuje přenášet se a zaručuje mu přežití; za více než tři miliardy let, počínaje LUCA, posledním univerzálním společným předkem (the last universal common ancestor), vytvořil spletitý strom evoluce mimořádné množství organického života na velmi různých úrovních složitosti, jehož jednání ve světě se nelišilo - a u dosud existujících druhů se příliš neliší - od jednání viru: zasloužit si přežití, vyhnout se nebezpečí a získat zdroje. Hlavonožci, chobotnice, které mimo jiné studuje Peter Godfrey-Smith, jsou "jiné mysli", které pravděpodobně představují výsledek zcela jiné evoluční linie než ta naše: jaká je duševní činnost chobotnice, jaká je její realita? (o netopýrech nemluvě). A abychom se vrátili k nám, k homo sapiens, neriskujeme relativistický drift, když si připomeneme, jak nás učil i lingvista Louis Hjelmslev, že to, co prožíváme, je pouze obsahová substance, to, co se vynoří naší vnímavosti, když do existující materie promítneme jazykově-kulturní formu, s níž jsme vyrostli.

Existuje důvod, proč je překlad obtížný a nutně nevěrohodný: nepřekládá se totiž z jazyka do jazyka, ale z jazykového světa do jazykového světa. Není náhodou, že Paul Feyerabend, který svým způsobem znovu navrhl Spinozova spásná emendační cvičení intelektu, doporučil studium několika jazyků a z toho vyplývající překladatelská cvičení. Která jsou nejužitečnější, když se člověk ptá na cestu, ale nepostradatelná, když si je něčím příliš jistý. Když se to stane, je lepší zkusit to říci v jiném jazyce," doporučoval Feyerabend, třeba v několika jazycích: jen když to stále zní přesvědčivě, je šance, že by to mohlo být přijatelné. Jinak lze samozřejmě hledat pravdu a dotknout se klenby světa. Což, pokud existuje, je však jako trubka Jacopa Belba ve Foucaultově kyvadle: velmi krátká (pak už je to jen komentář).

Dnešní umělá inteligence, programy jako ChatGPT, nepracují podle biologicko-kognitivní logiky: jsou "The end of the theory" (Konec teorie), jak se píše ve vydání časopisu Wired z roku 2008, jsou o datech, statistice, výpočetním výkonu, výpočtu pravděpodobnosti. A jsou a budou vždy efektivnější: bylo by překvapivé - a pokrytecké, dodal bych -, kdybychom se při oznámení každého nového udělátka divili. Antropomorfizujeme - ale to děláme i u domácích zvířat, u delfínů, Godfrey-Smith to dělá vyprávěním o chobotnicích - mluvíme o jiné inteligenci, jiných způsobech projevování reality, jiných myslích: nehrozí, že nahradí tu lidskou, tyto návrhy přenechme nejlínějším sci-fi pohádkám.

Jsou to však stroje, kterým delegujeme rozhodnutí: je třeba stanovit pravidla důvěry. A mimochodem, k obavám, které v posledních dnech vykřikují některé noviny, obávající se rizika pro tvůrčí profese, pro ty, kdo jsou zodpovědní za tvorbu obsahu... Je třeba se ptát, proč by měl ChatGPT pracovat hůře než někdo, kdo dostává 10 nebo dokonce 5 eur hrubého za kus. Stále častěji čteme texty špatně přeložené a hůře upravené: pokud někomu záleží na lidské kreativitě, měl by především uznat její hodnotu. 

Několik příběhů, není možné zakázat používání nových technologií, ve škole nebo kdekoli jinde, natož vytrhnout trn z paty: zkratky, jak se vyhnout problémům. Problémy existují a je třeba je řešit, počítali jsme s tím. Zdá se, že ChatGPT byl naprogramován tak, aby se začal vyhýbat nejkritičtějším konfirmačním předsudkům, těm, kteří píší "špinavý černoch", a ne "špinavý kavkazan", prostě proto, že první výskyt je v miliardách textů, které jsme do strojů vložili, mnohem, mnohem častější. Což ovšem potvrzuje problém statistické četnosti nejrůznějších předsudků: pokud do stroje zadáme data bez jakýchkoli kritérií, vyzvrátí to, čím jsme ho nakrmili: GIGO, Garbage In, Garbage Out! (Odpad dovnitř – odpad ven!)

Pokud se počítají pouze kliknutí - upozorňuje Cristianini - registruje stroj naše zájmy, nebo naše slabiny? Hranice není jasná (nikdy není) a tato otázka je zásadní. Existují obrovské problémy týkající se privacy, fairness, equity (soukromí, spravedlnosti a rovnosti). Při zadávání údajů bychom se měli dohodnout, jaké lidské hodnoty budeme hájit: jsme to my? Pokud, ptá se Cristianini, chci vyškolit programátora tak, aby řetězce zaručovaly, že stroj je neutrální, jak definovat neutralitu? Co to znamená? Chceme, aby naše životopisy - pro přijetí na univerzitu, pro přijetí do zaměstnání ve firmě - byly prověřeny programem? Chceme přenechat rozhodování u soudu stroji? To jsou delegace, ale jsou to volby, lidské volby. Nejsou to otázky pro stroje. Nejsou to odpovědi pro technologii. Potřebujeme diktovat pravidla, potřebujeme se dohodnout na governance, je to problém demokracie na planetární úrovni, o kterém se mimochodem už diskutuje na institucionálních místech: více než odsuzovat skandály v tisku - na 24 hodin, maximálně 48 - více než vyzývat ke generické vzpouře na sociální síti, potřebujeme se prozaicky angažovat, studovat a snažit se vyjádřit.

Anekdota z úsvitu počítačů. Začátek 80. let. Na konferenci věnované novým technologiím pro výuku vypráví učitel matematiky na experimentální střední škole v Římě o zkušenostech z posledního roku, kdy se několikrát zasadil o nákup PC pro účely výuky. Na posledním zasedání školní rady se předsedkyně a zasloužilá učitelka matematiky - experimentálního gymnázia, jak opět zdůrazňuje - obrátila na jeho kolegu se svou obvyklou blahosklonností: "Vážený pane profesore, dobře, rozhodli jsme, že pro příští rok budete mít svůj požehnaný počítač. Ovšem pod jednou podmínkou: že ho budete používat pouze k výpočtům!". Profesor odpovídá spíše pobaveně než rozčarovaně: "Milá kolegyně, připomínáte mi jednu mou starou tetu, když jsme jí domů přivezli televizi. Po několika minutách se spokojeně usmála a poznamenala: "To je ale krásný vynález, stačí zavřít oči a zní to jako rádio".
My necháváme oči otevřené.

 

Pino Donghi

Zdroj https://www.sinistrainrete.info/societa/24884-pino-donghi-chatgpt.html

Komentáře

Populární příspěvky z tohoto blogu

Fidel Castro: Nezbytná předmluva Bolivijského deníku

Domenico Losurdo: Komplexní a rozporný průběh Stalinovy éry

CIA a antikomunismus Frankfurtské školy