Má Elon Musk pravdu o AI?

Elon Musk, bývalý podnikatel a návrhář aut, v poslední době známý především jako twitterový troll, často zveřejňuje senzační prohlášení v rozhovorech a na svém Twitteru nevynechá jedinou příležitost, jak na sebe upoutat pozornost, jež by následně posílila značku jeho aut. Nedávno například napsal, že prodává svůj majetek, že cena akcií Tesly je moc vysoká nebo po komentáři, že koronaopatření jsou fašistická přes zákaz znovu spustil výrobu aut s tím, že se klidně nechá zatknout. 

Kromě toho je známý též jeho postoj k umělé inteligenci. Má z ní strach a považuje ji za největší nebezpečí pro lidstvo. Tak se na to podívejme podrobněji. 

Po tom, co Elon identifikoval umělou inteligenci jako největší hrozbu pro lidstvo, založil v roce 2015 (v době, kdy se o nebezpečí umělé inteligence začínalo mluvit a obavy vyslovili například i Steven Hawking či Nick Bostrom) firmu Open AI, která měla vývoj AI demokratizovat podporou spolupráce a transparence. Nyní už tato společnost funguje bez Elona, který odstoupil roku 2018, i když média ji s ním kvůli jeho popularitě stále spojují. Stala se z ní konvenční AI firma, jejíž zaměstnanci prý už spojování jejich úspěchů s Muskovou značkou štve. Elon dále zůstává spojený se společností jako dárce (firma je částečně for profit a non profit). 

Musk vyslovil (a propagoval) především tyto tři myšlenky ohledně AI:


1) AI je největší nebezpečí pro lidstvo.

a proto:

2) AI by měla být otevřeně vyvíjená.
3) Vývoj AI by měl být regulovaný národními a mezinárodními orgány. 


První myšlenka je hlavním tématem tohoto článku a budu se jí věnovat dále. Nyní se stručně podíváme ještě na další Muskova přesvědčení o AI. 

Druhá myšlenka by měla být ještě více kontroverzní. Bohužel o takových věcech se mluví méně než o povrchních věcech o samotné existenci AI/AGI. Myslím si, že silná umělá inteligence by neměla zvýhodnit jedinou skupinu a ostatní poškodit, nýbrž by měla sloužit všem. Spolupráce celého světa zajistí mezinárodní kontrolu vědců, politiků i veřejnosti, takže se dá čekat, že pod vlivem celého světa vznikne AI, která bude brát ohled na blaho celého světa, rozhodně více než když ji vytvoří jedna skupina. Rovněž v případě open source vývoje bude možná veřejná kontrola a transparentnost. Na druhou stranu splupráce může vést k tomu, že AGI dokončí někdo jiný, než kdo realizoval většinu výzkumu. Například zodpovědná firma A vyvine základní myšlenky a zveřejní zdrojové kódy, aby potom teroristická skupina B dokončila poslední detaily a zneužila AI ke špatným účelům. Nick Bostrom (který je jinak pro Muska inspirací a Musk jeho knížku Superintelligence doporučuje (já také)) říká: „Pokud máte tlačítko, které může napáchat škody celému světu, tak ho nechcete dát každému.“ Hledat řešení tohoto dilematu je mimo záběr tohoto článku. Mimochodem, Musk si od Bostroma kromě strachu z umělé inteligence vypůjčil i teorii o simulaci, která je často připisována jemu. Ta říká, že žijeme v simulovaném světě a náš vesmír je tedy virtuální realitou na nějakém božském počítači. S tím souvisí například strach z vypnutí počítače, kde ta simulace běží nebo otázka, zda bychom teorii měli zkusit ověřit.

Třetí myšlenka doporučuje regulaci. Stejně jako demokratický vývoj, i regulace má svoje pro a proti a bude nutné najít správnou cestu regulace (bohužel nečekám, že politici dokážou něco regulovat správně, vlastně je děsivé, že ti naši současní politici budou už za pár let řešit otázky AI, tedy otázky (ne)existence lidstva). Přílišná regulace, tedy až nucené zastavení vývoje, je sice populární a často navrhované řešení strachu z umělé inteligence, v praxi by se ale nejspíš neosvědčilo. Kromě toho, že bychom se vzdali fantastických možností, jež by uměle inteligentní bůh přinesl, mělo by toto opatření další nežádoucí efekt. Na AI by přestali pracovat "ti hodní", kteří dodržují zákony, ale "ti zlí" by ve vývoji pokračovali. Nakonec by toto "zastavení" vývoje mělo pravděpodobně negativní dopad. Domnívám se tedy, že je ztrátou času uvažovat nad tím, jestli AGI má vzniknout a je lepší místo toho přijmout, že prostě vznikne a můžeme jenom (částečně) ovlivnit, jak nám bude vládnout. Samozřejmě těžko lze spoutat něco, proti čemuž jsou biologičtí lidé jako mravenci proti lidem, a je proto zřejmé, že pokud budou mít bezpečnostní opatření nějaké mezery, náš počítačový bůh je odhalí a případně využije. To je důvod, proč je práce na bezpečnosti tak důležitá a obtížná. Jelikož se při ní musíme spoléhat na biologické mozky, jako řešení se nabízí alespoň zapojit do přemýšlení co nejvíce mozků a co nejlépe je organizovat. O tom jsou myšlenky demokratizace a regulace. Stejně jako zastavení vývoje, i jakékoliv jiné omezení od státu či jiné autority zpomalí více žádoucí výzkumy-větve vývoje AI. Pokud ale budeme předpokládat, že Google, Facebook či OpenAI (které považuji za ty "hodné", alespoň ve srovnání s některými jiným) mají lepší pozici pro dosažení AGI (lepší financování, chytřejší vědce, spolupráci s ostatními, menší nutnost skrývání) než kriminální gangy, teroristé a armády, je možné najít úroveň jejich regulace, která je zpomalí natolik, aby už začali vyvíjet AGI více bezpečně, ale ne natolik, aby začali zaostávat za nežádoucími výzkumy. Nebo je naopak lepší "ty hodné" podpořit, aby se zvýšila šance, že dosáhnou výsledku dříve než "ti zlí"? Je vidět, že problém regulace též přináší snad více otázek, čím víc se jím čověk zabývá a nezbývá než douft, že naši politici si s tím nějak poradí. Tolik tedy k problému regulaci výzkumu. Tématem tohoto článku není se otázkám věnovat podrobněji. 

Debaty vzbuzuje především jeho varování před AI. 

Elon roku 2017 pronesl, že je vystavený té nejlepší AI a myslí si, že by lidé měli být znepokojení. Dodal, že AI je fundamentálním nebezpečím pro lidstvo, narozdíl od dopravních nehod a přírodních katastrof, které vzbuzují možná větší strach, ale mají jen lokální dopad. 

Jerome Pasenti, šéf umělé inteligence ve Facebooku se na odpověď vyjádřil, že Elon Musk neví, o čem mluví, když mluví o AI. Podle Pasentiho stejný názor sdílí více lidí v AI komunitě. Říká, že neexistuje nic jako AGI a že lidé nejsou blízko k dosažení lidské inteligence. 

Elon jeho vyjádření komentoval stručně: "Facebook sucks".

Jak čtu o budoucnosti umělé inteligence, často narážím na jednu skutečnost. Bezprostřední vývojáři, tj. datoví vědci a inženýři, neurologové, matematici a podobně, očekávají, že obecná umělá inteligence, pokud je její vytvoření vůbec možné, je ještě daleko. Futurologové zase očekávají, že je blízko. Jejich názory se rozcházejí, ale podle většiny z nich bude silná inteligence vyvinuta za deset až čtyřicet let. 
Čím je to způsobené? Odborníci na systémech bezprostředně pracující nemají nadhled. Stejně jako epidemiologové zastavující epidemii a zároveň páchající větší škody na ekonomice, než by způsobila ta epidemie (ehm Prymula), historici, jejichž výklad dějin je jediný správný a učitelé, jejichž předmět je vždy ten úplně nejdůležitější, ani softwaroví vývojáři nevidí větší obrázek. A to i přesto, že jsou neustále udivováni, co oni sami nebo jejich kolegové dokázali. Říká se, že lidé přeceňují, co je možné v krátkém období a podceňují, co je možné v dlouhém období. Dvojnásob to platí o odvětví umělé inteligence, které patří k těm exponenciálně rostoucím, což je pro lidi většinou těžko pochopitelné a přinejmenším jejich intuitivní výhled do budoucna tomu není přizpůsobený. Například AI komunita předpokládala, že počítač porazí člověka v Go až někdy kolem roku 2025. Stalo se to o 8 let dříve. Po dvou letech už to počítač dokázal i bez lidského učitele a stejným způsobem se během dne naučil šachy a další hry, všechny na nadlidské úrovni. Za další dva roky už jediný program hrál kromě deskových her i videohry. Kdo to čekal? Možná tak lidé, co na příslušných systémech pracovali. Ostatní by ani nenapadlo, že by toto bylo už tak brzy možné, a to ani když měli vývoj základních technologií přímo pod nosem. A oni tomu přece rozumí, oni na tom pracují, jsou nejlepší na světě a neumí to. Je přece jasné, že to nikdo ještě dlouho umět nebude, ne? Jiní zase, snad upřímně, snad ve snaze získat financování, přeceňují svoje aktuální bádání a slibují zaručené a šokující výsledky. 
I když by se vhled AI vědců mohl při předpovídání budoucnosti hodit, jejich pokřivené předvídání budoucnosti jejich oboru způsobuje, že lepší bude naslouchat lidem mimo obor (či částečně mimo obor, s přesahem do filozofie, futurologie, historie IT a podobně), jejichž předpovědi se zatím ukázaly být přesnější. 

Myslím si, že Muskův děsivý tón volající po znepokojení je možná přehnaný, ale pokud ano, tak jen mírně. V jádru má totiž pravdu. Je lepší využít období výzkumu (i kdyby byl jenom na začátku) pro veřejné diskuze, politická opatření a navrhování bezpečnostních mechanismů než se utěšovat slovy výzkumníků, že AGI že ještě daleko ("better safe than sorry"). Přijde doba, kdy už daleko nebude. Z minulosti víme, že takové časy přicházejí nečekaně rychle po tom, co něco bylo nemožné. Po tom, co AGI vznikne, může dosáhnout nadlidské úrovně a ovládnout svět rychle, než si toho vůbec stihneme všimnout a něco s tím udělat, nebo nám může zabránit s tím něco udělat. Nemůžeme si být jistí, že potenciálně nebezpečná AI se neobjeví do deseti let. To si myslí i Musk: říká, že už by měl začít proces vytváření pravidel pro AI. 

V této věci bych se tedy trochu zastal Elona. Neříkám, že máme mít strach z umělé inteligence a rozhodně není dobré lidi pouze děsit. Naopak myslím, že jsou užitečné oba názory/pohledy, optimistický i varovný. Netrpělivě očekávat Kurzweilovu utopii a zároveň dávat pozor na rizika popsaná Bostromem (popularizovaná Muskem) může být nejlepší motivace, jak zajistit tu správnou budoucnost.

I když jsem ohledně budoucnosti AI optimistický a nadšený, je jistě dobře, že existují i varovné hlasy. Myslím si, že budoucnost bude super, ale existuje určité riziko, že by nemusela být super, dokonce že by mohla být i strašná, a proto je třeba se na ni připravit. Snahy o omezení či zastavení vývoje AI vnímám jako neúčinné a škodlivé. Jednak se v minulosti již ukázalo, že zastavit pokrok nelze. Vždycky bude existovat stát, firma, garáž nebo jednotlivý počítač, kde se na obecné inteligenci bude pracovat. Na rozdíl od současnosti ale tyto výzkumy budou probíhat skrytě, neregulovaně a nedemokraticky. Dá se očekávat, že případný úspěch by vedl ke zvýhodnění určité skupiny (firmy, teroristické organizace, gangu, státu a podobně), která takto snadno získá neomezenou moc nad celým světem, a že by takto vytvořená AI nebyla zabezpečená tak, jako kdyby úroveň jejího zabezpečení kontroloval celý svět. 

Nezbývá nic než vývoj AI podpořit. Takový zodpovědný vývoj, který bude opatrný a bude mít na mysli budoucnost všech bytostí současných i budoucích v celém vesmíru, ne krátkodobý zisk inženýrů. Je škoda, že veřejná diskuze se zaměřuje především na to, kdy AI "bude" nebo dokonce jestli vůbec "bude", místo aby lidé přemýšleli jak reálně a konkrétně vytvořit AGI. Je to sice těžký úkol, ale je to vlastně poslední věc, jakou lidstvo bude muset vymyslet. Pak už bude počítač myslet za nás, ale jestli bude myslet pro nás či proti nám, bude záležet na tom, jak dobře jsme my vymysleli jeho.

Komentáře