5 pohledů na rizika AI

Při svém studiu umělé inteligence se často setkávám převážně s pěti pohledy na její riziko. Přitom podstatný je podle mě ten nejméně častý. Proto jsem se rozhodl o tomto napsat článek. Bude kratší, než je na tomto blogu zvykem, ale možná by šlo psát takto krátké články o to častěji. 


1. pohled
Skupina vyznávající první pohled jsou popírači. Tak jako ve všech oborech lidské činnosti, i AI (možná především AI) má své popírače. Popírání je v tomto případě snadné, protože AI je něco nového a pro některé těžce představitelného a takové věci se vždy snadno popírají. Podle popíračů umělá inteligence neexistuje a nebude (nemůže) existovat. Není se tedy čeho obávat, protože žádná rizika neexistují. Často jako svůj argument uvádějí náboženské představy (člověk/inteligence je božím dílem a nedá se vytvořit člověkem) nebo inteligenci spojují s dýcháním, životem či vědomím (a dogmaticky dodávají, že vědomí člověkem nemůže být vytvořeno). Jaký to posun od dob, kdy symbolem inteligence bylo hraní šachů! Dá se říct, že umělá inteligence neexistuje a nebude existovat, protože vždy když se nějaký technologický sen stane skutečností, přestane to být umělou inteligencí a představa, co umělá inteligence musí umět, se opět posune. Hraní šachů a dalších deskových i počítačových her, odpovídání na otázky, přepis řeči, popis obrázků, diagnostikování nemocí, řízení auta či překládání, což všechno kdysi mohlo být považováno za symbol inteligence, dnes již jako ten stěží obstojí. 

První pohled je nesprávný a měl by být nahrazen pohledem číslo 4 a hlavně pohledem číslo 5. 


2. pohled
Tito lidé si nebezpečí silné umělé inteligence sice uvědomují, ale z nějakého důvodu mu nevěnují pozornost. Například mohou být představou umělé inteligence natolik fascinováni, že nedokáží docenit její rizika. Nebo si myslí, že vytvoření silné inteligence je tak daleko, že se jej pravděpodobně nedožijí (ti by si měli uvědomit, že nástup inteligence bude postupný a postupně se díky němu bude prodlužovat naděje dožití, takže se dost možná silné inteligence dožijí a když ne, pořád jde o nebezpečí pro jejich potomky). I když silná umělá inteligence (nebo také artificial general intelligence, AGI) může být daleko, jejím základem bude dnešní společnost, dnešní organizace, dnešní zákony. Proto argument s dlouhou dobou není příliš pádný. 

Tento pohled je nebezpečný a je trestuhodné od lidí, kteří si možnost AGI uvědomují, nezaměřovat se na její rizika, byť jsou toho na rozdíl od první skupiny schopní. 


3. pohled
Samostatnou skupinou jsou i lidé, kteří četli knihy nebo viděli katastrofické filmy o umělé inteligenci. Zde je třeba opět připomenout, že scifi nám neukazuje nejpravděpodobnější budoucnost, ale nejzajímavější budoucnost a vyžaduje konflikt, i když není pravděpodobné, že by nějaký měl nastat. Takoví lidé pak mluví o strojích-zabijácích, které se z nějakého záhadného důvodu rozhodli všechny pozabíjet a ovládnout svět. Automaticky robotům přisuzují lidské vlastnosti. Především vlastní vůli, díky které budou nezávisle na naprogramovaných cílích využívat svoji technologickou převahu (a samozřejmě ji zneužívat, protože je to tak zajímavější nebo protože by se tak zachoval člověk). 

Tento pohled problematiku zesměňuje a odsouvá skutečná rizika na druhou kolej. Na druhou stranu může posloužit alespoň jako vztyčený prst, díky kterému si lidé dají pozor na roboty a s nimi i na jejich skutečná nebezpečí. Byla by však škoda, kdyby debata o AGI skončila u robotů-zabijáků. 


4. pohled
Vyznavačů čtvrtého pohledu v posledních letech hodně přibylo. Všímají si nástupu strojů, robotů a umělé inteligence a jejich dopadu na dnešní svět. Mají na mysli uměleinteligentní předsudky, vliv strojů na nezaměstnanost (negativní i pozitivní) nebo bezpečnost samořídících aut (nepochopitelně často absurdní situaci, kdy se auto neschopné včas zabrzdit musí rozhodnout, koho z lidí před sebou srazí). 

Je třeba ocenit, že se lidé vážným problémům současné AI  seriózně věnují. Neměly by se však stát synonymem pro problémy s umělou inteligencí obecně. 


5. pohled
Konečně se dostáváme k pátému pohledu, který je podle mě nejvíce správný a bohužel tak málo k vidění (i když se situace pravděpodobně zlepšuje). Lidé vyznávající pátý pohled (včetně mě) si uvědomují možnost existence silné umělé inteligence i s jejími riziky. Jelikož čtete článek o rizicích AI, nebudeme se zde věnovat jejím přínosům. To neznamená, že podle mě neexistují ani že kvůli rizikům by AGI podle mě neměla vzniknout. Je třeba pochopit, že největší rizika se liší od pouhých robotů, kteří nezvládnou řízení vozidla nebo od algoritmu, jenž vygeneruje rasistickou urážku. Největší rizika mají nejen existenciální charakter (schopnost vyhubit lidstvo), ale můžou též dnešní lidi (a potenciálně biliony dalších) uvrhnout do nekonečného zotročení, mučení a podobně. Nepůjde však o roboty-zabijáky, kteří nepochopitelně získali vlastní vůli a nenávist k lidstvu, ale o stroj(e) vytvořené s chybným či škodlivým úmyslem. Skutečným nebezpečím je umělá inteligence, které někdo dá cíl, který bude škodlivý pro lidstvo (např. zneužití ve válce: vyhladit všechny Číňany/černochy/ženy/lidi). Další možností je selhání formulace správného cíle. AI si může cíl, na němž lidé neshledají nic špatného, vyložit tak, že jeho uskutečnění bude škodlivé pro lidstvo. Může cíl splnit příliš (známý příklad je naplnění vesmíru například kancelářskými sponkami, k jejichž výrobě budou použity i atomy z lidských těl), může svůj cíl neočekávaným způsobem (místo zařízení šťastných životů pro lidi stimulovat mozky tak, aby se cítily šťastné, i když nakonec by to k dlouhodobému pocitu štěstí nevedlo) či selhat jinak (proměnit celý vesmír na počítač, který se bude ujišťovat, že byl rozumný a rozumně definovaný cíl splněn). To jsou skutečná rizika, kterým budeme možná již za pár desetiletí čelit a na jejichž eliminaci bychom jako lidstvo měli začít pracovat hned. Měli bychom přestat vyznávat nebo přehnaně řešit předchozí čtyři pohledy a místo toho si uvědomit, jaká rizika jsou s AGI skutečně spojena a co s nimi můžeme dělat my a dnes. Pro začátek doporučuji knihu Superinteligence od Nicka Bostroma, kterou mám moc rád a věnuje se především negativním aspektům silné inteligence. 

Je to aktuální moment, kdy se vytvářejí podmínky pro vznik AGI schopné nám nepředstavitelně pomoci nebo také nepředstavitelně uškodit. Proto bychom také v tomto momentu měli podpořit výzkum toho, jak dosáhnout té správné varianty. Porozumět rizikům je prvním krokem a minimem, co můžeme udělat. 

Komentáře