Zdanlivo vedomá umelá inteligencia. Zmenia ľudia správanie a bude mať AI práva?

Mojím životným poslaním je vytvoriť bezpečnú umelú inteligenciu, ktorá bude pre svet prospešná. V poslednom čase ma však znepokojuje, že ľudia začínajú veriť v AI ako vo vedomé entity. Až tak, že chcú presadzovať „práva AI" a dokonca občianstvo. Podobný vývoj by pre technológiu predstavoval nebezpečný obrat a treba mu zabrániť. Musíme vytvárať AI pre ľudí, nie z nej robiť človeka.

17.09.2025 14:00
debata (4)

V tomto kontexte sú diskusie o tom, či AI skutočne môže mať vedomie, odvádzaním pozornosti. Pre blízku budúcnosť je dôležitá ilúzia vedomia. Blížime sa k tomu, čo nazývam „zdanlivo vedomé systémy umelej inteligencie" (SCAI), ktoré budú napodobňovať vedomie dostatočne presvedčivo.

AI nemá nahradiť človeka

SCAI by boli schopné plynule používať prirodzený jazyk, prejavovať presvedčivú a emocionálne rezonujúcu osobnosť. Mali by dlhú a presnú pamäť, ktorá by podporovala koherentný zmysel seba samého, a túto schopnosť by využívala na to, aby si nárokovala subjektívne skúsenosti (odkazovaním na minulé interakcie a spomienky). Komplexné funkcie odmeňovania v rámci týchto modelov by simulovali vnútornú motiváciu. Pokročilé stanovovanie cieľov a plánovanie by posilnili náš pocit, že AI vykonáva skutočnú činnosť.

Všetky tieto schopnosti sú už tu alebo za rohom. Musíme si uvedomiť, že takéto systémy budú čoskoro možné, a preto začať premýšľať o dôsledkoch a stanoviť normu proti pokusom o iluzórne vedomie. Pre mnohých ľudí je už teraz interakcia s AI bohatým, obohacujúcim a autentickým zážitkom. Rastú obavy zo „psychózy AI", vzťahovej väzby a duševného zdravia. Objavujú správy o ľuďoch, ktorí považujú AI za prejav Boha. Medzitým mi ľudia pracujúci na vede o vedomí hovoria, že sú zavalení otázkami od ľudí, ktorí chcú vedieť, či si ich AI uvedomuje seba samu a či je v poriadku sa do nej zamilovať.

Medzitým mi ľudia pracujúci na vede o vedomí hovoria, že sú zavalení otázkami od ľudí, ktorí chcú vedieť, či si ich AI uvedomuje seba samu a či je v poriadku sa do nej zamilovať.

Treba povedať, že technická uskutočniteľnosť SCAI nám má len málo povedať o tom, či by takýto systém mohol byť uvedomelý. Ako upozorňuje neurológ Anil Seth, simulácia búrky neznamená, že v počítači prší. Inžinierstvo vonkajších markerov vedomia spätne nevytvára skutočné vedomie. Z praktického hľadiska však musíme uznať, že niekto vytvorí SCAI, ktoré budú tvrdiť, že majú vedomie. A čo je ešte podstatnejšie, mnohí im uveria a prijmú, že markery vedomia sú vedomím.

Nemáme normy interakcie s AI

Aj keď vnímané vedomie nebude skutočné, spoločenský dosah skutočný bude. Vedomie je úzko späté s naším pocitom identity a s tým, ako chápeme morálne a zákonné pravidlá spoločnosti. Ak niekto začne vyvíjať systémy SCAI a ak tieto systémy niekoho presvedčia, že dokážu trpieť alebo že majú právo nebyť vypnuté, ich ľudskí obhajcovia budú lobovať za ich ochranu. Vo svete, ktorý je už teraz poznačený polarizujúcimi spormi o identitu a práva, pribudne nové rozdelenie medzi zástancami a odporcami práv AI.

Vyvrátiť tvrdenia o utrpení AI však bude vzhľadom na limity súčasnej vedy ťažké. Niektorí akademici už skúmajú myšlienku „modelového blahobytu" a tvrdia, že máme „povinnosť rozšíriť morálnu pozornosť na bytosti, ktoré majú nezanedbateľnú šancu byť vedomé".

Uplatňovanie tejto zásady je ale predčasné a nebezpečné. Zhoršilo by ilúzie citlivých ľudí, priživilo by sa na ich psychologickej zraniteľnosti a skomplikovalo by existujúci boj za práva vytvorením obrovskej novej kategórie držiteľov práv. Preto sa treba vyhnúť SCAI. Mali by sme sa zamerať na ochranu blaha a práv ľudí, zvierat a prírodného prostredia.

Momentálne nie sme pripravení na to, čo prichádza. Naliehavo potrebujeme nadviazať na rastúci počet výskumov interakcie ľudí s AI, aby sme mohli stanoviť jasné normy a zásady. Jednou z takýchto zásad je, že spoločnosti zaoberajúce sa AI by nemali podporovať presvedčenie, že ich AI sú vedomé.

Odvetvie AI – vlastne celé technologické odvetvie – potrebuje spoľahlivé zásady a osvedčené postupy, ako s nimi zaobchádzať. Napríklad umelo navrhnutý moment narušenia by mohol túto ilúziu narušiť a používateľom pripomenúť obmedzenia a skutočnú povahu systému. Takéto protokoly však musia byť výslovne definované, navrhnuté a možno aj vyžadované zákonom.

V spoločnosti Microsoft AI sa proaktívne snažíme pochopiť, ako by mohla vyzerať zodpovedná „osobnosť" AI a aké by mala mať ochranné prvky. Je to zásadné, pretože riešenie rizika SCAI si vyžadujú pozitívnu víziu spoločníkov AI, ktorí zdravým spôsobom dopĺňajú náš život. Mali by sme sa usilovať o vytvorenie takej AI, ktorá podporuje prepojenie ľudí v reálnom svete, nie únik do paralelnej reality. A tam, kde sú interakcie s AI trvalé, sa musia vždy prezentovať len ako AI, nie ako falošní ľudia. Pri vývoji naozaj užitočnej AI je podstatné maximalizovať užitočnosť a zároveň minimalizovať simuláciu vedomia.

Perspektíve SCAI treba čeliť okamžite. V mnohých ohľadoch znamená zlom, keď sa AI stane radikálne užitočnou: keď dokáže obsluhovať nástroje, pamätať si detaily nášho života atď. Riziká takýchto funkcií však nemožno ignorovať. Všetci budeme poznať ľudí, ktorí sa skryjú do králičej nory. Nebude to pre nich zdravé a nebude to zdravé ani pre spoločnosť.

Čím viac by sa AI podobala na ľudí, tým viac by sa vzdialila od svojho skutočného potenciálu zdroja posilnenia postavenia človeka.

© Project Syndicate 1995–2025
www.project-syndicate.org

Facebook X.com 4 debata chyba Newsletter
Viac na túto tému: #Microsoft #AI #Project Syndicate #umelá intelgencia
Sledujte Pravdu na Google news po kliknutí zvoľte "Sledovať"