Právna džungľa umelej inteligencie a jej regulácia

Talianske úrady nedávno zakázali využívanie ChatGTP – služby postavenej na takzvanej generatívnej umelej inteligencii, technológie schopnej vytvárať samostatne, na základe zadania, obsah (v tomto prípade text). Dôvodom je porušenie pravidiel ochrany osobných údajov. Podobné rozhodnutie môže prísť aj v iných krajinách, sťažnosti voči ChatGPT na porušenie ochrany osobných údajov rieši napríklad francúzsky úrad.

12.04.2023 14:00
debata

Firma OpenAI, ktorá službu ponúka, samozrejme, akékoľvek porušenie pravidiel odmieta a všetko chce vysvetliť. Koniec koncov ide o obrovský biznis – len investícia Microsoftu do tejto formy oznámená začiatkom tohto roka má hodnotu 10 miliárd dolárov. Faktom však je, že technológia sa rozvíja v legislatívnom vákuu – alebo džungli, závisí od uhla pohľadu. Čo najjasnejšie vymedzenie pravidiel ochráni spotrebiteľov, ale je dôležité aj pre firmy investujúce do výskumu a vývoja v tejto oblasti.

Na to, aby generatívna umelá inteligencia (AI) mohla podľa zadania produkovať „vlastný obsah“, musí sa natrénovať. Teda spracovať veľké množstvo existujúceho digitálneho obsahu, na základe ktorého potom dokáže „odpovedať“ na otázky užívateľov. Využívanie digitálneho obsahu však nie je úplne voľné, na niektoré druhy dát sa môžu vzťahovať prísne pravidlá.

Môže ísť o osobné údaje, ktoré podliehajú ochrane. Na ich zber či spracovanie je potrebný súhlas dotknutej osoby. Na iné sa môžu vzťahovať autorské práva – texty, fotografie, obrázky, audio- a videosúbory ktoré niekto vytvoril, na ich použitie by mal vydať súhlas, prípadne zaň aj dostať kompenzáciu.

Nevieme, či firmy vyvíjajúce systémy ako ChatGPT takýto súhlas získali – je dosť možné, že nie. Zároveň nič negarantuje, že pri ich „trénovaní“ použili len voľne dostupný obsah – je to skôr nepravdepodobné. Sťažností pre porušenie ochrany osobných údajov či autorských práv bude pravdepodobne pribúdať. Súdy v Spojených štátoch a Spojenom kráľovstve už riešia prvé žaloby umelcov, ktorých diela boli údajne ilegálne použité na trénovanie generatívnej umelej inteligencie.

Ďalšou úrovňou problému je použitie technológie. To môže byť úplne nevinné, skladanie haiku či generovanie obrázkov pápeža v bielej módnej vetrovke. Technológia môže byť užitočná, napríklad v lekárstve. No môže byť aj nebezpečná – zrejmým príkladom je produkovanie dezinformácií.

Takáto nejednoznačnosť neplatí len pre generatívnu AI, aj nitroglycerín môže liečiť aj zabíjať. Blokovanie technológie nie je riešením. Môže byť preventívnym krokom. A spôsobom, ako prinútiť vývojárov generatívnej AI a poskytovateľov služieb, na nej postavených, aby rešpektovali existujúce pravidlá a niesli zodpovednosť za jej využívanie.

Škodlivému použitiu to, samozrejme, úplne nezabráni. Napríklad v politike – dezinformácie budú využívanie aj naďalej. A vďaka generatívnej AI ich bude viac a budú vyzerať presvedčivejšie. O to dôležitejšie je sa pred nimi imunizovať: zvyšovanie informačnú gramotnosť, schopnosť rozlišovať a spracovávať informácie, kriticky myslieť.

© Autorské práva vyhradené

debata chyba
Viac na túto tému: #umelá inteligencia #ChatGTP