Důvěryhodná umělá inteligence musí mít možnost se v Evropě rozvíjet s cílem zajistit lepší služby a ekonomické příležitosti

AI

Dostat se na přední místa v digitálních technologiích není pro Evropu pouhým luxusem; je to nezbytnost. Náš budoucí hospodářský úspěch a společenská prosperita závisí na naší schopnosti využít transformační sílu důvěryhodných digitálních inovací. EU se připravuje na nové legislativní období a je zcela zřejmé, že musí upřednostnit vytvoření pevného a úplného jednotného digitálního trhu, podpořeného harmonizovanými předpisy, které umožní rozvoj důvěryhodných inovací. 

Draghiho zpráva mluví jasně: abychom uvolnili inovační potenciál Evropy a zajistili konkurenceschopnost jejích průmyslových odvětví, musíme integrovat umělou inteligenci do stávajících sektorů a zároveň zaujmout vedoucí pozice v nových. Přes určitý pokrok, čísla vyvolávají obavy. V roce 2023 vedly Spojené státy v oblasti soukromých investic do umělé inteligence (62,5 miliardy eur), následované Čínou (7,3 miliardy eur), zatímco EU přilákala 5,5 miliardy eur. V roce 2023 pocházelo 61 významných modelů umělé inteligence z institucí v USA, zatímco v EU to bylo 21 a v Číně 15. K vyrovnání tohoto nepoměru je zapotřebí zaměřit se na praktickou implementaci souboru digitálních pravidel i na intenzivní inovace. Je nezbytné, aby veřejný a soukromý sektor spolupracovali na vytvoření funkčního evropského ekosystému. 

Obrovský objem právních předpisů a složitost evropského právního prostředí ve spojení s roztříštěností právních předpisů v jednotlivých členských státech, vyžadují harmonizovaný, evropský a multidisciplinární přístup. Ten musí přinést podnikům v EU jasné a praktické pokyny, které jim pomohou zavádět a osvojovat si nové technologie. V průměru téměř jedna z pěti evropských malých a středních firem obchoduje online, ovšem méně než jedna z deseti přeshraničně; pouze 8 % podniků v EU zavedlo AI. To ilustruje překážky pro startupy, navyšování počtu digitalizovaných podniků i přijetí umělé inteligence. Nejde jen o promarněnou příležitost, ale o dlouhodobou hrozbu pro ekonomickou budoucnost Evropy. 

Během posledních pěti let EU vyvinula složitý soubor pravidel pokrývající celý digitální hodnotový řetězec, včetně nového AI Aktu. Velká část tohoto souboru pravidel bude muset být brzy upřesněna a uvedena do praxe. Skupina B9+ i další zainteresované strany, včetně ministerské skupiny D9+ a Dr. Draghiho, zdůraznily potřebu zajistit, aby byl tento nový soubor pravidel v praxi koherentní, předvídatelný a aby podporoval, nikoli podkopával, evropskou konkurenceschopnost. Je také třeba diskutovat o tom, zda jsou při zavádění digitálních regulací všechna práva náležitě vyvážena. 

Bez jasné a koherentní harmonizace právních předpisů riskuje EU, že se ocitne na okraji AI revoluce a zůstane závislá na technologiích vyvinutých jinde. Tím přijde o transformační příležitosti k růstu, inovacím a posílení svého globálního vlivu. 

S ohledem na cíl AI Aktu, proaktivní přístup k vývoji a implementaci odpovědné umělé inteligence, význam GDPR a úlohu EDPB, žádost Irské komise pro ochranu osobních údajů (DPC) adresovanou Evropskému sboru pro ochranu osobních údajů (EDPB) o stanovisko dle článku 64(2) GDPR, a s přihlédnutím k setkání zainteresovaných stran EDPB konanému 5. listopadu, bychom my, níže podepsaní, chtěli formálně nastínit některá doporučení pro stanovisko EDPB týkající se modelů umělé inteligence a společné potřeby vnést do této oblasti větší jasnost. 

Úvahy pro stanovisko EDPB k AI modelům, očekávané do konce roku 2024 

1. Podniky potřebují vyvážený a pragmatický přístup k zpracování dat v kontextu trénování AI modelů, který umožní vývoj a zavádění AI “vyvinuté v Evropě“, a přitom bude respektovat evropské hodnoty a standardy ochrany soukromí.

  • Rozsah by se měl zaměřit na zpracování osobních údajů pro vývoj a trénink generativních modelů umělé inteligence. Musí být v souladu s požadavky GDPR a AI Aktu a nesmí je překračovat. Stanovisko by mělo být jasně ohraničeno a co nejstručnější.
  • Přístup by měl být pragmatický, podporovat spravedlivou hospodářskou soutěž a být technologicky neutrální, aby chránil práva a umožnil dodržování a flexibilitu při rozvoji technologií. Měl by poskytnout praktické odpovědi na to, jak lze data zpracovávat a jaká opatření je třeba zavést.

2. Odpovědná AI jako cesta vpřed. Aby byl umožněn rozvoj odpovědné umělé inteligence, je nutné postupně nalézt přijatelnou metodu filtrování citlivých osobních údajů dle GDPR v tréninkovém obsahu a výstupech. Standardizované filtrační metody pomohou vyřešit problémy a poskytnou jasný rámec umožňující další vývoj, jenž AI modely přinášejí našim ekonomikám, a zajistí budoucí ekosystém, kde je filtrování nasazováno v souladu s obecně přijatými pravidly.

  • V souvislosti s probíhajícími diskusemi o tom, zda lze z generativních AI modelů odvozovat osobní údaje, je třeba vyjasnit, jaká ochranná opatření jsou nutná k dodržení zásad GDPR (článek 5). Případ Google vs. CNIL u Soudního dvora EU by mohl vnést do této otázky více světla. Pokud jde o odvozené zvláštní kategorie osobních údajů, je třeba rozlišovat mezi veřejně známými osobnostmi a běžnými jednotlivci. 

3. Vhodná ochranná opatření aplikovatelná na jakýkoliv AI projekt budou záviset na povaze modelu a na povaze zpracovávaných dat – neexistuje jedno univerzální řešení. 

  • Zmírňující opatření mohou zajistit, že zpracování dat bude v souladu se zásadami GDPR, a vyvážit zájmy subjektů údajů a správců. Soukromí lze zohlednit při vývoji modelu a/nebo při jeho nasazení v aplikacích pro koncové uživatele. Ve fázi trénování lze použít opatření na minimalizaci dat, jako například filtry před trénováním: definování kritérií sběru dat, vyloučení určitých kategorií a určitých zdrojů dat, použití diferenciálního soukromí, (homomorfního) šifrování, transferového učení, generativních adversariálních sítí a deduplikace, stejně jako opatření na výstupní úrovni, například výstupní filtry.
  • Je třeba zvažovat dopady na startupy a malé a střední podniky.
  • Vhodná transparentnost (např. veřejné oznámení o tom, jak modely fungují a jak jsou trénovány) vůči subjektům údajů je důležitá; neexistuje však univerzální řešení. Přímé upozornění nemusí být vždy praktické, pokud by bylo neúměrné, a neměly by se shromažďovat další osobní údaje pouze za účelem identifikace subjektů údajů při uplatňování jejich práv.

4. Společná ambice vyvíjet a přijímat důvěryhodnou a výkonnou AI vyvinutou v Evropě“, která Evropě prospívá prostřednictvím lepších služeb a ekonomických příležitostí, by realisticky vyžadovala značné množství vysoce kvalitních evropských dat: 

  • Použití (zvláštních kategorií) osobních údajů může být v určitých případech nutné k odhalení a zmírnění zkreslení, což uznává i AI Akt.
  • Existují různé právní základy pro zpracování osobních údajů, ne všechny se však hodí pro vývoj nebo nasazení AI modelů. Je třeba umožnit vyhovující a praktické přístupy, jako je použití „oprávněného zájmu“. Neexistuje univerzální řešení. Je třeba rozlišovat mezi různými druhy AI a fázemi jejího vývoje a nasazení. Při vyvažování zájmů je nutné zohlednit i společenský zájem vyplývající z odpovědného vývoje a nasazení AI. Plán vycházející z principů, který bere tyto rozdíly v úvahu, by byl velmi přínosný. 

5. Odpovědná AI je společná cesta. Vyžaduje budování odborných znalostí a zapojení různých právních i technických pohledů. Vítáme pozvání EDPB adresované AI Office k přípravě pokynů o vzájemném vztahu mezi GDPR a AI Act a k vytvoření vhodných mechanismů spolupráce. Do budoucna by mělo zapojení EDPB zahrnovat strukturovanější a častější konzultace s průmyslovými zástupci, aby se zohlednila různorodost aktérů v AI systémech, z nichž každý má odlišnou úroveň kontroly nad daty a rozhodovacími procesy. Workshop EDPB konaný 5. listopadu 2024 byl krokem správným směrem. Neustálý a otevřený dialog je zásadní pro společné pochopení problémů i navrhovaných řešení.

Související články