AI Compliance tool

Seznamte své technické a obchodní týmy, stejně jako týmy pro řízení rizik a compliance, s požadavky Aktu o umělé inteligenci. Poskytněte jim jednotnou platformu pro spolupráci a dokumentaci souladu jednotlivých projektů umělé inteligence ve vaší organizaci.

Proč potřebujete AI Compliance Tool?

  • Po celém světě dochází ke stále silnější regulaci umělé inteligence a dat
    Vzhledem k tomu, nakolik v posledních desetiletích narůstá vliv nových technologií a obchodních modelů, začaly regulační orgány vyvíjet politická řešení, která mají řídit rizika a umožnit pozitivní inovace. Trend k regulaci umělé inteligence je patrný po celém světě. Mezi příklady takových regulací patří Akt EU o umělé inteligenci, Akt o digitálních službách, Akt o digitálních trzích, kanadský zákon o umělé inteligenci a datech (AIDA) nebo americké nařízení 14110 o bezpečném, zabezpečeném a důvěryhodném vývoji a využívání umělé inteligence. Každá z regulací vyžaduje, aby si inovátoři a uživatelé umělé inteligence byli vědomi nových právních požadavků a rovněž na ně byli připraveni.
  • Dodržování Aktu EU o umělé inteligenci může být náročné
    Akt o umělé inteligenci (AI Akt), který přijala EU, je prvním komplexním regulačním rámcem pro umělou inteligenci na světě. Po dlouhém legislativním procesu vstoupil v platnost 1. srpna 2024 a v následujících měsících vchází v účinnost jeho dílčí požadavky.

Výzvy spojené s Aktem o umělé inteligenci

Akt o umělé inteligenci má širokou působnost. Tento zákon se vztahuje na všechny systémy AI, které jsou dostupné v EU nebo které mají v EU dopad. „AI“ je definována tak, že zahrnuje nejen pokročilé technologie využívající techniky strojového učení nebo posilovací učení, ale i jednodušší technologie, jako jsou přístupy založené na znalostech. Definice se zaměřuje na systémy, jež fungují do určité míry nezávisle na člověku a samy „odvozují“, jak dosáhnout souboru cílů. To znamená, že AI Akt se může týkat i softwaru, který bychom za umělou inteligenci běžně nepovažovali.

Dopad a konkrétní povinnosti vyplývající z AI Aktu se budou lišit v závislosti na rizikovosti systémů AI. AI Akt bude regulovat systémy AI podle rizik, jež představují pro zdraví, bezpečnost a základní práva lidí. AI Akt rozděluje systémy umělé inteligence do několika kategorií, které určují konkrétní požadavky:

  • Kategorie zakázaných postupů v oblasti umělé inteligence – systémy AI, které jsou zakázané;
  • Kategorie vysoce rizikových systémů AI – systémy AI, jejichž vytváření a používání má být velmi přísně regulováno;
  • Kategorie systémů s omezeným rizikem v oblasti transparentnosti – u některých aplikací AI, např. chatbotů nebo generativní AI, jsou vyžadovány dodatečné požadavky na transparentnost;
  • Systémy s minimálním rizikem – veškeré ostatní systémy AI podléhají omezeným požadavkům AI Aktu, např. požadavku na zajištění dostatečné digitální gramotnosti uživatelů AI.

Kromě toho jsou AI Aktem regulovány také obecné modely AI (GPAI). Tyto modely jsou podobně rozdělené do různých kategorií rizik:

  • Všechny GPAI – existují požadavky týkající se způsobu, jakým jsou tyto systémy vytvářeny a jaké informace o nich musí být sdělovány.
  • GPAI se systémovým rizikem – pro modely, které jsou výjimečně výkonné a vyžadují 10^25 FLOPs během tréninku, jsou vyžadovány další požadavky, včetně zmírnění rizik a monitorování.

Nejpřísnější požadavky AI Aktu spadají do kategorií „nepřijatelného“ a „vysokého“ rizika; každá z výše zmíněných kategorií má však své specifické požadavky.

 

Poskytovatelé, ale i uživatelé systémů AI mají mít na základě AI Aktu určité povinnosti. V současné době existuje několik dalších regulací, které zvýší odpovědnost tvůrců nebo uživatelů systémů AI za způsobenou škodu. Patří mezi ně směrnice o odpovědnosti za umělou inteligenci (tzv. AI Liability Directive) nebo přepracovaná směrnice o odpovědnosti za vadné výrobky, která byla schválena 23. října 2024. AI Akt spolu s výše uvedenými regulacemi mají zajistit, že poskytovatelé i zavádějící subjekty (uživatelé) systémů AI budou povinni při vytváření, nasazování a údržbě systémů AI v dlouhodobém horizontu zavést do svého pracovního procesu další kroky, které zaručí jejich bezpečnost.

Dosažení souladu s AI Aktem bude vyžadovat komplexní a koordinované úsilí napříč organizačními a technickými oblastmi. Organizace budou muset vytvořit strukturovaný rámec, který bude v souladu s přístupem založeným na rizicích, jenž je v nařízení nastíněn. To zahrnuje provedení důkladného posouzení s cílem kategorizovat systémy AI na základě jejich rizikovosti a podle toho zavést přizpůsobená opatření pro zajištění souladu. Pro úspěšné řešení bude klíčová spolupráce napříč různými týmy a odděleními, včetně právních oddělení, oddělení správy dat a týmů technického vývoje. U vysoce rizikových systémů AI budou organizace možná nuceny zavést posuzování shody, zajistit kvalitu tréninkových dat, transparentnost a lidský dohled.

Technické týmy budou hrát klíčovou roli při zavádění nezbytných ochranných opatření, jako je vývoj algoritmů, které dodržují etické zásady a zásady ochrany údajů. Současně se budou muset právní týmy a týmy pro dodržování předpisů (compliance) orientovat ve vyvíjejícím se regulačním prostředí a zajistit, aby organizační postupy byly v souladu s Aktem o umělé inteligenci. Efektivní komunikace a spolupráce mezi těmito různorodými týmy bude zásadní pro podporu soudržného a vyhovujícího ekosystému AI v organizacích.

AI Compliance Tool

Vyvinuli jsme vlastní nástroj AI Compliance Tool, který vám pomůže orientovat se ve složitém regulačním prostředí umělé inteligence s ohledem na Akt EU o umělé inteligenci. Tento nástroj důkladně seznámí vaše technické a obchodní týmy, stejně jako týmy zaměřené na řízení rizik a compliance týmy s požadavky AI Aktu. Zároveň jim poskytne jednotnou platformu pro spolupráci a dokumentaci souladu jednotlivých projektů umělé inteligence ve vaší organizaci.

Funkce nástroje

Správa AI

  • Jednotné místo správy projektů AI napříč vaší společností poskytuje přehled o jejich rizikových profilech, fázích vývoje a výkonnosti. To vám umožní zaměřit úsilí především tam, kde je nejpřínosnější.

Podpora implementace Aktu o umělé inteligenci v auditovatelné platformě

  • Pracovní prostředí založené na spolupráci, jež umožňuje koordinovaný postup při implementaci požadavků AI Aktu, včetně rozdělení úkolů a odpovědností v rámci týmů.
  • Auditní stopa vašich procesů na platformě, která vám umožní zaznamenávat a sledovat odpovědi, činnosti a nahrané dokumenty vašich týmů. To umožňuje sledovat soulad s AI Aktem a usnadňuje interní i externí audit vašich projektů v oblasti AI.

Přístup k pokynům na míru

  • Modulární struktura, rozkládající požadavky AI Aktu na jednoduché realizovatelné kroky pro vás a vaše týmy, přizpůsobené každému jednotlivému projektu AI v závislosti na jeho rizikovém profilu a roli vaší organizace v něm.
  • Poskytování pokynů na míru, které objasňují terminologii a definují postupy a šablony pro konkrétní kroky.
  • Možnost poskytovat šablony, pokyny a řešení na míru pro vybrané klienty a odvětví.

Klíčové vlastnosti nástroje

  • Organizace všech vašich projektů v oblasti AI na jednom místě a rychlé posouzení jejich rizik;
  • Sledování jednoduchých úkolů krok za krokem pro řešení složitých právních požadavků;
  • Dokumentace vaší cesty k dodržování předpisů;
  • Shromažďování podpůrných důkazů na jednom místě;
  • Přístup k pokynům pro osvědčené postupy řízení AI, abyste pochopili způsoby, jak dosáhnout nejvyšší úrovně souladu s předpisy;
  • Využití nástroje, který bude pravidelně aktualizován.

Jak bude nástroj fungovat

Posouzení a klasifikace rizik

Dotazník pro určení kategorie rizik systému AI podle AI Aktu a zdůraznění dalších rizikových faktorů.

Výsledek: Klasifikace rizik

Moduly a pokyny

Soubor modulů pro poskytování cílených pokynů a otázek s otevřeným prostorem pro odpovědi a nahrání důkazů o přijatých opatřeních.

Výsledek: Dokončené a doložené kroky pro zajištění souladu

Audit a monitorování

Jednotné místo pro přístup k veškerým důkazům o souladu a fungování systému AI.

Platforma, která po nasazení systému vyzve a připomene pravidelné sledování jeho provozu.

Výsledek: Snadný přístup k důkazům a pravidelné monitorování

Tento nástroj není určen k poskytování právního poradenství nebo právního stanoviska, a ani takové služby neposkytuje. Nástroj rovněž nenahrazuje zkušeného právního poradce. Společnost PwC vám však může nabídnout právní poradenství prostřednictvím svých právních služeb.

Playback of this video is not currently available

2:14

Vaše další kroky

Vzhledem k tomu, že Akt o umělé inteligenci vstupuje v účinnost postupně v následujících měsících, má přinést novou éru odpovědnosti, transparentnosti a zodpovědnosti v oblasti umělé inteligence. Pro orientaci v tomto složitém prostředí implementace a správy AI lze podniknout následující kroky:

  1. Identifikujte, jaký dopad bude mít AI Akt na systémy AI ve vaší organizaci, a to tak, že posoudíte stávající nebo předpokládané AI projekty a způsob, jakým je AI Akt ovlivní.
  2. Identifikujte vaše současné mechanismy pro správu technologií a určete nedostatky, jež je třeba odstranit, abyste zajistili soulad s AI Aktem.
  3. Investujte do školení a vzdělávacích programů, abyste zajistili, že zaměstnanci budou dobře obeznámeni s technologiemi AI, požadavky AI Aktu a vyvíjejícím se regulačním prostředím, díky čemuž rovněž přilákáte nové talenty s odbornými znalostmi v oblasti technologií AI.
  4. Vzhledem k neustále se vyvíjejícím předpisům v oblasti umělé inteligence udržujte aktivní povědomí o AI Aktu a potenciálních normách vznikajících v evropských normalizačních organizacích, jako jsou CEN a CENELEC. Udržujte si přehled o pokroku v odvětví a změnách v právních předpisech.
  5. Vytvořte si plán řešení chybějících schopností, nástrojů nebo procesů a zajistěte si tak, že vytváříte, pořizujete a nasazujete systémy AI v souladu s požadavky AI Aktu.

Contact us

Patrik Meliš-Čuga

Patrik Meliš-Čuga

AI Strategy and Risk Leader, PwC Czech Republic

Tel: +420 734 692 573

Christina Hitrova

Christina Hitrova

Digital Ethics and Compliance, PwC Czech Republic

Tel: +420 604 163 959

Aneta Fortelková

Aneta Fortelková

Responsible AI, PwC Czech Republic

Tel: +420 733 154 566

Daniela Kidjemet

Daniela Kidjemet

AI Governance and Deployment, PwC Czech Republic

Tel: +420 734 464 439