- #Umelá inteligencia
- 4 min.
- 28.7.2023
Vyhneme sa deepfake podvodom vďaka vodoznakom? Joe Biden dostal prísľub
Zástupcovia siedmych amerických technologických spoločností sa minulý týždeň stretli v Bielom dome s americkým prezidentom Joe Bidenom, aby spoločne prebrali možné riešenia rizík, ktoré so sebou prináša umelá inteligencia.
Výsledkom ich stretnutia je spísanie verejných záväzkov, medzi ktoré sa radí napríklad aj vytvorenie akéhosi systému podobného vodoznakom, ktoré by nám umožnili na prvý pohľad identifikovať výtvory AI nástrojov.
Rozlíšiť reálne fotografie od obrázkov generovaných umelou inteligenciou, je už dnes veľkým problémom aj pre pozorných a témy znalých ľudí. Podobne to platí aj pre falošné nahrávky vytvorené pomocou nástrojov AI, ktoré dokážu imitovať prakticky akýkoľvek ľudský hlas. Je teda iba otázkou, kedy sa na túto úroveň dostanú už aj deepfake videá.
Jediným spôsobom, ako by mohlo byť v budúcnosti možné odlíšiť takýto obsah vytvorený umelou inteligenciou od toho reálneho, je nejaký identifikačný systém obsahu, ktorý nebude možné prepísať, odstrániť a ani imitovať. K využívaniu takéhoto systému sa v Bielom dome zaviazal Amazon, Anthropic, Google, Inflection, Meta, Microsoft a OpenAI.
„Spoločnosti sa zaviazali vyvinúť robustné technické mechanizmy, aby zabezpečili, že používatelia budú vedieť, kedy je obsah generovaný AI, ako je napríklad systém vodoznakov. Tento krok umožní rozkvet kreativity s AI, ale znižuje riziko nebezpečenstva (šírenia) podvodov a klamstiev.“, uvádza jeden z hlavných bodov spoločného memoranda.
Kancelária amerického prezidenta síce vo vyhlásení použila prirovnanie takéhoto systému k vodoznaku, no v skutočnosti bude musieť ísť o oveľa sofistikovanejšie riešenie. Jednoduchý vodoznak, ktorý by bol vyobrazený na AI obrázkoch, videách alebo vložený do zvukových nahrávok či textov, by bolo nepochybne možné rovnako pomocou AI jednoducho odstrániť.
Tému vodoznaku v blogoch rozvíjajú aj jednotlivé zúčastnené spoločnosti. OpenAI v článku uvádza, že okrem vodoznaku je v pláne aj vývoj nástrojov alebo API, ktoré budú schopné identifikovať, či bol daný obsah vytvorený konkrétnym AI modelom. Google v blogovom článku okrem vodoznaku spomína aj „metadáta a iné inovatívne techniky“, ktoré plánuje integrovať do svojich AI nástrojov.
Spoločnosti sa okrem vyvinutia systému značenia AI obsahu zaviazali k tomu, že systémy umelej inteligencie budú pred ich sprístupnením verejnosti dôkladne interne a externe testovať. Súhlasili tiež s tým, že informácie o manažovaní rizík spojených s AI budú zdieľať s ostatnými spoločnosťami v odvetví, vládami, občanmi a akademickou obcou.
Verejnosť a externí odborníci budú mať taktiež možnosť odhaľovať a nahlasovať bezpečnostné zraniteľnosti AI modelov. Bežným používateľom zas budú musieť byť poskytnuté informácie o schopnostiach a obmedzeniach AI nástrojov tak, aby sa ich náhodou nesnažili použiť v situáciách, pre ktoré to nie je vhodné a nespoliehali sa tak na umelú inteligenciu vo veciach, v ktorých im nedokáže adekvátne pomôcť.
Spolupráca firiem v tak silne konkurenčnom a odvetví nie je zvyčajná, no pokiaľ im budeme veriť, že nejde iba o PR a výsledok vynútený prezidentskou kanceláriou, vysvetlenie nám ponúka vo svojom blogu Google:
„Nikto z nás nedokáže vytvoriť AI správne na vlastnú päsť. Sme radi, že sa spájame s ďalšimi poprednými spoločnosťami v oblasti umelej inteligencie pri podporovaní týchto záväzkov a zaväzujeme sa, že budeme pokračovať v spolupráci zdieľaním informácií a osvedčených postupov. Skupiny ako Partnership on AI and ML Commons už vedú dôležité iniciatívy a tešíme sa na ďalšie snahy o podporu zodpovedného vývoja nových generatívnych nástrojov AI„.