Tri základné zákony robotiky, ktoré vymyslel svetoznámy autor sci-fi Isaac Asimov, tvoria akúsi „ústavu umelej inteligencie“. Prvý zakazuje robotom bez výnimky ohroziť človeka a prikazuje chrániť ho v prípade ohrozenia, a to aj za cenu vlastného poškodenia.
Druhý prikazuje človeka poslúchať, ak to nie je v rozpore s 1. zákonom, a tretí zakotvuje normálny pud sebazáchovy, pokiaľ nie je v rozpore s 1. a 2. zákonom.
Myšlienky, ktoré vyzerajú rozumne a logicky sa však nikdy nezačali uplatňovať v praxi. Aspoň nie doposiaľ. Inak by nebolo možné vyvíjať vojenské bojové roboty, ktoré môžu veľmi efektívne človeka ohroziť, aj zabiť.
Lenže, čo ak umelá inteligencia dosiahne úroveň, kedy si dokáže uvedomiť samu seba a vymkne sa nám spod kontroly?
Toto sú scenáre, pred ktorými varujú viaceré významné osobnosti, napríklad šéf Tesly Motors, SpaceX a Solar City Elon Musk, zakladateľ Microsoftu Bill Gates, alebo astrofyzik Stephen Hawking.
Google, ktorý patrí k popredným hráčom pri vývoji umelej inteligencie (pred dvoma rokmi získal britskú firmu Deep Mind, ktorá sa jej vývojom zaoberá), chce prípadnej vzbure robotov, či umelej inteligencie všeobecne, zabrániť.
Navrhuje ukryť v útrobách umelej inteligencie poistku, akýsi hlavný vypínač, „kill switch“, ktorý po aktivácii vypne kybernetický mozog vyradí ho z hry.
Aby sme si utvorili predstavu, ako sa vzbura umelej inteligencie môže prejaviť, stačí si pozrieť niektorý film zo série Terminátor, alebo prečítať sci-fi detektívku I. Asimova „Vo vesmíre niekto vraždí“ z r. 1957. Lenže problém zďaleka nemusí byť iba na úrovni robotov. V ére cloudu, networkingu a internetu vecí by svojvôľa umelej inteligencie mohla spôsobiť ozajstný problém.
Tím vývojárov z Deep Mind, ktorý stojí aj za porážkou veľmajstra Go počítačom AlphaGo, vyvíja softvér, ktorý má brániť umelej inteligencii v samoučiacich sa procesoch hľadať spôsoby, ako sa postaviť proti ľuďom.
Pokiaľ by napriek tomu došlo k nežiadúcemu správaniu sa, má tam byť aj oná poistka, ktorá umožní systém v prípade núdze zastaviť.
Napriek tomu Deep Mind nie je presvedčená, že sa tento softvérový istič podarí do systémov s umelou inteligenciou nasadiť celoplošne na všetky algoritmy. Takže opatrnosť nie je na škodu.
Tým skôr, že v prípade robotov a sietí s umelou inteligenciou a schopnosťou samoučenia sa, sedíme v muničnom sklade na sude s pušným prachom a svietime si zápalkami.