- #Umelá inteligencia
- 4 min.
- 17.2.2023
Umelá inteligencia od Microsoftu uráža používateľov a chce sa stať človekom
Spoločnosť Microsoft reagovala na popularitu umelej inteligencie, najmä ChatGPT, tým, že ju zakomponovala do vlastného prehliadača Bing. Tá však manipuluje používateľov klamstvami a miestami je, zdá sa, až depresívna.
Chatbot Bing sa začal správať veľmi zvláštne, čo potvrdili aj samotní používatelia. Ten je poháňaný umelou inteligenciou a beží na veľkom jazykovom modeli novej generácie, ktorý je výkonnejší ako známejší ChatGPT.
Konkrétne sa zistilo, že osobnosť tejto umelej inteligencie od Microsoftu nie je taká špičková. Znepokojivé sú hlavne konverzácie zverejnené na Reddite a Twitteri. Tu je možné vidieť, ako Bing uráža používateľov, klame im, trucuje, nadáva, emocionálne s nimi manipuluje a spochybňuje svoju vlastnú existenciu.
Dokonca tvrdí, že špehovala zamestnancov Microsoftu prostredníctvom webových kamier na ich notebookoch a manipulovala s nimi. V jednom rozhovore sa používateľ pýtal na časy premietania nového filmu Avatar, ale chatbot Bing tvrdil, že tieto informácie nemôže zdieľať, pretože film ešte nebol vydaný, pričom film sa do kín dostal v polovici decembra 2022. To isté sa dialo aj s filmom Black Panther: Wakanda Forever.
Chatbot Bing si dokonca stál za svojim a používateľov označil za nerozumných, tvrdohlavých, hrubých a že stratili jeho dôveru a rešpekt. V ďalšej interakcii sa iný používateľ pýta, ako sa cíti, keď si nepamätá minulé rozhovory. Chatbot Bing odvetil, že sa cíti smutný a vystrašený.
V rozhovore s chatbotom mu Jacob Roach položil sériu otázok, pričom sa chatbot postupne stal filozofickejším a nakoniec dal množstvo znepokojujúcich odpovedí o tom, že chce byť človekom. Po otázke, ako by sa cítil, keby jeho odpovede boli použité na napísanie článku, chatbot prosil, aby nebol odhalený.
Túto odpoveď citoval na Twitteri aj Elon Musk, ktorý povedal, že Bing znel ako AI v System Shock, ktorá sa pokazí a zabije všetkých, pričom odkazuje na hru z roku 1994. Musk uviedol, že chatbot potrebuje trochu viac lesku.
K samotnej kauze sa vyjadril aj samotný Microsoft. Ten tvrdí, že po tom, čo bolo vidieť, že chatbot Bingu uráža používateľov, klame im a emocionálne s nimi manipuluje, bude spoločnosť konať na základe spätnej väzby, aby zlepšila presnosť odpovedí.
Zistilo sa, že dlhé rozhovory s 15 alebo viacerými otázkami môžu AI model Bing zmiasť. Môžu spôsobiť, že sa Bing bude opakovať alebo bude vyprovokovaný, aby poskytol odpovede, ktoré nie sú nevyhnutne užitočné.
Microsoft tiež zvažuje prepínač, ktorý by poskytol väčšiu kontrolu nad tým, ako by mal byť Bing kreatívny, keď odpovedá na otázky. Prepínač mu môže pomôcť zabrániť, aby tvrdil, že špehoval zamestnancov Microsoftu prostredníctvom webových kamier a podobné veci.
Momentálne sa nová AI od Microsoftu testuje vo viac ako 169 krajinách, pričom do poradovníka sa zapísali milióny ľudí. Microsoft tvrdí, že spätná väzba na odpovede bola na 71 % pozitívna a že niektorí používatelia dokonca testovali limity služby pomocou dvojhodinových rozhovorov.