Má aj umelá inteligencia predsudky?

0
umelá nteligencia

Umelá inteligencia nadobúda v spoločnosti stále väčší význam. Pomáha určiť, kto bude zamestnaný, kto dostane pôžičku, a dokonca i ako dlho strávi odsúdený vo väzení. Rozhodnutia, ktoré bežne robievali ľudia, teraz stále väčšmi vykonávajú algoritmy. Čo ak sa ale algoritmy mýlia?

Čo je kognitívny bias?

Kognitívny bias je systematická chyba v myslení, ktorá ovplyvňuje rozhodnutia a úsudky, ktoré ľudia robia. Možno tiež povedať, že ide o skratkovité myslenie alebo predsudok. Biasy sa často týkajú pamäte alebo pozornosti. Človek si jednoducho nemôže všetko pamätať a vnímať, a preto sú jeho pamäť i pozornosť selektívne.

Príkladom kognitívneho biasu je napríklad konfirmačný bias. Pri tomto biase si nevedomky všímame informácie, ktoré potvrdzujú náš názor, a ignorujeme všetko, čo nášmu názoru protirečí. Predstavte si, že si myslíte, že ľavorukí ľudia sú kreatívnejší. Nuž, vždy keď stretnete ľavorukú osobu, ktorá je kreatívna, utvrdíte sa vo svojom názore. Keď ale zbadáte pravorukého a kreatívneho človeka, existenciu tejto kombinácie odignorujete.

Umelá inteligencia a bias

Mnoho dnešných aplikácií umelej inteligencie je založených na hlbokom učení. Tieto algoritmy hľadajú v dátach vzorce, ktoré ďalej aplikujú. Motto takejto umelej inteligencie by mohlo znieť: „Nájdi vzorec, aplikuj vzorec!“ Táto umelá inteligencia sa dokáže učiť a určitým spôsobom aj vnímať. A tiež sa dopúšťa biasov.

V USA sa používa v súdnom procese softvér, ktorý napríklad predikuje pravdepodobnosť recidívy u páchateľov. Táto umelá inteligencia teda napovedá, aké bude ďalšie správanie súdeného. Ukázalo sa, že softvér zrejme trpí biasom. A tak černoch a beloch, ktorí vykonajú rovnaký trestný čin, sú umelou inteligenciou vnímaní odlišne. A rovnako odlišne znie i predpoveď ohľadom ich budúceho konania.

Iným príkladom sú dokumentované prípady, kedy umelá inteligencia nepustila aziatov cez pasovú kontrolu, pretože podľa nej majú aziati zatvorené oči a pri kontrole systémom predsa musíte mať oči otvorené. S užšími očami softvér jednoducho neráta. V Amazone zas zistili, že ich algoritmus na nábor nových zamestnancov nemá rád ženy. Ups, ďalší bias.

Zaujíma vás, čo si umelá inteligencia myslí o kryptomenách? Prečítajte si o našom experimente! Aj Čína používa umelú inteligenciu počas súdnych procesov. Ako? Čítajte tu!

Ako sa umelá inteligencia učí predsudkom?

Za najčastejšie vysvetlenie chýb v úsudkoch umelej inteligencie sú považované dáta a to dvomi spôsobmi. Po prvé, už samotné dáta, z ktorých algoritmus vychádza a v ktorých hľadá vzorce, obsahujú biasy, respektíve reflektujú existujúce predsudky v spoločnosti. Tie sa umelá inteligencia naučí a ďalej ich replikuje. Po druhé, dáta nereprezentujú realitu, pretože je algoritmus nakŕmený veľkým počtom fotiek bielych mužov a malým počtom čiernych mužov. Je zrejmé, že algoritmus bude následne horšie rozoznávať tváre čiernych mužov.

Chyby sa dejú aj inde. Keď vytvárate algoritmus, má slúžiť určitému účelu, napríklad predikovať schopnosť splácať úver zákazníka. Problémom je, že už samotná táto „schopnosť“ je myšlienkovým konštruktom, ktorý musí byť preložený do jazyka algoritmu a musí byť nejakým spôsobom počítateľný. Atribúty, ktoré zvolíte, ovplyvnia výsledky.

Čo čítať ďalej?

AlphaZero od Google – revolúcia v oblasti umelej inteligencie

Nepremeškajte naše ďalšie spravodajstvo a prihláste sa na odber noviniek (návod nájdete tu). Nezabudnite nás tiež sledovať na našom Facebooku a najnovšie aj na Instagrame a Twitteri.

Zdroje:
wired.com
technologyreview.com

Leave a Reply

avatar
  Subscribe  
Notify of