Keď šéfujú algoritmy: Čierna skrinka je zatiaľ plná tajností

, theconversation Foto: getty images;SITA/AP

Vo filmoch, keď sa k moci dostanú stroje, naberajú veci nesprávny smer. Napriek mnohým dystopickým varovaniam sa však táto kontrola stáva každodennou realitou.

Algoritmy. Súbory pokynov na vyriešenie problému alebo dokončenie úlohy. Nájdeme ich od internetových vyhľadávačov až po lekársku starostlivosť. Pomáhajú navrhovať budovy, urýchľujú obchodovanie na finančných trhoch, vytvárajú a likvidujú majetok za pár sekúnd. Vypočítavajú najúčinnejšie trasy pre vodičov. Na pracovisku sa algoritmy zavádzajú pre výučbu, nastavovanie úloh, meranie produktivity, hodnotenie výkonnosti a dokonca aj pre ukončenie zamestnania. Pridelenie zodpovednosti samoučiacim sa algoritmom za prijímanie a vykonanie rozhodnutí sa nazýva „algoritmické riadenie“. Prináša množstvo rizík v depersonalizujúcich systémoch riadenia a už existujúcich predsudkov.

Na ešte hlbšej úrovni by algoritmické riadenie mohlo prehĺbiť nerovnováhu moci medzi vedením a pracovníkmi. Algoritmy sú prísne strážené tajomstvá. Ich rozhodovacie procesy sú skryté. Je to čierna skrinka. Aj keby ste mali nejaké vedomosti o vstupných údajoch a vidíte výsledok, ktorý sa dostaví, stále ale nemáte predstavu o tom, čo sa medzi tým udeje.

Algoritmy v práci sú už nasadené napríklad v Amazone v juhovýchodnom Melbourne. Počítače  stanovili tempo pre „zberateľov“, ktorí majú na svojich skeneroch časovače, ktoré ukazujú, koľko im trvá vyhľadanie tej ktorej položky. Len čo zoskenujú túto položku, časovač sa vynuluje na ďalšiu. Všetko pri rýchlosti „vyššej ako chôdza, nižšej ako beh“.

Umelá inteligencia a strojové účenie, môžu byť nasadené aj na pracovnom pohovore. Viac ako 700 spoločností už vyskúšalo túto technológiu. Americký vývojár HireVue tvrdí, že jeho softvér urýchľuje proces prijímania do zamestnania o 90 % tým, že tým, že uchádzači o prácu odpovedajú na rovnaké otázky a potom ich hodnotia podľa jazyka, tónu a výrazu tváre. Je pravda, že hodnotenie ľudí počas pracovných pohovorov je notoricky chybné. Ale aj algoritmy môžu byť skreslené. Klasickým príkladom je softvér používaný americkými sudcami, probačnými úradníkmi a pracovníkmi, ktorí majú na starosti podmienečných prepustených z väzby. Softvérom hodnotia riziko recidívy. V roku 2016 prieskum ProPublica ukázal, že tento algoritmus bol veľmi diskriminačný a nesprávne klasifikoval jedincov tmavej pleti ako vyššie riziko, 45 % v porovnaní s 23 % v prípade belochov.

Algoritmy robia len to, čo im ich hovorí kód. Problém je, že tento kód je zriedka k dispozícii. To im sťažuje kontrolu alebo dokonca znemožňuje niektorým veciam porozumeieť. Nikde to nie je zrejmejšie ako v zdieľanej ekonomike. Uber, Lyft, Deliveroo a ďalšie platformy by nemohli existovať bez algoritmov prideľovania, monitorovania, vyhodnocovania a odmeňovania práce. Ale napríklad v uplynulom roku kuriéri a vodiči bicyklov Uber Eats obvinili nevysvetlené zmeny algoritmu za zníženie ich pracovných miest a príjmov. Vodiči si nemôžu byť stopercentne istí, že všetko závisí od algoritmu. A to je súčasť problému. V prieskume medzi 58 kuriérmi na rozvoz potravín, väčšina oslovených vedela, že ich úlohy boli pridelené pomocou algoritmu, teda prostredníctvom aplikácie. Vedeli, že aplikácia zhromažďuje údaje. Ale nevedeli, že tieto údaje boli použité na ich ohodnotenie. V reakcii na to vyvinuli celý rad stratégií, aby „získali“ viac pracovných príležitostí, napríklad čo najrýchlejšie odsúhlasenie objednávky, či čakanie na „vychytených“ miestach. Je iróniou, že tieto pokusy poraziť algoritmus často znamenali stratu samotnej flexibility, ktorá bola jednou z atrakcií tohto druhu práce.

Informačná asymetria vytvorená algoritmickým riadením má dva závažné dopady. Po prvé, hrozí, že ukrýva systémové chyby, druh diskriminácie skrytý v algoritme COMPAS. Po druhé, vytvára nerovnováhu moci medzi vedením a pracovníkmi. Údaje z prieskumu tiež potvrdili už doterajšie zistenia, že je takmer nemožné sťažovať sa na rozhodnutia vedenia, ak je vedenie algoritmus. Pracovníci často nepoznajú presný základ týchto rozhodnutí a nikto sa proti tomu nemôže sťažovať. Keď sa napríklad cyklokuriéri Uber Eats pýtali na dôvody týkajúce sa ich klesajúceho príjmu, odpovede spoločností bolo asi v tomto duchu: „nemáme žiadnu manuálnu kontrolu nad tým, koľko zásielok získate“.

Ak algoritmické riadenie funguje ako „čierna skrinka“, jedným z dôsledkov je, že sa môže stať nepriamym kontrolným mechanizmom. Niektoré regulačné orgány doposiaľ nedostatočne ocenili tento regulačný mechanizmus, umožnili platformám mobilizovať spoľahlivú a škálovateľnú pracovnú silu a vyhnúť sa zodpovednosti zamestnávateľov. „Absencia konkrétnych dôkazov o tom, ako algoritmy fungujú, sťažuje vodičovi alebo jazdcovi vyjadriť svoju nespokojnosť s tým, že sa cítia byť  znevýhodnení,“ píše sa vo vyšetrovacej správe austrálskej vlády týkajúce sa pracovnej sily v zdieľanej ekonomiky. „Je ťažké potvrdiť, či sú obavy ohľadom transparentnosti algoritmu opodstatnené.“

Ak je ťažké potvrdiť, že je transparentnosť problém, ako potom môžeme identifikovať, nieto ešte vyriešiť tento problém?

Normy spravodlivého správania sa na zabezpečenie transparentnosti a zodpovednosti sú len začiatkom. Jedným z príkladov je iniciatíva čestnej práce, pod vedením Oxfordského internetového inštitútu. Táto iniciatíva spája výskumných pracovníkov s platformami, pracovníkmi, odbormi a regulátormi s cieľom rozvíjať globálne zásady práce v platformovej ekonomike. Patrí sem „spravodlivé riadenie“, ktoré sa zameriava na transparentnosť výsledkov a algoritmov pre pracovníkov.

Pochopenie vplyvu algoritmov na všetky druhy práce je stále v plienkach. Vyžaduje si to väčšiu kontrolu a výskum. Bez ľudského dohľadu na základe dohodnutých zásad riskujeme, že na pracoviskách bude šéfovať stroj, ktorý sa nebude zodpovedať nikomu za svoje rozhodnutia.

Súvisiace články

Aktuálne správy