Coraz częściej spółka powierza zarządzanie swoimi zasobami ludzkimi maszynom. Specjalistyczne oprogramowanie nadzoruje nie tylko pracę osób zatrudnionych w magazynach, ale także kierowców kontraktowych, niezależne firmy kurierskie, a nawet wydajność pracowników biurowych. Osoby zaznajomione z tą dyskusyjną strategią twierdzą, że Jeff Bezos uważa, że maszyny podejmują decyzje szybciej i dokładniej niż ludzie, redukując przy tym koszty i tworząc w ten sposób przewagę konkurencyjną Amazona.
Kierowcy współpracujący z koncernem instalują na swoich smartfonach specjalne oprogramowanie, którego algorytm tuż po zarejestrowaniu monitoruje każdy ich ruch. Czy dotarli do punktu dostawy, w zadeklarowanym czasie? Czy pokonali trasę w wyznaczonym oknie czasowym? Czy zostawili paczkę na widoku na werandzie zamiast schować ją za donicą, jak prosił klient? Algorytmy Amazona skanują napływ przychodzących danych pod kątem wzorców wydajności i decydują, którzy kierowcy otrzymują więcej tras, a z którymi współpraca jest wygaszana.
Bloomberg przeprowadził wywiady z 15 kierowcami Flex, w tym czterema, którzy twierdzą, że zostali niesłusznie zwolnieni. Również byli menedżerowie Amazona twierdzą, że zautomatyzowany system jest niewystarczająco dostosowany do rzeczywistych wyzwań, z jakimi borykają się kierowcy każdego dnia. Wprowadzając ten system Amazon doskonale zdawał sobie sprawę z tego, że delegowanie pracy na maszyny będzie skutkowało błędami w ocenie pracy kierowców. Jednak uznano, że taniej jest zaufać algorytmom, niż płacić ludziom za zbadanie błędnych decyzji. Oprogramowanie można łatwiej i mniejszym kosztem wymienić, powiedzieli byli menedżerowie.
Rzeczniczka Amazona Kate Kudrna, zbagatelizowała skargi kierowców o złym traktowaniu i niesprawiedliwym wypowiedzeniu umowy i powiedziała, że nie reprezentują one doświadczeń zdecydowanej większości kierowców Flex. „Dużo zainwestowaliśmy w technologię i zasoby, aby zapewnić kierowcom wgląd w ich sytuację i uprawnienia do kontynuowania dostaw oraz badać wszystkie odwołania kierowców” – powiedziała.
Kiedy kierowcy chcą wyjaśnić kwestie swoich słabych ocen, nie są w stanie stwierdzić, czy komunikują się z prawdziwymi ludźmi. Odpowiedzi często zawierają tylko imię i zazwyczaj dotyczą różnych sytuacji, a nie konkretnego problemu. Według osób zaznajomionych z tą sprawą, nawet jeśli e-mail jest podpisany imieniem i nazwiskiem, to maszyna najprawdopodobniej wygenerowała kilka pierwszych odpowiedzi.
Dodatkowo kierowcy Flex jako niezależni kontrahenci mają niewielkie możliwości odwołania, gdy uważają, że zostali niesłusznie dezaktywowani. Podczas odwołania nie przysługuje im płatny urlop administracyjny. Kierowcy mogą zapłacić 200 dolarów za skierowanie sporu do arbitrażu, ale niewielu to robi, uważając to za stratę czasu i pieniędzy.
Nawet jeśli sprawa dotrze do któregoś z menedżerów, zazwyczaj przeprowadzają oni bardzo pobieżną ocenę sytuacji, o ile w ogóle to robią, ponieważ oni również muszą spełniać wyśrubowane standardy wydajności. Dodatkowym problemem jest to, że w centrum telefonicznego wsparcia kierowców często zatrudnia się dziesiątki pracowników sezonowych, którzy po niewielkim przeszkoleniu byli przydzielani do nadzorowania problemów milionów kierowców. W takiej sytuacji kierowcy są pozbawieni realnego wsparcia, co może mieć wpływ na jakość ich pracy. Amazona to nie obchodzi, bo większość klientów i tak otrzyma swoje paczki, a 2-3 proc. niezałatwionych spraw nie rzutuje na całościowy obraz firmy.
Amazon zautomatyzował swoją działalność w zakresie zasobów ludzkich bardziej niż większość firm. Jednak coraz powszechniejsze jest wykorzystywanie algorytmów do podejmowania decyzji mających wpływ na życie ludzi. Maszyny mogą zatwierdzać wnioski kredytowe, a nawet decydować, czy ktoś zasługuje na zwolnienie warunkowe, czy też powinien zostać za kratkami.
Eksperci ds. technologii wezwali do wprowadzenia przepisów zmuszających firmy do przejrzystości informacji o tym, w jaki sposób algorytmy wpływają na ludzi, dając im informacje potrzebne do wykrycia i poprawienia błędów.
Amerykańscy ustawodawcy zbadali tę sprawę, ale powoli wprowadzali przepisy zapobiegające szkodom. W grudniu senator Chris Coons, demokrata stanu Delaware, przedstawił ustawę Algorithmic Fairness Act. Wymagałoby to od Federalnej Komisji Handlu stworzenia zasad, które zapewnią sprawiedliwe wykorzystanie algorytmów, a osoby, których dotyczą ich decyzje, będą o tym informowane i będą miały możliwość wyjaśnienia swojej sytuacji. Jak dotąd jego propozycja nie została dalej procedowana.
Źródło: Bloomberg