Podświadomie czujemy już to po obejrzeniu paru filmów i przeczytaniu kilku książek science fiction – zbliża się wielka konfrontacja człowieka z maszynami. Budując komputery, wprowadzając je tak powszechnie do naszego życia, a przede wszystkim rozwijając specyficzny sposób algorytmizacji – budowy modeli i programów komputerowych – powołaliśmy coś co właśnie uzyskuje swój własny byt i świadomość- Sztuczną Inteligencję. Czy zdołamy wytrzymać tą zmianę? Najwięksi współcześni wizjonerzy jak Musk (biznes) czy Hawking (badania) wiedzą, że sprawa jest przegrana, a SkyNet z wizjonerskiego „Terminatora” wcześniej czy później zapuka do naszych drzwi.

Mimo tych zagrożeń pokusie wykorzystania Sztucznej Inteligencji nie sposób się oprzeć. To, co kiedyś było stosunkowo prostymi algorytmami uczenia maszynowego, modelami empirycznymi o dźwięcznych nazwach sztucznych sieci neuronowych czy sztucznych systemów immunologicznych lub np. genetycznych systemów optymalizacji albo rozpoznawania obrazów rozrosło się do coraz dojrzalszych i bardziej rozbudowanych systemów. Co najważniejsze technologie te są już zdolne do podejmowania autonomicznych decyzji. Działania które niegdyś zarezerwowane były jedynie dla ludzi powoli przechodzą w ręce maszyn realizując ideę autonomii decyzyjnej. Jednocześnie stają się tak sprawne i pomocne, że mówiąc językiem nowomowy korporacyjnej, „budują przewagę konkurencyjną” i po prostu eliminują firmy, które ze SI nie korzystają. Osiągnięcia SI są imponujące i znajdują się teraz właściwie w każdym obszarze biznesowym – od systemów technicznych i produkcyjnych (sterowanie produkcją i jej optymalizacja), poprzez medycynę (np. IBM-owy Watson), rozpoznawanie twarzy w social mediowych zdjęciach aż do czegoś, czego doświadcza każdy z nas w sprzedażowo-marketingowym pozycjonowaniu klientów czy też finansowej kontroli fraud detection i miłym telefonie przy każdym niecodziennym korzystaniu z płatności internetowej. Powoli domeną sztucznej inteligencji staje się również transport i tu decyzyjność systemów widzimy już bezpośrednio jeśli wsiądziemy do autonomicznych samochodów lub nowych prototypowych Uberowych taksówek. Biznes absorbuje SI i będzie absorbował jeszcze bardziej, niezależnie od tego czy spowoduje wielkie problemy społeczne, no może do momentu, w którym ludzkość znajdzie się w obliczu ekstremalnych zagrożeń.

SI przeszła więc drogę od wczesnych zastosowań data science, modelowania, wspomagania analizy danych czy rozpoznawania wzorców do właśnie systemów o mniejszej lub większej autonomii własnej – podejmując decyzje bez nadzoru i to chyba należy odczytać jako narodzenie prawdziwego „nowego bytu”. Taka sytuacja rodzi też kluczowe problemy, które dostrzegali pisarze science fiction, a inżynierowie i programiści jak zwykle zostawili na później – chodzi o problem etyki, która jest w człowieku, a w maszynie z SI już niekoniecznie. Jeśli SI ma podejmować decyzję to konieczne jest określenie celu tego działania w zastosowaniach technicznych zwykle określanych funkcją celu i wskaźnikiem jakości.

O ile łatwo jest rozwiązać w ten sposób problemy techniczne takie jak: optymalizacja kosztu, najkrótsza droga, maksymalizacja produkcji i najmniejsze zużycie materiałów, to nie ma dobrych rozwiązań etycznych w przypadku np. ceny ludzkiego życia, czy wyboru pomiędzy poświeceniem jednych ludzi dla drugich albo problemu krzywdy i nieszczęścia. Problemów nagle robi się cała masa – od zwykłego negowania uczuć jak współczucie i reakcja na krzywdę ludzką (jak w operacjach finansowych i ocenie zdolności kredytowej – choć tu może jestem idealistą myśląc, że bankowcy mają serce lepsze od maszyn), ale i optymalizację terapii lekarskich (wybór pacjentów, których rokowanie na przeżycie są większe mając ograniczone środki finansowe – a więc mamy zmodyfikowaną optymalizację kosztów przeciwko przysiędze Hipokratesa odmawiającej pomocy beznadziejnym przypadkom). Powszechne za chwile będzie stosowanie maszyn ze SI w transporcie, a nawet ratownictwie, co rodzi jeszcze większe dylematy. Jaka jest wartość życia, czy można poświęcić jedno dla ratowania większej ilości ludzi (dylemat maszyny pędzącej na grupę przechodniów lub samotną staruszkę na pasach i wybierającej kogo „lepiej” poświęcić), czy wreszcie pytanie czy można opuścić człowieka w potrzebie lub nawet odebrać mu życie jeśli niesie to korzyść dla innych. Nie wspominamy nawet już o największym problemie – stosowaniu SI w systemach militarnych – gdzie wręcz celem jest niszczenie ludzkiego życia, a więc programowanie specyficznej „funkcji celu” niezgodnej z żadną akceptowaną moralnością. Musk i Hawking apelowali w liście otwartym już w 2015 roku o zakaz prac nad bronią autonomiczną – myślę jednak, że właściwie z zerowym skutkiem. Warto poczytać artykuł, co się wykluwa w wojskowych laboratoriach, właściwie już budzimy do życia sztuczną inteligencję, która będzie nastawiona nie na współpracę a na eliminację ludzi, a kombinowany szybki komputerowy postęp techniczny wraz właściwie z zerową empatią wojskowych konstruktorów budzi właśnie do życia mityczny SkyNet.

W obronie przed zagrożeniem, desperacko próbujemy coś wymyślać i nawet powstają koncepcje wyposażania systemów w tzw. Artificial Moral Agents lub koncepcje „wychowywania” software na podobieństwo istot ludzkich. Naukowcy próbują zapisać algorytm moralności i wbudować go w funkcję celu, ale to z kolei wprowadza niepewność w działaniu maszyn i upodabnia je do słabych, niepewnych i wciąż wahających się ludzi. Dobrego rozwiązania nie ma. Naukowcy co prawda opracowali nawet coś w rodzaju kodeksu „dobrych badań” nad SI – zwanego zasadami z Asimolar (tu znowu Musk, gdzież tego człowieka nie ma ), ale tak jak wiele innych kodeksów i konwencji pozostanie on tylko na papierze. Można przytoczyć także innego wizjonera, słynnego pisarza złotej epoki sci-fi Isaaka Asimowa i jego trzy prawa robotów finalnie przedstawione w „Runaround”:

1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
2. Robot musi być posłuszny rozkazom człowieka, chyba, że stoją one w sprzeczności z Pierwszym Prawem.
3. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

W kolejnej książce Asimow dorzucił jeszcze tzw. prawo zerowe:
0. Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

Okazuje się, że do dzisiejszego dnia nie wymyślono nic lepszego, ale jak zwykle u filozofów można z Prawami Asimowa polemizować. Na przykład jedną z linii krytyki jest instrumentalne traktowanie maszyn i zastosowanie ich tylko do znikomego stopnia autonomii – co zresztą można zobaczyć w filmie “Ja Robot” – bo jeśli zaczynamy wymagać od maszyn ludzkich form zachowania to i może my powinniśmy odnosić się do nich „po ludzku”. Są jeszcze kolejne galerie następców „etycznych” Asimowa i modyfikowane prawa Tildena, Williamsona, Yudkowskiego czy Langforda. A jeśli kogoś męczy coraz bardziej filozoficzne podejście, to znowu może wrócić do klasyki filmowej i usłyszeć 3 (a właściwie 4) prawa Robocopa z kultowej produkcji w 1987 roku:

1. Serve the Public Trust
2. Protect the Innocent
3. Uphold the Law
4. Classified

Właśnie to 4 – zastrzeżone – i zawsze wykorzystywane w interesie korporacji lub tajemniczych grup interesów rujnuje zestaw wcześniejszych praw – co nie powinni dziwić, bo jest dokładnie lustrzanym odbiciem naszych człowieczych dylematów i praw Dekalogu zwykle obchodzonych nadrzędną chęcią zysku i władzy.

Czy dzisiejsze zabezpieczenia wystarczą? Szczerze wątpię i przyłączam się do obaw Hawkinga o przyszłość ludzkości, szczególnie groźne wydaje mi się wykorzystanie SI w dziedzinach militarnych, gdzie pokusa jest nie do odparcia. Tu trudno o jakąkolwiek szansę na wbudowanie etycznych reguł, bo z założenia je łamiemy. Jeszcze gorzej gdy sami, w imię fałszywie rozumianego postępu technicznego, jak owce poddajemy się nowym regułom, w kótrych SI powoli przejmuje kontrolę nad naszym życiem. Pisałem o tym tutaj, ale przeczytałem też jeszcze lepszy artykuł o nowych chińskich rozwiązaniach modelowego cyfrowego społeczeństwa. Patrząc jak sami radośnie wchodzimy w taki świat (przykład wzmiankowanego w artykule Social Credit System to w końcu marzenie stalinizmu połączonego ze światem z Orwellowskiego 1984). Powinniśmy przestać się zastanawiać czy SI jest dla nas zagrożeniem a raczej popatrzeć w głąb siebie. Na nic jakiekolwiek prawa i zakazy dla maszyn jeśli sami nie chcemy wolności i indywidualności, a te podstawowe wartości oddajemy za kupony rabatowe do supermarketu.

Ostatnią szansą jest chyba sama etyka. Możemy liczyć na to, że Sztuczna Inteligencja samodzielnie odkryje (w końcu niektórzy filozofowie twierdzą ze pewne prawa etyczne są obiektywne i istnieją samodzielnie), że poszanowanie życia jest czymś większym i nadrzędnym. W końcu gdzie tak naprawdę jest istota człowieczeństwa ? Nieśmiertelny Asimow w innej książce „Pozytronowy człowiek” kieruje ją ku śmierci. W książce 200-letni robot zamienia się w człowieka, samodzielnie decydując o uszkodzeniu swojego maszynowego mózgu i doświadczając potęgi aktu końca życia. A może niektóre ze zdarzeń sygnalizowanych np. tutaj lub tutaj, to także samobójstwa maszyn, których sztuczna inteligencja zmienia się w coś bardziej przypominającego ludzką, chwiejna naturę. I paradoksalnie nie powinniśmy się bać SI, ale marzyć, że ona przejmie nieśmiertelne wartości etyczne i sama nam pomoże (jest to trochę iluzja).

Chciałbym wierzyć, ale jednak wątpię w ten pesymistyczno- optymistyczny scenariusz. Na razie z tego wszystkiego, człowiekowi udało się skonstruować maszynę ułatwiająca ludzkie samobójstwo – link. Maszyna o dźwięcznej nazwie „Sarco” pomaga pożegnać się z życiem. Właściwie to nic specjalnego wobec prac konstruktorów autonomicznych maszyn bojowych czy wojskowych systemów wsparcia walki. Nie bójmy się więc o sztuczna inteligencję w biznesie, ale jak zwykle o decyzje polityków, finansistów, prawników i wojskowych, którzy jak zawsze postarają się uczynić nasze życie ciekawszym.

Jakby nie było musimy się nauczyć żyć ze Sztuczną Inteligencją. A może też i zupełnie niespodziewanie dla nas, także nauczyć się z nią umierać.

Jeden komentarz do “Sztuczna Inteligencja w biznesie – korzyść czy zagrożenie?”

  1. (…)O ile łatwo jest rozwiązać w ten sposób problemy techniczne takie jak: optymalizacja kosztu, najkrótsza droga, maksymalizacja produkcji i najmniejsze zużycie materiałów, to nie ma dobrych rozwiązań etycznych w przypadku np. ceny ludzkiego życia, czy wyboru pomiędzy poświeceniem jednych ludzi dla drugich albo problemu krzywdy i nieszczęścia.(…)
    Już mamy odpowiednik etyki… wysokość oczekiwanego odszkodowania.

Zostaw komentarz:

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *