Wydaje się, że nowy świat znany z najlepszych filmów science- fiction jest już na wyciągnięcie ręki. Wsiadamy do nowego samochodu, podajemy miejsce docelowe i wszystko dalej toczy się automatycznie. Wreszcie możemy odpocząć od problemów z prowadzeniem, zagłębić się we własne myśli i jechać spokojnie. Wyrafinowany Autopilot doprowadza nas bezpiecznie i bezkolizyjnie do celu, a nasz inteligentny, samochód spokojnie czeka na nasze następne polecenia.
Teoretycznie wszystko właściwie już działa – obecne systemy autonomicznego kierowania pojazdami są bardzo wyrafinowane. Wystarczy (jak w Tesli) włączyć tryb Autopilot i … no właśnie, czy wszystko działa jak trzeba i czy będziemy w stanie pokonać ewentualne trudności? Ostatnio znowu w newsach pojawiły się informacje o wypadkach (śmiertelnych) podczas prowadzenia w trybie Autopilota i co ważniejsze – prawnicze pozwy przeciwko koncernowi. Sprawa jest skomplikowana, bo w przypadku autonomicznych pojazdów wymagania bezwypadkowości są znacznie większe niż dla „normalnych” kierowców (choć wydaje się, że obecnie Autopilot z powodzeniem zdałby wszystkie standardowe egzaminy na prawo jazdy). Dla „Auto” nie ma litości i każdy z wypadków to automatycznie też i pozew o odszkodowania. Zwykle okazuje się, że sytuacja nie jest tak jednoznaczna – ostatni przypadek to błędne rozpoznanie naczepy ciężarówki (prawdopodobnie naczepa o białym kolorze na wyjątkowo biało-niebieskim tle nieba). Autopilot nie rozpoczął hamowania nie widząc przeszkody, ale też nastąpiło złamanie procedur przez kierującego (co skrzętnie wyciągają prawnicy Tesli) – kierowca jechał za szybko i nie trzymał rąk na kierownicy (tak – w obecnych rozwiązaniach nawet w trybie Auto trzeba mieć cały czas kontakt z kierownicą). Tu skończyło się tragicznie -kierowca zginął, co oznacza znowu wielką prawniczą batalię. Problem jest więc zarówno techniczny i prawny.
Z punktu widzenia techniki, już dziś systemy autonomiczne są bardzo dobre i wyrafinowane. Wydaje się nawet, że ich możliwości przewyższają poziom standardowego „ludzkiego” kierowcy, ale „Auto” nie ma marginesu na błąd. A ten błąd, choć prawdopodobny jedynie w 0,00001 % przypadków, kiedyś musi się zdarzyć, bo komputerowe systemy sztucznej inteligencji z założenia nie są doskonałe. Zawsze działają bowiem w oparciu o algorytmy i modele empiryczne – a więc upraszczając przez porównywanie z wzorcami historycznych zdarzeń i wybierając optymalną strategię postępowania. W pewien sposób, przez uczenie maszynowe, komputery powtarzają miliony lat naszej ludzkiej ewolucji – działają w pewien analogiczny sposób jak nasze ludzkie mózgi, bo uczą się na doświadczeniu – korzystając z danych historycznych. My także, na przykład skacząc z pewnej wysokości – nie rozwiązujemy skomplikowanych równań różniczkowych, ale korzystamy ze zdobytego doświadczenia (setki upadków w młodości), a może i czegoś co zapisane jest w naszych genach i automatycznie informuje nas, że skacząc z pierwszego piętra to już mamy duże szanse połamać nogi. Autopiloty działają podobnie – w ułamku mikro sekundy rozpoznają aktualną sytuację na drodze i na każdą z nich mają opracowany optymalny scenariusz (znając też warunki pogodowe i aktualny stan samochodu). Działa to świetnie, ale ma jeden problem – staje się bezradne w momencie pojawienia się nowych – nieznanych do tej pory okoliczności i niemożliwości rozpoznania pasującego wzorca. Gdybyśmy nagle wprowadzili na drogi zupełnie inne kształty samochodów lub gdyby rowerzyści zaczęli poruszać się dwa razy szybciej – od razu systemy autonomicznego prowadzenia zgłupiałyby powodując kolejne wypadki (ale zaraz te nowe doświadczenia dodałyby do swojej bazy danych i po chwili skorygowałyby swój system prowadzenia). Tak więc działa to super i w końcu zawsze dostosuje się do rzeczywistości, ale pojedyncze wypadki czy problemy są nie do uniknięcia. Prawdopodobnie jednak w znacznie mniejszej skali w stosunku do ilości wypadków popełnianych przez „ludzkich” kierowców”.
I tu na scenę wkraczają jak zawsze prawnicy. Przy naszym „człowieczym” prowadzeniu mamy i polisy OC i jakieś okoliczności łagodzące, dla trybu „Auto” nie ma zmiłuj. Każdy błąd, każda nowa okoliczność na drodze i wypadek, a nie daj Boże śmiertelny lub z jakimkolwiek uszkodzeniem zdrowia – to proces i zaraz żądanie wielkiego odszkodowania. Nie jest wykluczone, że za chwilę, ktoś będzie chciał też testować systemy autoprowadzenia na granicy ich możliwości (np. wchodząc pod koła w nierozpoznawalnym dla maszyn ubraniu). Autonomiczny samochód staje przed wielkim problemem, bo musi teraz walczyć nie tylko z klasyczną sytuacją na drodze, ale też ze wszystkimi możliwymi wyjątkami i sytuacjami specjalnymi (a jak wiadomo maszyny nie radzą sobie najlepiej gdy muszą „opuścić swoją strefę komfortu”). Prawnicy dokładają swoje, bo ci którzy żądają odszkodowań wyciągną wszelkie nawet hipotetyczne problemy, a prawnicy Tesli i innych firm samochodowych i IT będą z kolei pokazywać skrupulatne zaniedbania w przestrzeganiu instrukcji (jak owo trzymanie rąk na kierownicy cały czas). Postęp wraz ze swoimi problemami technicznymi zejdzie na drugi plan wobec lawiny pozwów i kontrpozwów. Pomimo, że autonomicznie będzie generalnie bezpieczniej (mniej wypadków) to może okazać się, że prawnicy zablokują możliwość korzystania z tych opcji poprzez zagrożenie wielkimi karmi za jakiekolwiek, nawet niespowodowane przez maszynę błędy. Cała ta sytuacja będzie zmierzać pewnie w ewentualnym kierunku kompleksowego rozwiązania – rodzaj
Autonomous Driving Act – w którym korzystając z tych funkcji zobowiążemy się też do zniesienia jakiejkolwiek odpowiedzialności od producentów i uznania, że robimy to na własną odpowiedzialność, a to z kolei potrwa trochę i prawnicy przed sądami na początek się namęczą.
Co wynika z tego dla nas? Głównie to, że trochę później dostaniemy ten świat z sci-fi i za to też powinniśmy podziękować prawnikom. Bo oczywiście technologia pomaga wielce i będzie przyczyniać się do poprawy bezpieczeństwa, ale jednocześnie dehumanizuje nasz świat i odbiera nam wolność. Autonomiczne systemy prowadzenia są super, ale … zniknie też w takim przypadku pomysł z „Easy Rider” jechania bez celu (a właściwie z celem poszukiwania przygody), bo nasz system samochodowy nie odpowie na podanie celu w postaci „Jedź przed siebie”. Pamiętajmy też, że autonomiczne samochody to też i predefiniowane drogi (tylko te, które są na mapie mogą być dostępne), a więc dla naszego dobra – kawałek świata może być dla nas zamknięty. I na sam koniec – kiedy już maszyny obejmą nad nami władze i zaczną z nami walczyć jak w „Terminatorze” pamiętajmy o jedynej strategii wygrania – musimy działać nieszablonowo. Maszyna zawsze będzie szybsza, wytrwalsza, działająca 24 godziny na dobę i nie mająca wątpliwości. Ale jeśli zmieniają się okoliczności, pojawiają nowe elementy lub coś czego nie zna – wtedy na chwilkę się gubi i musi zaadaptować – więc tylko tak można je pokonać. Ale czy to z kolei też będą umieli prawnicy, którzy rządzą naszym światem?
Każde działanie człowieka obarczone jest mniejszym lub większym ryzykiem . Miliony ludzi zginęło w wypadkach drogowych , lotniczych czy morskich…….. czy ktos zgłasza w związku z tym likwidację transportu samochodowego , lotniczego czy morskiego ? – pewnie trafiaja sie pojedyncze tego typu głosy na które zresztą nikt nie zwraca uwagi. Podobnie będzie z autonomicznymi pojazdami – nadejdzie moment gdy staną się bezpieczniejsze niż te prowadzone przez „czynnik ludzki”. Obawiam się że za jakiś czas- ze 3 – dekady pojawią sie głosy aby zakazać bezpośredniego prowadzenia środków transportu przez człowieka…….