Dwa tematy, które ostatnio interesują ludzkość w naszym kręgu kulturowym najbardziej to: wojna i sztuczna inteligencja. Na pytanie: czy mają ze sobą coś wspólnego można odpowiedzieć standardowo, że sztuczna inteligencja może analizować dane pola walki, że stosowane są inteligentne środki bojowe itp. ale zupełnie nie to miałem na myśli pisząc o „wojnach chata GPT”. Jest jeszcze jeden znacznie głębszy problem pojawiający się u podstaw obydwu tych zagadnień, dla mnie, filozofa, znacznie bardziej interesujący. Zacznijmy od AI. Mnóstwo się na ten temat ostatnio pisze, a pomysły i możliwe zastosowania inteligentnych algorytmów ze słynnym chatem GPT na czele mnożą się jak króliki. Ale to też nie jest to, co mnie zainteresowało. Pytanie, które w związku z pojawieniem się w naszym życiu AI rzadko się zadaje, to pytanie o nasze strachy i obawy. Pytanie to brzmi: dlaczego w ogóle boimy sztucznej inteligencji? Wiele było różnych ostrzeżeń przed AI ostatnimi laty. Wielu ważnych ludzi pisało i apelowało, że sztuczna inteligencja, kiedy tylko stracimy nad nią kontrolę na pewno nas pożre, że nie będziemy jej potrzebni, a nawet staniemy się zbyteczni, że będzie to koniec naszego gatunku itp., itd. Zastanawia mnie jakie są podstawy takich obaw i dlaczego uważamy, że pojawianie się bardziej od nas inteligentnego podmiotu musi stanowić dla nas zagrożenie? Odpowiedź na to pytanie, jaką znalazłem podsumować można jako „wszystkie wojny chata GPT”. O co zatem chodzi? Wydaje mi się, że prorokując zagrożenia ze strony sztucznej inteligencji dokonujemy swoistej projekcji naszych, ludzkich zachowań. Czy to nie my ludzie, wykorzystujemy mniej inteligentne od nas gatunki? Czy to nie dla nas ludzi niższy stopień inteligencji równoznaczny jest z zaproszeniem do dominacji? Czy wreszcie to nie my ludzie uznajemy, że ci mniej inteligentni powinni służyć tym bardziej inteligentnym i mogą być przez nich (na poziomie zależności gatunkowych) traktowani, mówiąc słowami Kanta, „jako środki nie jako cele”? Otóż te wszystkie typowo ludzkie zachowania, przenosimy na sztuczną inteligencje, nie wiadomo dlaczego twierdząc, że bardziej inteligentny twór weźmie na nas, swego rodzaju odwet i odbierze to, co my odebraliśmy innym mniej inteligentnym gatunkom. Problem w tym, że tego rodzaju twierdzenia są całkowicie bezpodstawne. Po pierwsze różnicy między nami i sztuczną inteligencją nie można ująć jako różnicy gatunkowej więc pada argument o podległości istot mniej inteligentnych. Rodzaj podmiotowości AI jest, póki co, nieokreślony, włącznie z możliwymi jej sposobami działania, ponieważ jest to twór niematerialny. Po drugie, dlaczego wzrost inteligencji ma się wiązać z podbojem i ryzykiem wykorzystywania mniej inteligentnych, aż do poziomu zagrożenia egzystencjalnego? I tu dochodzimy do związku sztucznej inteligencji z wojną. Czy rzeczywiście podmiotowość bardziej inteligentna od naszej będzie toczyła wojny o władzę? Czy wojna i dominacja mają jakikolwiek rozumny i inteligentny charakter? Czy sztuczna inteligencja zadziała według logiki podboju i konkwisty, według logiki podległości i idącego za nim jakoby prawa do bezlitosnej eksploatacji? Czy w dzisiejszym świecie rozwiązanie oparte na przemocy, wyzysku, odmowie prawa do istnienia, jest bardziej czy mniej inteligentnym rozwiązaniem? Dlaczego w ogóle nie bierzemy pod uwagę rozwiązania przeciwnego? Bo być może AI będzie w stanie rozwiązać nasze problemy społeczne w sposób daleko bardziej doskonały od tego jaki my sami jesteśmy w stanie zaproponować, i to nie tylko bez szkody, ale z pożytkiem dla nas ludzi? Być może dzięki sztucznej inteligencji przybliżymy się do ideału bezkonfliktowego współistnienia? Być może kwestia wskazywania sprawiedliwego prawa i wydawania równie sprawiedliwych, czyli bezstronnych wyroków zostanie rozwiązana właśnie przez sztuczną inteligencję? Dlaczego więc mamy tyle obaw, zamiast mieć wielkie nadzieje? Tu wracam do przedstawionej wcześniej tezy. Nasze, głęboko tkwiące w nas, pragnienie dominacji, naszą uśpioną dzikość i skłonność do okrucieństwa projektujemy na, bogu ducha winną AI, traumatycznie przypuszczając, że weźmie ona na nas odwet. Za co? Za sposób w jaki my traktowaliśmy i często dalej traktujemy, istoty uznawane przez nas za stojące niżej we wszelkich możliwych hierarchiach. Dobra i zła zarazem wiadomość jest taka, że tego rodzaju zachowania to nasza ludzka przypadłość, niezwiązana bynajmniej z inteligencją lub jej brakiem. Ba, rozumność jako taka, wedle wielu teorii filozoficznych prowadzi do dobra, a nie do zła moralnego. Zło samo w sobie od zawsze określane jest jako wewnętrznie sprzeczne i nielogiczne, dlaczego więc inteligencja, sztuczna bądź nie, miałaby ku niemu się skłaniać? Otóż wpis ten kończę wezwaniem, aby, jeśli nawet obawiamy się AI brać pod uwagę pozytywny scenariusz, w którym stworzony przez nas algorytm przyczyni się do wzrostu ogólnego dobrostanu ludzkości. Jeśli rzeczywiście, jak uważa wielu, stoimy u progu przełomu w naszym rozwoju to być może należy traktować go jako ten dzięki któremu nasze życie staje się lepsze, a nie gorsze. Skoro sztuczna inteligencja w pewien sposób uczy się od nas, to niech uczy się unikania przemocy i dążenia do „wiecznego pokoju”, jak chciał kiedyś pewien filozof z Królewca.