Jakiś czas temu pisałem o sztucznej inteligencji we wpisie „Sztuczna inteligencja, czy jest się czego bać?”. Historia od tego czasu przyspieszyła i dzisiaj w nasze życie z impetem wdarły się aplikacje takie, jak słynny Chat GPT. Czy coś bym zmienił w mojej ówczesnej diagnozie? W sensie ogólnym, nie. Dalej twierdze, że do tzw. silnej sztucznej inteligencji (Strong AI) jeszcze daleka droga, aczkolwiek zanim zbliżymy się do tego poziomu, jej słabsze wersje sporo namieszają w naszym świecie. Skąd taki wniosek? Bardzo ciekawe są skutki działań programów AI, które już pojawiły się w szerokim zastosowaniu. Żeby nie być gołosłowny trochę poeksperymentowałem z czatami, programami do grafiki i innymi programami opartymi na strukturze uczenia maszynowego (machine learning). Wnioski są dosyć ciekawe. Sztuczna inteligencja osiągnęła bowiem poziom przeciętności, ale nie wybitności. Słynny Chat GPT osiągnął rzeczywiście duży poziom sprawności językowej. Jakieś błędy mu się zdarzają, ale nawet w bardziej rozbudowanych wypowiedziach jest ich bardzo niewiele i po drobnej korekcie program ten produkuje całe akapity poprawnego i dobrze brzmiącego tekstu. No dobrze, to w czym problem? Otóż zadawane przez mnie pytania były, co prawda przez program dosyć sprawnie rozwijane, ale na poziomie wiedzy i odkrywczości, wnioski formułowane przez chat były całkowicie banalne. I tu mamy dobrą i złą wiadomość. Dobrą, bo okazuje się, że na poziomie twórczego myślenia i odkrywczych wniosków sztucznej inteligencji bardzo daleko do poziomu ludzkiego, złą bo rozrośnięta już teraz „produkcja”, na przykład tekstu, zostanie nieprawdopodobnie zwielokrotniona. Oczywiście mówię o tym z perspektywy akademika pracującego w oparciu o tekst i przy pomocy tekstu. Już teraz ludzka „produkcja”, choćby artykułów naukowych, osiąga rozmiary niemożliwe do przyswojenia dla kogokolwiek. Oczywiście zdecydowana większość „produkowanych” w ten sposób tekstów, nie ma większej wartości. Nie zmienia to jednak faktu, że jakoś w tym morzu informacji, chociażby my uczeniu, musimy się poruszać. No to teraz dodajmy do tego wzmocnioną „sterydami AI” produkcje generowaną lub wspomaganą przez programy typu Chat GPT. Ale jest jeszcze gorsza informacja. O ile zwalczane skrupulatnie zjawisko plagiatu jest jeszcze w jakiś sposób możliwe do kontrolowania, to wspomagania lub wręcz wyręczanie się, coraz doskonalszymi programami AI, jest zupełnie niemożliwe do opanowania. Może czegoś nie wiem, ale wydaje mi się, że nie mamy żadnej możliwości zweryfikowania udziału sztucznej inteligencji w generowaniu jakiegoś tekstu. Jeśli te pesymistyczne prognozy się potwierdzą, czeka nas w nauce trudny czas bezsilności wobec zalewu tekstów poprawnych, przeciętnych, ale mało odkrywczych i nie wychodzących poza obowiązujący konsensus. Nadchodzi też trudny czas dla przeciętności. Pojawi się jej nadmiar i przestanie ona mieć jakąkolwiek wartość. Będzie jej wszędzie pełno i będziemy musieli przedzierać się przez oceany przeciętnych, choć dobrze brzmiących i ładnie wyglądających treści, aby gdzieś daleko znaleźć samotną wyspę, czegoś co znaczące, autentyczne i wartościowe. No i wraca oczywiście pytanie, jak daleko jesteśmy od poziomu silnej sztucznej inteligencji. Jak szybko, coraz bardziej samodzielne programy AI mogą osiągnąć niebezpieczny, być może, dla nas poziom? Tym bardziej, że w najbardziej groźnym dla nas zakresie tzw. uczenia maszynowego, nie mamy wiedzy dotyczącej działania sztucznej inteligencji. Tak, tak, nie ma żadnej pomyłki w tym sformowaniu. Nie wiemy, jak działa machine learning! A przynajmniej nie tak aby wiedzieć jak dokładnie maszyna doszła do takich a nie innych wniosków! Rodzi to w zasadzie poruszony już przez mnie problem, który jednak trzeba przeformułować w świetle nowych faktów. Czy możemy przyznać sztucznej inteligencji status autonomiczny? O tym, już wkrótce.