AI. Więcej szans, a może zagrożeń?

O ile zapytanie użytkownika nie narusza standardów aplikacji, chatbot AI jest w stanie odpowiedzieć praktycznie na każde zadanie. Dotyczy to również kreacji tekstu od zera. W poprzednich artykułach dowodziliśmy, że modele językowe pokroju ChatGPT bywają wykorzystywane również w zakresie twórczości naukowej. Jaki jest stosunek naukowców do AI i czy kolejne iteracje mogą spowodować trzęsienie ziemi w nauce? Przyjrzyjmy się tym kwestiom z bliska.

Wzrost popularności AI w piśmiennictwie naukowym

Odkąd ChatGPT miał swoją premierę pod koniec 2022 roku, cały świat zafascynował się dostępną technologią AI. Wystarczy wpisać prompt (zapytanie), a Large Language Model (duży model językowy) wygeneruje własny wariant wypowiedzi. Od krótkich odpowiedzi na pytania, aż po eseje i manuskrypty naukowe. Czy jednak treści generowane przez algorytmy AI są wystarczająco dobrej jakości?

Autorzy coraz chętniej sięgają po narzędzia napędzane sztuczną inteligencją. Nic dziwnego, skoro aplikacje te oferują sporo korzyści, które pozwalają zaoszczędzić czas i korzystać z niego bardziej wydajnie. O ile takie zalety ChatGPT są zrozumiałe, trzeba również pamiętać o zasadach działania algorytmów AI.

Aplikacje oparte na LLM wykorzystują treści dostępne w sieci, aby na ich bazie tworzyć swoje wersje tekstu. Powołują się często na niesprawdzone, lub wręcz zmyślone, informacje czy źródła. Dodatkowo, ich baza nie jest aktualizowana na bieżąco. Brak weryfikacji przekazywanych przez AI danych stanowi poważny zarzut przeciwko tekstom opartym na generatorach.

Wątpliwości związane z jakością powodują, że w świecie naukowym coraz bardziej zauważalna jest polaryzacja społeczeństwa akademickiego.

Autorzy jedno, czasopisma co innego

Wydawać by się mogło, że ChatGPT wyspecjalizował się w imitacji języka używanego przez ludzi. Do tego stopnia, że recenzenci są w stanie rozpoznać zaledwie dwie trzecie streszczeń napisanych przez sztuczną inteligencję. Jednocześnie, ci sami recenzenci niepoprawnie wskazali 14% abstraktów napisanych przez prawdziwe osoby, kwalifikując je jako wygenerowane przez AI.

Ponieważ wokół korzystania z modeli językowych narosło niemało kontrowersji, naukowcy podchodzą do tej technologii z dystansem. Niemniej jednak autorzy chętnie sięgają po ChatGPT i podobne aplikacje, aby odkrywać możliwości LLM. Niektórzy wręcz podają chatboty jako współautorów swoich publikacji naukowych.

Z mniejszą dozą ufności do technologii sztucznej inteligencji podchodzą redakcje czasopism naukowych. Managerowie magazynów zwracają uwagę na kwestię dokładności (albo jej braku) w przypadku tekstów generowanych maszynowo. Problem polega na tym, że chatboty często fabrykują odpowiedzi, jeśli nie są w stanie oprzeć się na wystarczającej ilości danych w swojej bazie.

Choć kolejne iteracje GPT Open AI cieszą się sporym zainteresowaniem, tak produkty Google Bard czy Meta Galactica są pełne błędów. Nawet około 20% odpowiedzi tych modeli językowych sztucznej inteligencji zawierało nieprawdziwe informacje. 

Co więcej, redaktorzy czasopism naukowych zwracają też uwagę na nieetyczne działanie autorów. Niektórzy przypisują sobie autorstwo tekstu, podczas gdy w całości kopiują treści wygenerowane przez AI. Taki plagiat doczekał się nawet anglojęzycznej nazwy aigiarism.

Ograniczenia czasopism naukowych względem sztucznej inteligencji

W roku 2023 coraz częściej mówi się o konieczności wprowadzenia rządowych regulacji pod kątem działalności programów wykorzystujących sztuczną inteligencję. O ile politycy do tej pory nie opracowali żadnych ograniczeń czy narzędzi kontroli AI, z podobnymi inicjatywami wychodzą redakcje czasopism naukowych.

Springer Nature – największy wydawca akademicki na świecie – twierdzi, że ChatGPT nie może być podawany jako autor. Science idzie o krok dalej, zabraniając autorom publikacji naukowych wykorzystania generatorów AI do współtworzenia tekstu. Przyszłość sztucznej inteligencji stoi zatem pod znakiem zapytania, skoro najważniejsze czasopisma odżegnują się od użycia chatbotów.

Już w 2016 roku prof. Stephen Hawking ostrzegał, że „powstanie potężnej sztucznej inteligencji będzie albo najlepszą, albo najgorszą rzeczą, jaka kiedykolwiek przydarzyła się ludzkości. Nie wiemy jeszcze, którą”. Naukowcy zdają się dostrzegać zarówno szanse, jak i zagrożenia, jakie płyną z AI. Parafrazując Hawkinga, nie wiemy jeszcze, które z nich zwyciężą.

Potencjalne problemy związane z nadużywaniem AI w nauce

Debata pomiędzy apologetami dużych modeli językowych i adwersarzami w świecie nauki trwa. Być może rzeczywiście potrzebne są daleko idące regulacje, które wykroczą poza przestrzeń publikacji naukowych. Do tego potrzebne są jednak realne działania polityczne, których na chwilę obecną brakuje.

Naukowcy już dziś apelują o konieczność weryfikacji i tzw. fact-checkingu podczas korzystania z zasobów LLM. Ponadto zaznaczają, że aplikacje w stylu ChatGPT powinny jedynie stanowić dodatek, a nie zastępować rzetelnej pracy naukowca. W przeciwnym wypadku okaże się, że nawet osoby bez wiedzy i doświadczenia w danej tematyce będą mgły fabrykować „artykuły naukowe” w całości napisane przez AI.

Konsekwencje bezgranicznego zaufania i nadmiernego wykorzystania sztucznej inteligencji mogą być poważne. Nie ulega jednak wątpliwości fakt, iż AI pozostanie z nami na dłużej. Ta kwestia wymaga oddzielnego spojrzenia, więc zajmiemy się nią już w kolejnym tekście z tej serii.

Bibliografia:

https://www.science.org/content/article/scientists-explore-ai-written-text-journals-hammer-policies

https://www.biorxiv.org/content/10.1101/2022.12.23.521610v1

https://www.nature.com/articles/d41586-023-00107-z

https://agupubs.onlinelibrary.wiley.com/doi/10.1029/2023CN000212

2 thoughts on “AI. Więcej szans, a może zagrożeń?

Comments are closed.