Rok od udostępnienia ChatGPT – jak na AI reaguje świat nauki?

Wsiadamy do wehikułu czasu, choć nasza podróż do przeszłości nie będzie wcale taka odległa. Chodzi mianowicie o rok 2023, kiedy to na świecie rozpoczęła się powszechna fascynacja generatywną sztuczną inteligencją. Minął już ponad rok od udostępnienia ChatGPT jako narzędzia do tworzenia tekstu. Jak dziś na AI oraz LLM-y patrzy środowisko naukowe? Czy wprowadzono już ograniczenia w zakresie wykorzystania sztucznej inteligencji w piśmiennictwie akademickim?

Czy ChatGPT i generatywna sztuczna inteligencja potrafią pisać?

Gdy na przestrzeni roku 2023 byliśmy świadkami rozwoju dużych modeli językowych, zastanawialiśmy się, jak będzie wyglądać przyszłość AI w nauce. Już wtedy w piśmiennictwie naukowym coraz częściej wykorzystywano programy do generowania tekstu, wśród których prym wiedzie zaprojektowany przez Open AI ChatGPT.

Duże modele językowe (LLM) wykorzystują ogromne zbiory danych, aby na ich podstawie kreować teksty. Użytkownik pisze swój „prompt”, czyli formę zapytania, które określa wytyczne, wymagania i ograniczenia dotyczące zadania. Następnie asystent AI tworzy treść, która powinna być oparta na wszystkich wypisanych wskazówkach.

Najnowsze badania pokazują, że wykorzystywanie AI w nauce znacząco zmniejsza czas spędzony na napisanie artykułu. Jednocześnie pojawia się inny czasochłonny problem, który dotyczy dokładniejszego „fact-checkingu”. Opieranie się wyłącznie na generowanym przez sztuczną inteligencję tekście prowadzi do potknięć – aż 70% badanych odnośników zawierało błędy.

Co więcej, technologia LLM, która bazuje na wykorzystywaniu już istniejących w sieci treści, może prowadzić do większego zagrożenia plagiatem. Wnioski z badań opublikowanych w Current Osteoporosis Reports (Open Access) są jednoznaczne: AI nie można wykorzystywać bez precyzyjnego nadzoru ludzkiego.

Nieco bardziej optymistyczne podejście do generatywnej sztucznej inteligencji w świecie naukowym przedstawiono na łamach Time. W morzu pełnym negatywnych zdań o LLM-ach, wspomina się o wartościowym wsparciu chatbotów dla pisania artykułów przeglądowych. AI jest w stanie skutecznie przeglądać wklejane teksty, dokonywać streszczeń i analiz, a także wyciągać wnioski. Innymi słowy, technologia ta jest w stanie wspierać autorów prac w szybszej ekstrakcji danych bez konieczności samodzielnego przeszukiwania tekstu.

Czy to jednak wystarczający powód, aby w pełni zaufać generatywnej sztucznej inteligencji i dużym modelom językowym? Tu zdania są podzielone…

Czy naukowcy powinni korzystać z AI do pisania artykułów? Inicjatywa CANGARU

W opublikowanym niedawno w renomowanym magazynie Science artykule, pojawiła się wzmianka o planach wyznaczenia norm dla stosowania AI w piśmiennictwie naukowym. Ponad 4000 ekspertów z różnych dziedzin i krajów ma podjąć się zadania określenia warunków, które następnie mają stać się podstawą dla dalszej pracy z oprogramowaniem LLM.

Aby uniknąć zagrożeń, jakie czyhają na ludzkość wraz z rozwojem sztucznej inteligencji, zawiązała się inicjatywa o nazwie CANGARU. Stanowi ona partnerstwo pomiędzy naukowcami i wydawcami, w tym przedstawicielami:

  • Elsevier
  • Springer Nature
  • Wiley
  • eLife
  • Cell
  • The BMJ
  • Commitee of Publication Ethics

Grupa ma nadzieję dokonać publikacji oficjalnych wytycznych odnośnie sztucznej inteligencji do sierpnia 2024 roku. Na tym jednak inicjatywa CANGARU nie poprzestanie, gdyż każdego roku będą ukazywać się aktualizacje dokumentu, a to ze względu na „szybko ewoluujący charakter tej technologii”, co zauważa Giovanni Cacciamani, urolog z University of Southern California, który kieruje CANGARU.

Wytyczne te będą zawierać listę sposobów, w jakie autorzy nie powinni wykorzystywać dużych modeli językowych, na jakich oparte są chatboty. Ponadto inicjatywa opisze przypadki, kiedy naukowcy będą musieli ujawniać inne zastosowania AI w swojej pracy.

Już teraz niektóre czasopisma – w tym Science i Nature – dzielą się z autorami zasadami implementacji rozwiązań AI w publikacjach.

Zarówno Science, jak też Nature, nie godzą się na wymienianie AI w roli współautora pracy. Naukowcy, którzy używają tych technologii jako elementów swoich badań naukowych lub w roli asystenta pisaniu lub prezentacji manuskryptu, powinni zaznaczyć to w liście przewodnim oraz w komentarzach do tekstu.

Stanowisko innych czasopism naukowych odnośnie AI

Wśród najbardziej rozpoznawalnych magazynów naukowych na świecie, wiele z nich w końcu zaczyna dostrzegać problematykę związaną z (nad)używaniem AI. Zmiany i ograniczenia są jednak wprowadzanie zbyt wolno, co spowodowało, że w periodykach Open Access znaleźć można sporo niskiej jakości treści, które zostały częściowo lub całkowicie wygenerowane przy użyciu chatbotów.

New England Journal of Medicine, podobnie jak Science oraz Nature, zakazuje wymieniania sztucznej inteligencji w roli współautora. Czasopismo twierdzi, że to autorzy są odpowiedzialni za dokładność, integralność i oryginalność pracy. Muszą uważnie przeglądać i edytować prace stworzone przez sztuczną inteligencję oraz zapobiegać przesyłaniu niepoprawnych, niekompletnych lub stronniczych faktów.

Również magazyn Blood zaprzecza, jakoby ChatGPT mógł być wymieniany wśród autorów tekstów. Co więcej, duże modele językowe nie mogą być tutaj wykorzystywane do pisania recenzji artykułów naukowych. Blood zezwala na użycie sztucznej inteligencji do pozyskiwania lub analizy danych, a także do generowania grafiki i danych wyjściowych, takich jak rysunki. Autorzy mają jednak zakaz opierania się na AI w celu pisania tekstu.

W przypadku wydawanego obecnie przez Elsevier magazynu The Lancet, oficjalne wytyczne dla autorów określają, że technologie AI powinny być wykorzystywane wyłącznie w celu poprawy czytelności i języka pracy, a nie do zastąpienia zadań badawczych. Dopuszczalne użycie sztucznej inteligencji obejmuje interpretację i analizę danych naukowych oraz generowanie spostrzeżeń lub wniosków.

Magazyn medyczny Annals of Internal Medicine opiera swoje reguły na wytycznych określonych przez ICMJE, the Council on Publication Ethics, a także Council of Science Editors. Czasopismo wymaga od autorów poświadczenia jakiegokolwiek wykorzystania AI w zakresie pisania zgłoszonej pracy. Jeśli LLM-y zostały wykorzystane, autorzy są zobowiązani do opisania, w jaki sposób używali tych technologii, zarówno w samym zgłoszeniu, jak i w powiązanym liście przewodnim.

Rok od udostępnienia ChatGPT – podsumowanie

Świat naukowy stale ewoluuje i adaptuje się do zmian, jakich świadkami jesteśmy w ostatnich latach. Zwiększa integracja systemów AI, a także rozwój generatywnych chatbotów, przyczyniają się do wzrostu zainteresowania wyznaczeniem pewnej granicy w użyciu technologii do tworzenia artykułów naukowych.

Warto przy tym zaznaczyć, że w 2024 roku wraca potrzeba prac akademickich stworzonych w całości przez człowieka. Przy tym na rynku IT rośnie znaczenie specjalistycznego oprogramowania, które nie tylko jest w stanie wykryć plagiat, ale również sprawdzić tekst pod kątem użycia AI.

To jednak temat na osobny artykuł, który już wkrótce ukaże się na łamach naszego bloga.

Bibliografia:

https://ashpublications.org/blood/pages/editorial_policies

https://elion.nz/the-stance-of-academic-journals-on-the-use-of-ai

https://link.springer.com/article/10.1007/s11914-023-00852-0

https://time.com/6695917/chatgpt-ai-scientific-study

https://www.acpjournals.org/journal/aim/authors5

https://www.nature.com/articles/d41586-023-00191-1

https://www.nature.com/articles/d41586-023-00191-1https://www.nejm.org/about-nejm/editorial-policies

https://www.science.org/content/article/should-researchers-use-ai-write-papers-group-aims-community-driven-standards

https://www.science.org/content/blog-post/change-policy-use-generative-ai-and-large-language-models

One thought on “Rok od udostępnienia ChatGPT – jak na AI reaguje świat nauki?

Comments are closed.