Etyka AI: wyzwania związane z AI w pisaniu akademickim 2024

Rozwiązania technologiczne oparte na sieciach neuronowych, dużych modelach językowych i szeroko pojętej sztucznej inteligencji nie schodzą z afisza. Oprogramowanie AI jest coraz szerzej wykorzystywane również przez pracowników naukowych. Czy jednak użycie sztucznej inteligencji można uznać za etyczne? Na czym miałaby polegać etyka AI w ujęciu akademickim? Na te i inne pytania postaramy się odpowiedzieć w niniejszym artykule.

Czym jest etyka AI w pisarstwie akademickim?

Od co najmniej 2023 roku jesteśmy świadkami postępującej rewolucji w podejściu do integracji nowoczesnych technologii w sposobie pisania tekstów, również tych o charakterze naukowym. Narzędzia napędzane sztuczną inteligencją oferują nie tylko sporo zalet, ale również wiążą się z pewnymi zagrożeniami. Jednym z kluczowych wyzwań, jakie stają przed światem akademickim, jest etyka AI w piśmiennictwie naukowym.

Mowa tutaj o zbiorze zasad, które opisywałyby odpowiednie podejście i wykorzystanie sztucznej inteligencji w pisarstwie akademickim. Reguły te powinny dotyczyć etycznej aktywności autorów prac, a także przejrzystej integracji AI w badaniach na różnych etapach działalności.

Już teraz sztuczna inteligencja wspiera naukowców na sześciu płaszczyznach:

  • Ułatwienie generowania pomysłów i projektowania badań
  • Ulepszanie treści pod kątem trafnej strukturyzacji
  • Wsparcie przeglądu oraz syntezowania literatury akademickiej
  • Usprawnienie zarządzanie danymi i bibliografiami
  • Ułatwienie edytowania, redakcji, korekty, recenzji tekstu
  • Pomoc w komunikacji, docieraniu do odbiorców i przestrzeganiu zasad etycznych

Oprogramowanie w stylu ChatGPT czy Gemini wykazuje znaczny potencjał w powyższych obszarach, aczkolwiek badacze nadal wykazują liczne wyzwania, z jakimi przychodzi się mierzyć autorom tekstów podczas korzystania z AI. Mowa chociażby o utrzymaniu integralności akademickiej, a także zrównoważeniu sztucznej inteligencji i pracy człowieka.

W tym zakresie to właśnie etyka AI staje się kluczowym czynnikiem porządkującym sposoby implementacji modeli językowych w pracy naukowej.

Komu ma służyć etyka AI?

Relacja pomiędzy światem nauki a najnowszymi dokonaniami w świecie sztucznej inteligencji stale się zmienia. Apologeci nowoczesnych technologii stoją na straży dużych modeli językowych, chwaląc te narzędzia za ich szerokie możliwości. Natomiast adwersarze podkreślają potencjalnie negatywny wpływ na integralność akademicką w kwestii piśmiennictwa naukowego.

Powstaje zatem pytanie, komu powinno zależeć na ustaleniu reguł związanych z wykorzystaniem sztucznej inteligencji w nauce? Etyka AI służy nie tylko akademikom, ale również następującym organom:

  • Rządy narodowe – 1 sierpnia 2024 w Polsce weszło w życie rozporządzenie pod nazwą Akt o AI, które ma regulować sposób działania sztucznej inteligencji. Treść Aktu uwzględnia obowiązki dostawców oraz podmiotów związanych z sektorem AI, opisując przy tym potencjalne ryzyko szkód wyrządzanych obywatelom, społeczeństwom oraz gospodarkom. Dokument ten ma mieć zastosowanie dla całej Unii Europejskiej już od 2025 roku.
  • Organizacje międzynarodowe – ONZ, Bank Światowy czy UNESCO również aktywnie działają na rzecz etycznego zastosowania sztucznej inteligencji. Dla przykładu, Zgromadzenie Ogólne ONZ przegłosowało w marcu 2024 roku rezolucję dotyczącą bezpieczeństwa i zaufania względem systemów AI.
  • Organizacje non-profit – etyka AI interesuje także organizacje pozarządowe, które opracowują własne zasady i reguły implementacji rozwiązań. W tym przypadku warto zapoznać się z treścią pracy podsumowującej aż 200 wytycznych i rekomendacji w zakresie zarządzania sztuczną inteligencją.
  • Giganci technologiczni – sektor przedsiębiorstw prywatnych aktywnie działa na rzecz rozwoju AI, zapominając często o problemach etycznych. OpenAI, Google, X (Twitter) czy Facebook muszą jednak dbać o aktualizację swojej polityki. Przykładem może być podejście twórców ChatGPT do bezpieczeństwa, opisane w tym dokumencie.

Na czym polega nieetyczne zastosowanie AI?

Podczas gdy sztuczną inteligencję chwali się za zdolność do przyspieszania badań poprzez szybkie przeszukiwanie bogatych zbiorów oraz przeprowadzanie złożonych symulacji, jej integracja w piśmiennictwie akademickim rodzi szereg obaw o nieetyczne zastosowanie AI.

Trzeba pamiętać, że duże modele językowe (LLM), takie jak ChatGPT, oferują kuszące możliwości. Zautomatyzowany przegląd literatury, sugerowanie metod badawczych, a nawet pisanie całych paragrafów prac naukowych – to tylko niektóre funkcje LLM-ów. Niestety, w świecie akademickim coraz częściej zdarzają się przypadki nadużywania sztucznej inteligencji.

Etyka AI staje się tym bardziej aktualna, gdy wielu naukowców daje się złapać na gorącym uczynku, bazując na tekstach wygenerowanych przez modele językowe. Stąd też pojawiają się oskarżenia o plagiat, który wykryć da się również w zakresie implementacji AI w tekście naukowym. Nadużycia mają miejsca zarówno w niszowych, jak i najbardziej rozpoznawalnych czasopismach naukowych.

Zakończenie: balansowanie pomiędzy technologią a pracą człowieka

Wątpliwości związane z nieetycznym nadużywaniem AI to wielopłaszczyznowa i wielce niepokojąca kwestia. Takie działania sprawiają, że łatwo podważyć uczciwość badań akademickich. Autorzy podpisujący się własnym nazwiskiem pod sztucznie wygenerowanym tekstem wzbudzają podejrzenia co do autentyczności zarówno ich samych, jak i ich profesji. Co więcej, aktywność ta podważa wiarygodność współautorów, redaktorów i recenzentów, którzy mają do czynienia z daną publikacją.

Dlatego też tak istotne jest utrzymanie zdrowego balansu pomiędzy technologią sztucznej inteligencji a samodzielną pracą naukową. Etyka AI, będąca zbiorem reguł korzystania z dobroci innowacyjnych technologii, powinna przyświecać każdemu autorowi. Dynamiczny rozwój narzędzi AI nie ma końca, więc tym bardziej warto już teraz zadbać o właściwą implementację tych rozwiązań w kwestii piśmiennictwa.

Czołowe czasopisma, takie jak Nature czy Science, wprowadzają własne obostrzenia związane z użyciem AI. Niemniej jednak wydaje się, że potrzebujemy bardziej systemowych rozwiązań nie tylko na poziomie publikacji, ale wręcz na polu międzynarodowej legislacji. Miejmy nadzieję, że w kolejnych miesiącach doczekamy się odpowiednich regulacji w Polsce i Unii Europejskiej.

Bibliografia

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10801601

https://www.sciencedirect.com/science/article/pii/S2666990024000120

https://link.springer.com/article/10.1007/s43681-024-00493-8

https://link.springer.com/article/10.1007/s00146-024-01946-8

https://www.gov.pl/web/ai/rewolucja-w-regulacji-wchodzi-w-zycie-akt-o-ai

https://news.un.org/en/story/2024/03/1147831

https://www.sciencedirect.com/science/article/pii/S2666389923002416

https://openai.com/index/our-approach-to-ai-safety