Rok temu udostępniony został ChatGPT. W dwa miesiące to narzędzie generatywnej sztucznej inteligencji zdobyło 100 mln aktywnych użytkowników, rozbudzając globalną debatę na temat etyki zastosowań AI oraz ludzkiej kreatywności. 

Jak po roku patrzymy na możliwości sztucznej inteligencji? W jaki sposób w praktyce wykorzystać sztuczną inteligencję w edukacji i badaniach naukowych? 

Na te tematy rozmawiano podczas Konferencji LUMEN 2023 na panelu prowadzonym przez Macieja Madzińskiego z Akademii Leona Koźmińskiego. W dyskusji głos zabrali: 

  • Barbara Michalska, Dyrektor ds. Edukacji, Microsoft, 
  • Mateusz Rafał, Dyrektor Centrum Transformacji Cyfrowej, Ministerstwo Edukacji i Nauki, 
  • Katarzyna Patyrak, RI Solutions Manager for CEE, Elsevier. 

Zmiany związane z upowszechnianiem sztucznej inteligencji 

Jakie główne zmiany dostrzegają eksperci w wyniku pojawienia się AI w nauce i edukacji? 

Barbara Michalska podkreśliła, że zadziwia ją dynamika adopcji rozwiązań AI i pomysłów na zastosowanie AI w uczelniach. Jej zdaniem przez ostatni rok zmieniło się nasze podejście do sztucznej inteligencji – od narzędzia, którego nie chcemy znać, do takiego, którego jesteśmy ciekawi i z którym chcemy eksperymentować. 

Również Mateusz Rafał obserwuje zmianę postrzegania i recepcji AI. Prelegent uważa, że debata nad zastosowaniami AI w szkołach i uczelniach przyspieszyła debatę nad tym, co jest efektywne w edukacji. „Dochodzimy już do punktu, w którym nie mamy żadnych wątpliwości, że dotychczasowe metody stosowane w edukacji nie będą miały zastosowania; że cały system musi ulec radykalnej zmianie” – mówił Dyrektor Centrum Transformacji Cyfrowej. 

Katarzyna Patyrak z kolei zauważa przyspieszenie procesów badawczych dzięki AI, np. przez wsparcie w przeglądzie literaturowym. Błyskawiczne rozwijają się też badania nad samą sztuczną inteligencją. Ponadto przez ostatni rok wielu wydawców wprowadziło polityki dotyczące wykorzystywania AI w publikacjach. 

Zastosowania AI dziś i w przyszłości 

Sztuczna inteligencja to nie tylko Chat GPT i jemu podobne, ale cały szereg programów i algorytmów, nad którymi pracujemy w zasadzie od lat 50., przypomniała Barbara Michalska. Ekspertka wskazała, że już dziś w wielu programach wbudowane są elementy oparte o AI, np. narzędzia do automatycznej transkrypcji i translacji w Teams czy też narzędzia wspierające dostępność treści cyfrowych dla osób z niepełnosprawnościami. 

AI może więc znaleźć zastosowanie do wyrównywania szans na uczelni, a także pomóc uczniom i studentom rozwijać kluczowe kompetencje, jak myślenie analityczne, otwartość na zmiany czy kreatywność. Sztuczna inteligencja może również być wykorzystywana do personalizacji nauczania oraz do zaangażowania studentów, np. poprzez bota. 

Z kolei Mateusz Rafał uważa, że narzędzia oparte o AI mogą dawać „efektywny feedback o nas samych”. W przyszłości sztuczna inteligencja mogłaby np. na podstawie wprowadzonych danych pomagać uczniom identyfikować słabe i mocne strony oraz podpowiadać im, co jest dla nich lepszą ścieżką rozwoju. Prelegent zastosowania AI widzi przede wszystkim właśnie tam, gdzie są duże ilości danych do analizy. 

Również i reprezentantka Elsevier przyszłe zastosowania AI widzi do analizowania ogromnych ilości danych. Ponadto zdaniem Katarzyny Patyrak powinniśmy zapewnić w szkołach doktorskich dostęp do narzędzi AI. Doktoranci jako przyszli naukowcy mieliby nauczyć się, jak wykorzystywać sztuczną inteligencję i wspierać się nią w pracy w sposób etyczny – zdobyć wiedzę, kiedy mogą zastosować AI, a kiedy jest to niedozwolone. 

Jest to ważne, bo już obecnie dostępne narzędzia dla naukowców mogą zrobić wiele w przygotowywaniu publikacji. AI może zostać użyta do takich działań jak stworzenie przeglądu literaturowego, napisanie artykułu, zarządzanie cytowaniami i ich weryfikacja, edycja i przygotowanie manuskryptu czy też wykrywanie oszustw i nadużyć. 

Ryzyka wynikające z AI w edukacji 

Paneliści zwrócili też uwagę na ryzyka i wyzwania związane z upowszechnianiem się sztucznej inteligencji. Barbara Michalska ostrzegła, żeby zwracać uwagę na dostawców AI oraz na wartości, którymi się kierują, tj. czy dana AI jest budowana odpowiedzialnie i etycznie. Prelegentka podkreśliła też, że nie wolno traktować AI jako czegoś omnipotentnego. „Jest to narzędzie, które może nam szalenie ułatwić życie, ale nie będzie żyło za nas” – mówiła Barbara Michalska. – „Jeśli chcemy napisać pracę naukową, to weźmy za tę pracę odpowiedzialność, przygotujmy materiały i sprawdźmy nasze myślenie, ale nie zlecajmy narzędziu, żeby robiło tę pracę naukową za nas”. 

Mateusz Rafał zaś widzi ryzyko w braku równych szans między potrafiącymi korzystać z AI oraz nie korzystającymi. Prelegent uważa, że istotny jest równy dostęp do AI oraz prowadzenie edukacji nie tylko o tym, jak optymalnie i właściwie wykorzystywać AI, ale też jak się w tym wszystkim nie zatracić. Zarówno reprezentant MEiN, jak i Katarzyna Patyrak sądzą, że sztuczna inteligencja może wesprzeć efektywne zarządzanie zasobami na poziomie globalnym, jak i instytucjonalnym. 

Przedstawicielka Elsevier również podkreśliła znaczenie etyki w wykorzystaniu AI. „Dziś nie ma bardzo szczegółowych regulacji [zastosowania AI]; im będziemy dalej szli z tym procesem, tym bardziej będziemy świadomi, gdzie możemy wykorzystywać sztuczną inteligencję i gdzie jest to zgodne z etyką. Tak jak w biologii, kiedy odkrywaliśmy DNA i zastanawialiśmy się, jak daleko możemy zajść z eksperymentami […], tak samo będzie teraz z AI” – zakończyła panel Katarzyna Patyrak.