Panel był poświęcony sztucznej inteligencji, w szczególności w kontekście budowania suwerenności technologicznej Polski i Europy. Uczestnicy zwrócili także uwagę na modele AI tworzone w Polsce oraz ich wykorzystanie w różnych obszarach.

W dyskusji moderowanej przez Dra Macieja Kaweckiego, Dyrektora Centrum Innowacji Uniwersytetu WSB Merito, udział wzięli:

  • Anita Ciesielska, Uniwersytet Łódzki,
  • Dominika Grajewska, Akademickie Centrum Komputerowe CYFRONET AGH,
  • Przemysław Jurgiel-Żyła, Członek Zarządu Movens Capital,
  • Dr Maciej Madziński, Dyrektor Programu MBA IT, Akademia Leona Koźmińskiego.

SZTUCZNA INTELIGENCJA = SZTUCZNY HYPE?

W dyskusji publicznej słychać głosy, że AI to tylko hype i bańka, która zaczyna pękać. Jakiego zdania są nasi prelegenci?

Prof. Anita Ciesielska uważa, że jesteśmy już po „pierwszym wow”, jeśli chodzi o AI. Z hype’u przechodzimy do bardziej refleksyjnego i odpowiedzialnego podejścia. Prelegentce wydaje się, że ludzie są już zmęczeni sztuczną inteligencją i postrzegają ją bardziej jako zagrożenie, np. obawiają się utraty pracy. Jednocześnie obserwuje, że przestajemy się wypierać AI, zwłaszcza jako uczelnie.

Przemysław Jurgiel-Żyła zaś spodziewa się raczej nie pęknięcia bańki, a raczej fluktuacji. Uważa, że rynek AI tąpnie – ktoś straci, ktoś zarobi – ale ta technologia nie zniknie i będzie nadal rozwijana i coraz lepsza. Jest pewien, że wcześniej czy później nastąpi korekta na rynku, co widać już po giełdach oraz wyścigu o chipy między gigantami technologicznymi.

Z kolei moderujący panel Dr Maciej Kawecki obserwuje masowy spadek zainteresowania ludzi sztuczną inteligencją. Większość narracji o AI, które obserwuje w Polsce i USA, to obawy o pracę, porównania do gruszek na wierzbie i rozczarowanie AI: ludzie czują, że nie dostają tego, czego oczekiwali, mówił moderator. Jego zdaniem jest to pierwsza jaskółka pękającej bańki.

Innego zdania jest Dr Maciej Madziński, który uważa, że nie ma żadnego spadku hype’u ani żadnej bańki, a co dopiero jej przełamywania. Wskazuje na wysokie wyniki finansowe firm działających w obszarze AI. Może i zainteresowania przeciętnego człowieka spada, zgodził się reprezentant ALK, ale przecież to nie przeciętny człowiek podejmuje decyzje inwestycyjne i wdrożeniowe co do AI. Dla prelegenta taki brak zainteresowania ogółu to właśnie znak, że nie ma bańki AI, ponieważ bańki istnieją wtedy, gdy wszyscy są „na hype”. Uważa jednak, że kiedyś ta bańka powstanie.

CZY JEST ZA PÓŹNO NA EUROPEJSKIE I POLSKIE MODELE AI?

Zdaniem Dra Macieja Madzińskiego, faktycznie przespaliśmy w Polsce i w ogóle w Europie moment na tworzenie LLM (dużych modeli językowych). Jednocześnie Europa nie może sobie pozwolić nie mieć LLM i być uzależnioną od prywatnych, amerykańskich firm. Pomyślmy, co by się stało, gdyby jakiś gigant zza oceanu, np. Microsoft, wyłączył swoje usługi? Oczywiście nie znaczy to, że mamy „obrażać się” na zachodnią technologię i jej nie wykorzystywać, ale też nie możemy odpuścić tak ważnych technologii, nawet gdyby nasz LLM miałby być gorszy od amerykańskich, podkreślił prelegent.

Prof. Anita Ciesielska, zgadza się, że Europa została w tyle, jeśli chodzi o duże modele językowe, ale jest jeszcze przestrzeń na lokalne LLM. Polska jest tego dobrym przykładem, mamy 2 modele językowe: Bielik i Plum. Ich przewagą jest trenowanie na wysokiej jakości polskich danych, w polskim kontekście językowym i kulturowym.

Co ważne, Bielika można postawić na lokalnej infrastrukturze, odciąć od Internetu i funkcjonować w obrębie własnych danych wewnętrznych. Wspiera to zachowanie bezpieczeństwa danych.

Dominika Grajewska na co dzień pracuje przy rozwoju Plum. Polskie modele są dużo mniejsze niż np. ChatGPT. Globalnie nie wygrają one z czołowymi rozwiązaniami, ale lokalnie są takie zadania, gdzie sprawdzają się znacznie lepiej, mówiła prelegentka.

Przemysław Jurgiel-Żyła podkreślił, że de facto mamy w Europie dużo technologii. Mamy LLMy i nie jesteśmy tutaj istotnie gorsi. Równie skutecznie możemy użyć naszych rozwiązań jak francuski Mistral, model zbliżony do GPT. Warto samemu podjąć decyzję, na czym chcemy pracować, zamiast kierować się ku najgłośniejszym rozwiązaniom.

Prelegent przypomniał, że algorytmy, które nazywamy AI to nie tylko czat i LLM, ale różnorodne technologie, które mają automatyzować procesy i wspomagać ludzi. W większości przypadków nie potrzeba nawet dużych modeli językowych. Wiele polskich przedsiębiorstw i instytucji wybrało właśnie Bielika zamiast zagranicznych LLM.

Dr Maciej Madziński uzupełnił, że jedna z najbardziej innowacyjnych technologii AI, nie LLM-owa, koduje się właśnie w Warszawie. Jak poprawnie odgadł Dr Kawecki, chodzi o autonomiczne pojazdy Waymo i warszawski oddział Google.

Mamy w Polsce świetnych inżynierów i świetne programy studiów, ale przeznaczamy na innowację i edukację niewielkie pieniądze, mówił Dr Madziński. Powstają w naszym kraju technologie przyszłości, ale brakuje środków na wielkie krajowe inwestycje, które pozostają niestety w sferze marzeń.

PROBLEMY EDUKACJI W CZASIE AI

Z perspektywy wykładowcy AI to spore wyzwanie. Dominika Grajewska obserwuje liczne próby oszustw ze strony studentów z użyciem AI. Jej zdaniem, dzisiaj bardzo trudnym jest zmuszenie studentów do nauki i samodzielnego rozwiązywania zadań. Prelegentka uczy programowania i widzi, że studenci wolą wrzucić zadanie do ChataGPT, który napisze za nich kod, zamiast w ogóle spróbować je rozwiązać. Takie studiowanie traci sens.

Prelegenci zgodzili się, że potrzebne są zmiany w sposobach weryfikowania wiedzy studentów oraz takie konstruowanie zadań, by praca własna studenta była koniecznym, niepomijalnym warunkiem zaliczenia przedmiotu. Paneliści nie wyobrażają sobie świata, w którym wykładowcy znikną, a ich miejsce zajmą aplikacje, ale z drugiej strony są przekonani, że rola nauczyciela akademickiego musi ulec przeobrażeniom.