Quo vadis, sztuczna inteligencjo?

Pojawienie się komercyjnych, łatwo dostępnych i tanich modeli klasy GPT sprawiło, że hasło „sztuczna inteligencja” zaczęto odmieniać przez wszystkie przypadki. W którym miejscu jesteśmy i dokąd idziemy?

Publikacja: 01.07.2025 12:03

Quo vadis, sztuczna inteligencjo?

Foto: Adobe Stock

AI rewolucjonizuje wszystkie dziedziny naszego życia, a narzędzia związane z tą technologią rozwijają się w niesamowitym tempie. W tym dynamicznie zmieniającym się środowisku osiągnięcie przewagi konkurencyjnej nad czołowymi technologiami jest ekstremalnie trudne. Warto więc zadać pytanie: w jakim stopniu rozwój technologii przekłada się na faktyczny poziom adopcji tych rewolucyjnych narzędzi? I jakie inne czynniki odgrywają kluczową rolę w cyfrowej transformacji?

Czytaj więcej

Innowacje z Polski wcale nie są na przegranej pozycji

Dzień zero – Początek rewolucji

Tomasz Wrona, członek organizacji ITCORNER i założyciel Ignited ewolucję AI podzielił na kilka kluczowych etapów. Pierwszy to „dzień 0”, czyli początek rewolucji.

- Patrząc na świat sztucznej inteligencji, trudno nie zauważyć wyraźnego podziału na czasy sprzed i w trakcie rewolucji, która (dla mnie osobiście niespodziewanie) nadeszła z obszaru przetwarzania języka naturalnego. To właśnie pojawienie się komercyjnych, bardzo łatwo dostępnych i tanich modeli klasy GPT sprawiło, że hasło „sztuczna inteligencja” zaczęto odmieniać przez wszystkie przypadki – wskazuje ekspert. Dodaje, że dzięki zastosowaniu ogromnych mocy obliczeniowych oraz petabajtów danych tekstowych z internetu powstał popularny ChatGPT, którego obsługi można nauczyć nawet dziecko.

Jakość udzielanych odpowiedzi okazała się niespodziewanie trafna, czyniąc to rozwiązanie potencjalnie tanim i prostym w obsłudze źródłem automatyzacji. Wizja ta pobudziła wyobraźnię inwestorów, co doprowadziło do powstania kolejnych wersji dużych modeli językowych (ang. Large Language Models, LLM). Dziś takie rozwiązania oferuje już każdy z dużych graczy rynkowych.

Dzień 1– Pierwszy kurz opada

Kiedy pierwsza fala entuzjazmu opadła, organizacje zaczęły dostrzegać zagrożenia związane z adopcją modeli LLM. Można je podzielić na trzy zasadnicze obszary. Pierwszy – czysto techniczny – sprowadzał się do nieprzewidywalności i jakości odpowiedzi. Drugi dotyczył przekazywania danych poufnych firmie trzeciej, zazwyczaj zlokalizowanej w Stanach Zjednoczonych i uzbrojonej w armię prawników gotowych reprezentować ją w potencjalnym sporze dotyczącym niewłaściwego użycia danych klienta. Tymczasem zaczęły powstawać modele open-source, które ograniczały obawy związane z udostępnianiem danych, ale charakteryzowały się zdecydowanie niższą jakością niż modele komercyjne oraz – i to trzeci mankament – miały kosztowne wymagania sprzętowe.

Dzień 2 – Rewolucja w rewolucji

Tak oto naprzeciw siebie stanęły dwa sektory. Pierwszy – biznesowy – uzbrojony w potężne, wielomiliardowe środki od inwestorów, nastawiony na agresywną komercjalizację i sukces definiowany zyskiem kwartalnym. Oraz drugi – świat nauki, działający w klasycznym paradygmacie badawczym.

- Patrząc na to przez pryzmat konkurencji technologicznej, świat nauki (oraz liczne organizacje open-source) postawił sobie za cel tworzenie coraz dokładniejszych modeli, wymagających coraz mniejszej mocy obliczeniowej, aby każda organizacja – niezależnie od komercyjnych dostawców – mogła posiadać własny model LLM, działający w obrębie własnej infrastruktury, z możliwością częściowego douczenia go do specyfiki swojej dziedziny lingwistycznej. Aby ograniczyć koszty, konkurencja ta została podzielona na kraje, koncentrując się na tworzeniu modeli dla jednego języka naturalnego – podkreśla ekspert.

Czytaj więcej

Nvidia znów najwięcej wartą spółką na świecie. Mimo zamknięcia rynku chińskiego

Dzień 3 i 4 – Nasze polskie podwórko

Polska również przystąpiła do budowy własnych modeli LLM. Dziś dostępne są dwa, których jakość pozwala na wdrożenie ich w ekosystemach procesowych. Chronologicznie są to Bielik (SpeakLeash i AGH) oraz PLLuM (konsorcjum pod przewodnictwem Politechniki Wrocławskiej). Modele te pozwalają osiągnąć dobrą jakość działania, angażując przy tym zasoby infrastrukturalne na akceptowalnym poziomie budżetowym. Jednak zdaniem ekspertów w przypadku wysoce skomplikowanych zadań oraz obsługi wielu języków ich jakość jest niższa niż modeli komercyjnych.

Symboliczny „Dzień 4” to zmiana nastawienia. Mamy modele LLM, które zapewniają akceptowalną jakość w języku polskim. Oczywiście wyścig mający na celu dalsze polepszanie wyników i minimalizację wymagań sprzętowych będzie trwał, jednak jego rola zmalała w momencie, gdy rozwiązania przekroczyły próg akceptowalnej jakości i zasobochłonności. To oznacza, że mogą być powszechnie implementowane w większości organizacji. Szybko okazuje się jednak, że oprócz samego modelu do sukcesu potrzebny jest pełen wachlarz umiejętności i uwarunkowań. Po pierwsze, potrzebne są osoby znające merytorykę procesów, w których model jest wdrażany. Po drugie, niezbędni są konsultanci, którzy potrafią połączyć płaszczyznę domenową ze światem technologii. Po trzecie, potrzebne jest stworzenie „opakowania” dla modelu, które pozwoli na jego umiejscowienie w realnym procesie biznesowym.

Dzień 5 i 6. Co dalej?

Tu powstaje pytanie w jaki więc sposób możemy wspomagać się w dalszym wyścigu? Z pomocą przychodzą uczelnie, które mogą przyspieszyć ten proces na trzy sposoby. Po pierwsze, poprzez dalsze udoskonalanie technologii. Tworzenie modeli LLM, które mogą działać na mniejszych zasobach, otwiera furtkę na wdrożenia w mniejszych organizacjach, które do tej pory z powodów kosztowych pozostawały niezagospodarowane. Po drugie, poprzez współpracę konsorcyjną z podmiotami biznesowymi. To pozwala na specjalizację rozwiązań w nowych domenach, mających bardzo specyficzne, czasem trudne do zrealizowania wymagania. Po trzecie – edukacja. Ekstremalnie ważna jest zmiana nastawienia uczelni do AI. Nie powinna być ona postrzegana jako wróg trywializujący proces zdobywania wykształcenia, ale raczej jako źródło zupełnie nowych możliwości.

-  Uważam, że dobrym pomysłem byłoby wprowadzenie przedmiotu „Podstawy zastosowania sztucznej inteligencji” na kierunkach medycznych (tu pionierem jest Politechnika Wrocławska), prawniczych, biologicznych czy humanistycznych. To właśnie tam młodzi ludzie nabywają wiedzę, która później pozwala im podjąć pracę w jednym z wymienionych sektorów – podkreśla przedstawiciel ITCORNER.

Czy jest możliwe, że polskie modele LLM kiedyś staną się konkurencją dla modeli światowych? Nie jest to wykluczone.

- Sztuczna inteligencja rozwija się dziś w imponującym tempie, ale żeby polskie firmy mogły realnie konkurować z globalnymi liderami, kluczowa jest bliska współpraca biznesu z sektorem naukowym. Widać coraz więcej pozytywnych przykładów takiej kooperacji – od wspólnych projektów badawczo-rozwojowych, przez transfer technologii, po dzielenie się zasobami, jak infrastruktura obliczeniowa czy dane treningowe – podsumowuje Mateusz Borkowski, zastępca dyrektora technicznego DC w Polcom.

Technologie
Dobre wieści ze spółki Bioceltix. Akcje drożeją
Technologie
Polscy producenci gier jadą na podbój Kolonii. Wiemy co pokażą
Technologie
Uwaga na smartfony
Technologie
Platige Image liczy na poprawę
Technologie
Drożdż z Orange: po #Polskim5G zostały wspomnienia. I to nie najlepsze
Technologie
PCF potrzebuje pieniędzy