Typ_aktualnosc Aktualność
11 Sierpnia 2025|6 min. czytania

Nowe modele językowe są już dostępne. Rodzina PLLuM się powiększa

Administracja, biznes, organizacje – wszyscy mówią dziś jednym głosem: potrzebujemy AI, która naprawdę rozumie język polski. Nie tylko w codziennych rozmowach, ale także w formalnych pismach, raportach czy specjalistycznych analizach. Takiej, którą można dopasować do konkretnych zadań i mieć pewność, że działa zgodnie z prawem. Najnowsze modele PLLuM powstały, by to zapewnić.

Logo HIVE AI na fioletowym tle
Łuna gradientu wychodząca od dołu

Zostały zaprojektowane z myślą o polskich realiach – od języka urzędowego po specjalistyczną terminologię – i przygotowane tak, aby łatwo je było dostroić do wybranego sektora czy zastosowania. To rozwiązania, które mogą stać się solidnym zapleczem dla narzędzi wspierających codzienną pracę w urzędach, firmach i instytucjach. 

Podstawowym odbiorcą nowych modeli będą urzędy. W zeszłym tygodniu list intencyjny w sprawie wdrożenia modeli PLLuM podpisali Minister Cyfryzacji Krzysztof Gawkowski i prezydent Częstochowy Krzysztof Matyjaszczyk. Niektóre miasta są o krok dalej i już rozpoczęły proces wdrożeniowy. Jako pierwsza – przy wsparciu konsorcjum HIVE AI, które rozwija modele PLLuM – testy przeprowadziła Gdynia. Jesienią tego roku planowane jest uruchomienie polskich modeli językowych w miejskim czatbocie. Jak podkreśla dr Agnieszka Karlińska, kierowniczka Zakładu Dużych Modeli Językowych w NASK PIB i kierowniczka HIVE AI, będzie to wdrożenie pilotażowe, które ma stać się wzorem dla podobnych inicjatyw w innych miastach.

– Zależy nam, by Gdynia była liderem w wykorzystaniu nowoczesnych technologii w obsłudze mieszkańców. W naszym BIP-ie uruchomiliśmy wyszukiwarkę napędzaną AI, która ułatwia dostęp do interpelacji radnych oraz informacji o sprawach do załatwienia. Od lipca testujemy w tym rozwiązaniu – z bardzo dobrym skutkiem – modele z rodziny PLLuM, a jesienią planujemy wdrożenie produkcyjne. To dla nas naturalny krok – w 2012 roku uruchomiliśmy pierwszy w Polsce miejski czatbot, w 2021 pierwszy miejski voicebot, a teraz jako pierwsi sięgamy po polski duży model językowy – mówi Piotr Wiśniewski, Dyrektor Gdyńskiego Centrum Informatyki.

Różne rozmiary i architektury nowo udostępnionych modeli pozwalają wybrać taki, który najlepiej pasuje do danego zakresu zastosowań i dostępnych mocy obliczeniowych.

– Biznes zwykle nie potrzebuje modeli do wszystkiego, tylko dobrze dopasowanych do kilku konkretnych zastosowań – podkreśla dr inż. Marek Kozłowski, kierownik AI Labu w OPI PIB (Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy), zaangażowany w budowę modeli PLLuM. – W wielu przypadkach warto zacząć od mniejszych, tańszych modeli i dostrajać je do potrzeb organizacji. Często już kilka tysięcy przykładów treningowych wystarcza, by osiągnąć bardzo dobre rezultaty. Dopiero gdy to okaże się niewystarczające, warto sięgać po większe rozwiązania.

Nowa odsłona obejmuje trzy modele bazowe, różniące się rozmiarem i możliwościami: 

  • LLama-PLLuM-8B-base-250801 – lekki, dobrze sprawdzający się jako generator w systemach RAG (czyli rozwiązaniach, które łączą model AI z bazą wiedzy, aby udzielać trafniejszych i bardziej wiarygodnych odpowiedzi); wymaga stosunkowo niewielkich zasobów obliczeniowych; 
  • PLLuM-12B-base-250801 – model nadal kompaktowy, ale oferujący wyższą precyzję przy zachowaniu rozsądnych wymagań sprzętowych; 
  • LLama-PLLuM-70B-base-250801 – największy z modeli, przeznaczony do zadań wymagających najwyższej jakości odpowiedzi; wymaga jednak odpowiednio większych zasobów obliczeniowych. 

Czym nowe wersje PLLuM różnią się od swoich poprzedników? 

Nowe modele zostały poddane adaptacji językowej przy użyciu starannie dobranego zestawu danych, który zawierał około 18 miliardów tokenów – głównie po polsku. Co prawda, ten zbiór jest mniejszy niż w przypadku modeli PLLuM-12B-nc-250715, ale na potrzeby treningu zastosowano bardzo rygorystyczne procedury weryfikacji tekstów pod kątem praw autorskich. To gwarantuje pełną legalność i możliwość komercyjnego wykorzystania modeli.  

Mniejszy rozmiar zbioru może oznaczać nieco ograniczone zdolności i bazy danych, jednak dzięki otwartej licencji użytkownicy mogą samodzielnie dostroić modele do swoich potrzeb. 

– Modele udostępniane na otwartych licencjach zostały wytrenowane na zbiorze danych, który przeszedł rygorystyczną weryfikację prawną i jakościową. Punktem wyjścia była szczegółowa analiza przepisów krajowych i unijnych, w tym znowelizowanej ustawy o prawie autorskim, aby zapewnić pełną legalność i możliwość komercyjnego wykorzystania modeli. W efekcie powstał mniejszy, ale bardzo starannie dobrany zbiór danych, obejmujący zasoby konsorcjantów, wyselekcjonowane dane internetowe – pochodzące z domeny publicznej, objęte licencjami Creative Commons lub bez zastrzeżeń TDM – oraz treści pozyskane od wydawców na podstawie umów licencyjnych. To podejście pozwala tworzyć modele gotowe do zastosowań w sektorze publicznym i w biznesie, bez ryzyka naruszeń praw autorskich – tłumaczy dr Agnieszka Karlińska.

Pierwsze wyniki pokazują, że nawet przy ograniczonym rozmiarze zbioru uczącego można osiągnąć znaczący postęp. 

– Nasze dotychczasowe doświadczenia pokazują, że nawet przy stosunkowo niewielkiej ilości danych do pretreningu możliwa jest udana adaptacja domenowa – zauważa dr hab. Piotr Pęzik, prof. UŁ, kierownik operacyjny HIVE AI. – Przykładem jest Llama-PLLuM-70B, o której mówiliśmy na początku tego roku przy okazji jego udanych wdrożeń biznesowych. Wstępne wyniki dostosowywania nowych modeli do języka polskiego pokazują duży postęp w porównaniu do wersji oryginalnych – np. w przypadku Llamy-3.1-70B, po trzech epokach treningu (czyli pełnych przejściach modelu przez cały zestaw danych treningowych) na ograniczonej, ale wysokiej jakości puli danych, wynik w niezależnym teście kompetencji językowych i kulturowych (PLCC) wzrósł z ok. 16 proc. do 29 proc. 

Oprócz trzech nowych modeli udostępniono też nowe wersje modelu LLama-PLLuM-70B, które zostały dostrojone na istotnie większym zestawie instrukcji (tj. par złożonych z zapytań do modelu oraz wzorcowych odpowiedzi) i wychowane na rozszerzonym zbiorze preferencji (zapytań do modelu oraz odpowiedzi ocenianych jako lepsze i odpowiedzi ocenianych jako gorsze).  

– Duży nacisk położyliśmy na poprawę sterowalności modelu oraz jego umiejętności wyszukiwania – wyjaśnia prof. Pęzik. – Dzięki temu modele LLama-PLLuM-70B w wersji instruct i chat, a więc po dostrojeniu i wychowaniu, bardzo dobrze radzą sobie w roli generatorów odpowiedzi w systemach RAG-owych. 

Co dalej? 

Trwają intensywne prace nad powiększeniem zbioru tekstów, który zespół HIVE AI będzie mógł wykorzystywać do tworzenia modeli na najszerszych licencjach. Efekty tych starań będą widoczne w kolejnych odsłonach modeli PLLuM. 

_________________________________________________________________________________________ 

Modele PLLuM-250801 powstały w ramach prac konsorcjum HIVE AI w składzie: NASK – Państwowy Instytut Badawczy (lider konsorcjum), Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie, Centralny Ośrodek Informatyki, Instytut Podstaw Informatyki Polskiej Akademii Nauk, Instytut Slawistyki Polskiej Akademii Nauk, Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy, Politechnika Wrocławska, Uniwersytet Łódzki. Proces treningu został przeprowadzony z wykorzystaniem zaawansowanej infrastruktury obliczeniowej, w tym superkomputerów Bem2 udostępnionego przez Wrocławskie Centrum Superkomputerowo-Sieciowe oraz Helios udostępnionego przez Akademickie Centrum Komputerowe CYFRONET AGH. 

 

Udostępnij ten post

Wyróżnione aktualności

Dwóch mężczyzn w garniturach siedzi przy stole i przegląda dokumenty, za nimi stoją flagi Polski i Unii Europejskiej.
Typ_aktualnosc Aktualność
31 Października 2025|4 min. czytania

Fakty, nie mity. NASK i UMB wspólnie przeciw dezinformacji medycznej

NASK podpisuje kolejne porozumienie przeciwko dezinformacji medycznej i mówi stanowcze „nie” fake-newsom na temat zdrowia. Po Warszawskim Uniwersytecie Medycznym, czas na Uniwersytet Medyczny w Białymstoku.

Otwarcie ofert na pracownie AI i STEM
Typ_aktualnosc Aktualność
30 Października 2025|2 min. czytania

Szkoły coraz bliżej technologicznej rewolucji. Znamy oferty na szkolne laboratoria przyszłości!

Edukacyjna rewolucja nabiera tempa. Tysiące szkół w całej Polsce już wkrótce zyskają nowoczesne pracownie, w których uczniowie będą mogli rozwijać cyfrowe umiejętności i poznawać technologie przyszłości. 30 października w NASK otwarto oferty firm, które chcą wyposażyć szkoły w laboratoria sztucznej inteligencji i STEM – miejsca, gdzie nauka spotka się z technologią.

Grafika promująca Zawody OSINT CTF organizowane przez NASK, z datą 24–25 listopada 2025 i turkusową flagą z logo OSINT CTF na fioletowym tle.
Typ_aktualnosc Aktualność
31 Października 2025|3 min. czytania

Zostań internetowym detektywem i sprawdź się w zawodach OSINT CTF

Internetowe śledztwa, szukanie tropów i łączenie kropek – brzmi znajomo? Jeśli lubisz rozwiązywać zagadki ukryte w labiryncie danych, zawody OSINT CTF NASK 2025 to miejsce, w którym poczujesz się jak w domu. Właśnie rusza rejestracja uczestników.

Grafika promująca Kongres OSE 2025 organizowany przez NASK. Na plakacie widnieje hasło wydarzenia: „Szacunek i odporność społeczna – edukacja wobec hejtu, AI i wyzwań przyszłości”. W tle widoczny jest nowoczesny, niebieski motyw graficzny symbolizujący technologię i edukację cyfrową. Na dole umieszczono informacje o dacie wydarzenia – 2 grudnia 2024 roku – oraz link do strony rejestracyjnej: kongres.ose.gov.pl.
Typ_aktualnosc Aktualność
03 Listopada 2025|4 min. czytania

Kongres OSE 2025 – zarejestruj się!

Jak promować język szacunku w cyfrowym świecie? W jaki sposób budować w szkole przestrzeń dla dialogu i różnicy zdań? Na te i inne pytania odpowiedzą eksperci podczas Kongresu OSE, który jest organizowany przez NASK. Wydarzenie odbędzie się 2 grudnia. Właśnie ruszyła rejestracja uczestników. Na zgłoszenia czekamy do 24 listopada.

Informacje

Najnowsze aktualności

Krzysztof Gawkowski w granatowym garniturze przemawiający do mikrofonu na stojaku podczas konferencji. Jedną rękę ma uniesioną w geście mówienia. W tle niebieski ekran z rozmytym napisem i graficznym wzorem kropek.
Typ_aktualnosc Aktualność
01 Grudnia 2025|4 min. czytania

Oni są przyszłością. Finał Konkursu Młodych Mistrzów

Jak niepostrzeżenie wytropić niewidzialne rootkity – cyfrowe pasożyty, które chcą przejąć system? Nad tym pochyliła się Daria Pietraszko, laureatka nagrody NASK w Konkursie Młodych Mistrzów. W tym roku jury poszukiwało w pracach studentów i doktorantów przełomowych idei dla cyfrowej modernizacji Polski.

Dyrektor Radosław Nielek i uczestnik wydarzenia
Typ_aktualnosc Aktualność
29 Listopada 2025|6 min. czytania

Tropy odnalezione, zagadki rozwiązane. Znamy zwycięzców OSINT CTF NASK

Siatka kont szerzących dezinformację została rozpracowana, zleceniodawca przekazany odpowiednim służbom, a kryzys dyplomatyczny zażegnany. Dwudniowe internetowe śledztwo dobiegło końca. Teraz wszystko jest już jasne – znamy zwycięzców pierwszych w administracji publicznej zawodów z zakresu wywiadu jawnoźródłowego.

Zdjęcie kobiety, siedzącej  ze skrzyżowanymi nogami na tle różowej ściany z różowym tabletem.
Typ_aktualnosc Aktualność
28 Listopada 2025|5 min. czytania

Dzień bez Zakupów. Chwila przerwy od szaleństwa konsumpcji

Dzień bez Zakupów obchodzimy co roku tuż po Black Friday, który nie trwa przecież jeden dzień, a całe tygodnie. Chichot losu, bo akurat po rozpoczynającym się w piątek szaleństwie zakupowym, powinniśmy... powstrzymać się od kupowania już następnego dnia. Warto to jednak zrobić, zwłaszcza, że nadmierny konsumpcjonizm ma dwie wielkie wady – szkodzi planecie i jest świetną okazją dla oszustów.