Nowe modele językowe są już dostępne. Rodzina PLLuM się powiększa
Administracja, biznes, organizacje – wszyscy mówią dziś jednym głosem: potrzebujemy AI, która naprawdę rozumie język polski. Nie tylko w codziennych rozmowach, ale także w formalnych pismach, raportach czy specjalistycznych analizach. Takiej, którą można dopasować do konkretnych zadań i mieć pewność, że działa zgodnie z prawem. Najnowsze modele PLLuM powstały, by to zapewnić.


Zostały zaprojektowane z myślą o polskich realiach – od języka urzędowego po specjalistyczną terminologię – i przygotowane tak, aby łatwo je było dostroić do wybranego sektora czy zastosowania. To rozwiązania, które mogą stać się solidnym zapleczem dla narzędzi wspierających codzienną pracę w urzędach, firmach i instytucjach.
Podstawowym odbiorcą nowych modeli będą urzędy. W zeszłym tygodniu list intencyjny w sprawie wdrożenia modeli PLLuM podpisali Minister Cyfryzacji Krzysztof Gawkowski i prezydent Częstochowy Krzysztof Matyjaszczyk. Niektóre miasta są o krok dalej i już rozpoczęły proces wdrożeniowy. Jako pierwsza – przy wsparciu konsorcjum HIVE AI, które rozwija modele PLLuM – testy przeprowadziła Gdynia. Jesienią tego roku planowane jest uruchomienie polskich modeli językowych w miejskim czatbocie. Jak podkreśla dr Agnieszka Karlińska, kierowniczka Zakładu Dużych Modeli Językowych w NASK PIB i kierowniczka HIVE AI, będzie to wdrożenie pilotażowe, które ma stać się wzorem dla podobnych inicjatyw w innych miastach.
– Zależy nam, by Gdynia była liderem w wykorzystaniu nowoczesnych technologii w obsłudze mieszkańców. W naszym BIP-ie uruchomiliśmy wyszukiwarkę napędzaną AI, która ułatwia dostęp do interpelacji radnych oraz informacji o sprawach do załatwienia. Od lipca testujemy w tym rozwiązaniu – z bardzo dobrym skutkiem – modele z rodziny PLLuM, a jesienią planujemy wdrożenie produkcyjne. To dla nas naturalny krok – w 2012 roku uruchomiliśmy pierwszy w Polsce miejski czatbot, w 2021 pierwszy miejski voicebot, a teraz jako pierwsi sięgamy po polski duży model językowy – mówi Piotr Wiśniewski, Dyrektor Gdyńskiego Centrum Informatyki.
Różne rozmiary i architektury nowo udostępnionych modeli pozwalają wybrać taki, który najlepiej pasuje do danego zakresu zastosowań i dostępnych mocy obliczeniowych.
– Biznes zwykle nie potrzebuje modeli do wszystkiego, tylko dobrze dopasowanych do kilku konkretnych zastosowań – podkreśla dr inż. Marek Kozłowski, kierownik AI Labu w OPI PIB (Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy), zaangażowany w budowę modeli PLLuM. – W wielu przypadkach warto zacząć od mniejszych, tańszych modeli i dostrajać je do potrzeb organizacji. Często już kilka tysięcy przykładów treningowych wystarcza, by osiągnąć bardzo dobre rezultaty. Dopiero gdy to okaże się niewystarczające, warto sięgać po większe rozwiązania.
Nowa odsłona obejmuje trzy modele bazowe, różniące się rozmiarem i możliwościami:
- LLama-PLLuM-8B-base-250801 – lekki, dobrze sprawdzający się jako generator w systemach RAG (czyli rozwiązaniach, które łączą model AI z bazą wiedzy, aby udzielać trafniejszych i bardziej wiarygodnych odpowiedzi); wymaga stosunkowo niewielkich zasobów obliczeniowych;
- PLLuM-12B-base-250801 – model nadal kompaktowy, ale oferujący wyższą precyzję przy zachowaniu rozsądnych wymagań sprzętowych;
- LLama-PLLuM-70B-base-250801 – największy z modeli, przeznaczony do zadań wymagających najwyższej jakości odpowiedzi; wymaga jednak odpowiednio większych zasobów obliczeniowych.
Czym nowe wersje PLLuM różnią się od swoich poprzedników?
Nowe modele zostały poddane adaptacji językowej przy użyciu starannie dobranego zestawu danych, który zawierał około 18 miliardów tokenów – głównie po polsku. Co prawda, ten zbiór jest mniejszy niż w przypadku modeli PLLuM-12B-nc-250715, ale na potrzeby treningu zastosowano bardzo rygorystyczne procedury weryfikacji tekstów pod kątem praw autorskich. To gwarantuje pełną legalność i możliwość komercyjnego wykorzystania modeli.
Mniejszy rozmiar zbioru może oznaczać nieco ograniczone zdolności i bazy danych, jednak dzięki otwartej licencji użytkownicy mogą samodzielnie dostroić modele do swoich potrzeb.
– Modele udostępniane na otwartych licencjach zostały wytrenowane na zbiorze danych, który przeszedł rygorystyczną weryfikację prawną i jakościową. Punktem wyjścia była szczegółowa analiza przepisów krajowych i unijnych, w tym znowelizowanej ustawy o prawie autorskim, aby zapewnić pełną legalność i możliwość komercyjnego wykorzystania modeli. W efekcie powstał mniejszy, ale bardzo starannie dobrany zbiór danych, obejmujący zasoby konsorcjantów, wyselekcjonowane dane internetowe – pochodzące z domeny publicznej, objęte licencjami Creative Commons lub bez zastrzeżeń TDM – oraz treści pozyskane od wydawców na podstawie umów licencyjnych. To podejście pozwala tworzyć modele gotowe do zastosowań w sektorze publicznym i w biznesie, bez ryzyka naruszeń praw autorskich – tłumaczy dr Agnieszka Karlińska.
Pierwsze wyniki pokazują, że nawet przy ograniczonym rozmiarze zbioru uczącego można osiągnąć znaczący postęp.
– Nasze dotychczasowe doświadczenia pokazują, że nawet przy stosunkowo niewielkiej ilości danych do pretreningu możliwa jest udana adaptacja domenowa – zauważa dr hab. Piotr Pęzik, prof. UŁ, kierownik operacyjny HIVE AI. – Przykładem jest Llama-PLLuM-70B, o której mówiliśmy na początku tego roku przy okazji jego udanych wdrożeń biznesowych. Wstępne wyniki dostosowywania nowych modeli do języka polskiego pokazują duży postęp w porównaniu do wersji oryginalnych – np. w przypadku Llamy-3.1-70B, po trzech epokach treningu (czyli pełnych przejściach modelu przez cały zestaw danych treningowych) na ograniczonej, ale wysokiej jakości puli danych, wynik w niezależnym teście kompetencji językowych i kulturowych (PLCC) wzrósł z ok. 16 proc. do 29 proc.
Oprócz trzech nowych modeli udostępniono też nowe wersje modelu LLama-PLLuM-70B, które zostały dostrojone na istotnie większym zestawie instrukcji (tj. par złożonych z zapytań do modelu oraz wzorcowych odpowiedzi) i wychowane na rozszerzonym zbiorze preferencji (zapytań do modelu oraz odpowiedzi ocenianych jako lepsze i odpowiedzi ocenianych jako gorsze).
– Duży nacisk położyliśmy na poprawę sterowalności modelu oraz jego umiejętności wyszukiwania – wyjaśnia prof. Pęzik. – Dzięki temu modele LLama-PLLuM-70B w wersji instruct i chat, a więc po dostrojeniu i wychowaniu, bardzo dobrze radzą sobie w roli generatorów odpowiedzi w systemach RAG-owych.
Co dalej?
Trwają intensywne prace nad powiększeniem zbioru tekstów, który zespół HIVE AI będzie mógł wykorzystywać do tworzenia modeli na najszerszych licencjach. Efekty tych starań będą widoczne w kolejnych odsłonach modeli PLLuM.
_________________________________________________________________________________________
Modele PLLuM-250801 powstały w ramach prac konsorcjum HIVE AI w składzie: NASK – Państwowy Instytut Badawczy (lider konsorcjum), Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie, Centralny Ośrodek Informatyki, Instytut Podstaw Informatyki Polskiej Akademii Nauk, Instytut Slawistyki Polskiej Akademii Nauk, Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy, Politechnika Wrocławska, Uniwersytet Łódzki. Proces treningu został przeprowadzony z wykorzystaniem zaawansowanej infrastruktury obliczeniowej, w tym superkomputerów Bem2 udostępnionego przez Wrocławskie Centrum Superkomputerowo-Sieciowe oraz Helios udostępnionego przez Akademickie Centrum Komputerowe CYFRONET AGH.
Wyróżnione aktualności
Fakty, nie mity. NASK i UMB wspólnie przeciw dezinformacji medycznej
NASK podpisuje kolejne porozumienie przeciwko dezinformacji medycznej i mówi stanowcze „nie” fake-newsom na temat zdrowia. Po Warszawskim Uniwersytecie Medycznym, czas na Uniwersytet Medyczny w Białymstoku.
Szkoły coraz bliżej technologicznej rewolucji. Znamy oferty na szkolne laboratoria przyszłości!
Edukacyjna rewolucja nabiera tempa. Tysiące szkół w całej Polsce już wkrótce zyskają nowoczesne pracownie, w których uczniowie będą mogli rozwijać cyfrowe umiejętności i poznawać technologie przyszłości. 30 października w NASK otwarto oferty firm, które chcą wyposażyć szkoły w laboratoria sztucznej inteligencji i STEM – miejsca, gdzie nauka spotka się z technologią.
Zostań internetowym detektywem i sprawdź się w zawodach OSINT CTF
Internetowe śledztwa, szukanie tropów i łączenie kropek – brzmi znajomo? Jeśli lubisz rozwiązywać zagadki ukryte w labiryncie danych, zawody OSINT CTF NASK 2025 to miejsce, w którym poczujesz się jak w domu. Właśnie rusza rejestracja uczestników.
Kongres OSE 2025 – zarejestruj się!
Jak promować język szacunku w cyfrowym świecie? W jaki sposób budować w szkole przestrzeń dla dialogu i różnicy zdań? Na te i inne pytania odpowiedzą eksperci podczas Kongresu OSE, który jest organizowany przez NASK. Wydarzenie odbędzie się 2 grudnia. Właśnie ruszyła rejestracja uczestników. Na zgłoszenia czekamy do 24 listopada.
Najnowsze aktualności
Oni są przyszłością. Finał Konkursu Młodych Mistrzów
Jak niepostrzeżenie wytropić niewidzialne rootkity – cyfrowe pasożyty, które chcą przejąć system? Nad tym pochyliła się Daria Pietraszko, laureatka nagrody NASK w Konkursie Młodych Mistrzów. W tym roku jury poszukiwało w pracach studentów i doktorantów przełomowych idei dla cyfrowej modernizacji Polski.
Tropy odnalezione, zagadki rozwiązane. Znamy zwycięzców OSINT CTF NASK
Siatka kont szerzących dezinformację została rozpracowana, zleceniodawca przekazany odpowiednim służbom, a kryzys dyplomatyczny zażegnany. Dwudniowe internetowe śledztwo dobiegło końca. Teraz wszystko jest już jasne – znamy zwycięzców pierwszych w administracji publicznej zawodów z zakresu wywiadu jawnoźródłowego.
Dzień bez Zakupów. Chwila przerwy od szaleństwa konsumpcji
Dzień bez Zakupów obchodzimy co roku tuż po Black Friday, który nie trwa przecież jeden dzień, a całe tygodnie. Chichot losu, bo akurat po rozpoczynającym się w piątek szaleństwie zakupowym, powinniśmy... powstrzymać się od kupowania już następnego dnia. Warto to jednak zrobić, zwłaszcza, że nadmierny konsumpcjonizm ma dwie wielkie wady – szkodzi planecie i jest świetną okazją dla oszustów.







