Ograniczenia i pułapki
Modele językowe są niezwykle potężne, ale w żadnym wypadku nie są doskonałe. Istnieje wiele ograniczeń i pułapek, których należy być świadomym podczas korzystania z nich.
Długość prompta
Ilość znaków może wpływać na jakość odpowiedzi danego prompta ze względu na ograniczenia modelu językowego. Modele mają określony limit maksymalnej liczby tokenów, które można obsłużyć w jednym żądaniu. Jeśli prompt jest zbyt długi i przekracza ten limit, może zostać automatycznie skrócony przez model, co może prowadzić do utraty istotnych informacji lub spowodować, że odpowiedź będzie niekompletna lub niezrozumiała.
TOKEN - jednostka, na którą jest podzielony tekst w modelu językowym.
Podział na tokeny jest ważny w modelach językowych, ponieważ pozwala na operacje na mniejszych jednostkach tekstu, zamiast na całych słowach lub zdaniach. Model uczy się wzorców i zależności między tymi tokenami, co pozwala mu generować odpowiedzi na podstawie podanego prompta lub kontynuować rozpoczęte zdania.
Poniżej można zobaczyć jak liczba znaków przekłada się na tokeny:
Źródła informacji
Modele językowe w większości przypadków nie potrafią dokładnie cytować źródeł. Dzieje się tak dlatego, że nie mają dostępu do Internetu i nie pamiętają dokładnie, skąd pochodzą ich informacje. Często generują źródła, które wyglądają dobrze, ale są niedokładne lub nieprawdziwe.
Warto jednak zauważyć, że rozwiązaniem tego problemu będzie umożliwienie modelom językowym przeszukiwanie sieci, przy czym dalej warto samodzielnie weryfikować jakość cytowanych źródeł.
Bias
Bias oznacza tendencję lub uprzedzenie wprowadzone w algorytmach uczenia maszynowego, które mogą wpływać na decyzje podejmowane przez modele AI.
Na przykład, jeśli w danych treningowych większość osób z pewnej grupy nie otrzymuje kredytów, model może wyrobić sobie uprzedzenie, że osoby z tej grupy rzadziej spełniają warunki kredytowe, nawet jeśli jest to nieprawdziwe. W rezultacie model może podejmować niesprawiedliwe decyzje i odmawiać kredytu niezasłużonym osobom, co prowadzi do dyskryminacji.
Dlatego ważne jest, aby tworząc modele AI, dbać o to, aby dane treningowe były reprezentatywne. Trzeba również regularnie monitorować modele i analizować ich decyzje pod kątem potencjalnego biasu, aby zapewnić, że dobrze spełniają swoje zadania.
Przetrenowanie
Przetrenowanie jest wynikiem nadmiernego dopasowania modelu do danych treningowych, co prowadzi do utraty zdolności do generalizacji. Model "zapamiętuje" dane treningowe zbyt dokładnie, włączając w to nawet nieistotne detale czy szum w danych. Skutkuje to niską skutecznością na nowych danych, które nie zostały użyte w procesie treningu.
Aby to lepiej zrozumieć, wyobraźmy sobie, że trenujemy model do rozpoznawania kotów na podstawie zdjęć. Jeśli mamy tylko kilka zdjęć kotów i używamy bardzo skomplikowanego modelu, istnieje ryzyko, że model zapamięta konkretne cechy tych konkretnych zdjęć, takie jak kształt uszu czy kolory sierści, zamiast rozpoznawać ogólne cechy charakterystyczne dla wszystkich kotów. W rezultacie, gdy podamy nowe zdjęcia kotów, których model nie widział wcześniej, może mieć trudności z poprawnym ich rozpoznaniem.
Halucynacje
Halucynacje w modelu AI odnoszą się do sytuacji, w której model generuje wyniki, które są niewłaściwe, nieprawdziwe lub nierealistyczne. Podobnie jak halucynacje u ludzi, modele AI mogą "wyobrażać sobie" lub "widzieć" rzeczy, które nie istnieją w rzeczywistości.
Halucynacje mogą wynikać z różnych czynników, takich jak:
Brak wystarczającej ilości odpowiednich danych treningowych, co może prowadzić do "wypełniania luk" wiedzą, którą model samodzielnie generuje.
Niewłaściwy dobór parametrów modelu lub algorytmu uczenia, które mogą skłaniać model do generowania nadmiernie kreatywnych, ale nierealistycznych odpowiedzi.
Skomplikowane zależności między danymi, które mogą sprawić, że model znajdzie się w niestabilnym lub nieprzewidywalnym stanie.
Hack prompting
Użytkownicy mogą nakłonić modele językowe do generowania dowolnej zawartości, która nie jest zgodna z tym do czego zostało stworzone AI. Więcej na ten temat można przeczytać tutaj.
Last updated