Few-Shot Prompting
Few-shot Prompting to technika, w której model otrzymuje niewielką liczbę przykładów, zwykle od dwóch do pięciu, w celu szybkiego nauczenia się tego jak wykonać zadanie, do którego wcześniej nie był trenowany. To duże ułatwienie, ponieważ w przypadku tradycyjnego uczenia maszynowego, model musi być ćwiczony na dużych zestawach danych, aby osiągnąć wysoką skuteczność.
Oto przykład pokazujący jak niewiele danych wejściowych wystarczy, aby uzyskać efekt:
Prompt
Output
Jak widać na powyższym przykładzie wystarczyły 2-3 przykłady, aby model nauczył się wzorca. Przy bardziej skomplikowanych zadaniach warto eksperymentować z większą liczbą przykładów.
Co ciekawe, model jest w stanie dobrze wykonać zadanie nawet jeśli dostarczone przez nas dane nie będą prawidłowe. Poniżej przykład dla lepszego zrozumienia:
Prompt
Output
Mimo że pierwsze dwa przykłady są błędne, model nadal daje poprawną odpowiedź. To jest możliwe, ponieważ modele takie ChatGPT lub Google Bard, są wcześniej trenowane na bardzo dużej ilości danych, które obejmują ogromną różnorodność kontekstów i sytuacji. Dzięki temu mogą wykonywać zadania korzystając z wiedzy, którą nabyły wcześniej.
Warto jednak zauważyć, jak dużą wagę w rozumieniu prompta może mieć jedno słowo. W poniższym przykładzie zmieniłem etykietę dla "Wow, ten film był super" na "Negatywny".
Prompt
Output
Dlaczego tym razem wynik był inny niż poprzednio? Gdy model językowy dostaje zestaw instrukcji, stara się zrozumieć wiodący wzór lub strukturę i na tej podstawie generuje odpowiedź. W tym przypadku, zauważa, że pozytywne i negatywne etykiety są przypisywane w sposób, który może wydawać się nieintuicyjny dla człowieka, ale jest konsekwentny w ramach podanych instrukcji.
Last updated
Was this helpful?