Zero-Shot Prompting

Zero-Shot Prompting to technika, która polega na tym, że model otrzymuje polecenie wykonania zadania bez konkretnego przykładu jak powinien to zrobić. Kontrastuje to z tradycyjnymi technikami uczenia maszynowego, które wymagają dużej ilości przykładów do nauki.

Na przykład, możesz poprosić model o napisanie eseju na temat czegoś, o czym nigdy wcześniej nie pisał, i model powinien być w stanie wygenerować sensowny tekst.

Wynika to z tego, że modele takie jak chatGPT albo Google Bard, są trenowane na gigantycznych ilościach danych, dzięki czemu są w stanie wykonywać niektóre zadania "od zera". Oto prosty przykład, podobny do tych, które pojawiły się w sekcji dla początkujących.

Prompt

Sklasyfikuj tekst jako neutralny, negatywny lub pozytywny. 

Tekst: Myślę, że wakacje są w porządku.
Sentyment:

Output

Neutralny

Powyższy prompt nie dostarcza żadnych przykładów tekstu wraz z ich klasyfikacją. W przypadku zero-shot prompting, model może generować odpowiedzi na pytania dotyczące nieznanych wcześniej zadań, wykorzystując ogólne informacje, jakie zdobył podczas treningu.

Gdy ta metoda nie działa, zaleca się, aby w treści prompta zawrzeć przykłady, co prowadzi nas do kolejnej techniki, tzw. Few-Shot Prompting, o której więcej w następnym rozdziale.

Last updated