Jaki jest sens gadatliwości w Kerasie podczas walidacji modelu?
Po raz pierwszy używam modelu LSTM.
Oto mój model:
opt = Adam(0.002)
inp = Input(...)
print(inp)
x = Embedding(....)(inp)
x = LSTM(...)(x)
x = BatchNormalization()(x)
pred = Dense(5,activation='softmax')(x)model = Model(inp,pred)
model.compile(....)idx = np.random.permutation(X_train.shape[0])
model.fit(X_train[idx], y_train[idx], nb_epoch=1, batch_size=128, verbose=1)
Jaki jest pożytek z gadatliwości podczas uczenia modelu?
Nie znaleziono powiązanych wyników
Zaproszony:
Aby odpowiedzieć na pytania, Zaloguj się lub Zarejestruj się
4 odpowiedzi
Anonimowy użytkownik
Potwierdzenie od:
tutaj
https://keras.io/models/model/
.
Ustawiając szczegółowe 0, 1 lub 2, po prostu mówisz, jak chcesz „zobaczyć” postęp w nauce dla każdej epoki.
nic Ci nie pokaże (cicha)
wyświetli animowany pasek postępu, taki jak ten:
https://i.stack.imgur.com/s43II.png
poda po prostu numer epoki w następujący sposób:
https://i.stack.imgur.com/gxbMD.png
Anonimowy użytkownik
Potwierdzenie od:
Verbose = 0 (cisza)
Verbose = 1 (pasek postępu)
Verbose = 2 (jeden wiersz na epokę)
Anonimowy użytkownik
Potwierdzenie od:
- loss : wartość funkcji utraty danych treningowych
- acc : wartość precyzji danych treningowych.
Uwaga: jeśli stosowane są mechanizmy regularyzacji, są one uwzględnione, aby uniknąć nadmiernego dopasowania.jeśli argumenty lub nie są puste, wówczas rejestrowana jest metoda :
- val_loss : wartość funkcji utraty danych testowych
- val_acc : wartość dokładności danych walidacji
Uwaga: mechanizmy regularyzacyjne są wyłączone podczas testów, ponieważ korzystamy ze wszystkich funkcji sieci.Na przykład użycie podczas uczenia modelu pomaga wykryć nadmierne dopasowanie, które ma miejsce, gdy poprawia się, a się pogarsza.
Anonimowy użytkownik
Potwierdzenie od:
verbose = 1, co obejmuje zarówno pasek postępu, jak i jedną linię na epokę
verbose = 0 oznacza ciszę
verbose = 2, jedna linia na epokę, tj. nr epoki/całkowita liczba epok