Keras model katmanlarının çıktı şekli ne olmalıdır

0

Soru

keras katmanının çıktı şekli hakkında biraz kafam karıştı. Örnek bir keras modeli oluşturdum ve özetini de görüntüledim.

numberOfLSTMcells=1
n_timesteps_in=129
n_features=61
inp =Input(shape=(n_timesteps_in, n_features))
lstm= LSTM(numberOfLSTMcells,return_sequences=True, return_state=False) (inp)
fc=Dense(64,activation='relu',name='hidden_layer')(lstm)
out=Dense(1,activation='sigmoid',name='last_layer')(fc)
model = Model(inputs=inp, outputs=out)

Modelin özeti

Model: "model_1"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
input_3 (InputLayer)         [(None, 129, 61)]         0         
_________________________________________________________________
lstm_2 (LSTM)                (None, 129, 1)            252       
_________________________________________________________________
hidden_layer (Dense)         (None, 129, 64)           128       
_________________________________________________________________
last_layer (Dense)           (None, 129, 1)            65        
=================================================================
Total params: 445
Trainable params: 445
Non-trainable params: 0

Son katın şeklinin ne olması gerektiğini düşünüyorum (None,64,1). Çünkü hidden_layers, last_layer'a girdi olarak giden 64 nörona sahiptir

keras tensorflow
2021-11-23 20:02:29
1

En iyi cevabı

1

Parametreyi ayarladığınızdan beri return_sequences -e doğru True in the LSTM katman, girişinizle aynı sayıda zaman adımına sahip bir dizi ve her zaman aralığı için 1'lik bir çıkış alanı elde edersiniz, dolayısıyla şekil (None, 129, 1). Daha sonra, bir uygulamadan Dense bu tensöre katman, ancak bu katman her zaman bir tensörün son boyutuna uygulanır; bu, sizin durumunuzda 129 değil 1'dir. Bu nedenle çıktıyı alırsınız (None, 129, 64). Daha sonra, tensörünüzün son boyutuna da uygulanan son bir çıkış katmanı kullanırsınız ve bu da şekle sahip çıktı ile sonuçlanır (None, 129, 1). Tensorflow dokümanları da bu davranışı açıklar:

Katmanın girişi 2'den büyük bir sıralamaya sahipse, Dense, girişlerin son ekseni boyunca girişler ile çekirdek arasındaki nokta ürününü ve çekirdeğin 0 eksenini hesaplar (tf kullanarak.tensordot).

Ayarlayabilirsiniz return_sequences -e doğru False 2D çıktıyla çalışmak istiyorsanız (batch_size, features) 3D yerine (batch_size, time_steps, features) veya siz kullanın Flatten katman.

2021-11-24 08:30:26

Diğer dillerde

Bu sayfa diğer dillerde

Русский
..................................................................................................................
Italiano
..................................................................................................................
Polski
..................................................................................................................
Română
..................................................................................................................
한국어
..................................................................................................................
हिन्दी
..................................................................................................................
Français
..................................................................................................................
Česk
..................................................................................................................
Português
..................................................................................................................
ไทย
..................................................................................................................
中文
..................................................................................................................
Español
..................................................................................................................
Slovenský
..................................................................................................................