bug fix in SLUHandsOn_Solution4; updated pre-trained models for this tutorial

This commit is contained in:
Frank Seide 2016-09-15 20:56:46 -07:00
Родитель 92f49753d7
Коммит ec0adbe79b
6 изменённых файлов: 12 добавлений и 11 удалений

Просмотреть файл

@ -23,7 +23,7 @@ TrainTagger = {
model = Sequential (
EmbeddingLayer {embDim} : # embedding
RecurrentLSTMLayer {hiddenDim, goBackwards=false} : # LSTM
DenseLayer {labelDim, init='uniform', initValueScale=7} # output layer
DenseLayer {labelDim} # output layer
)
# features

Просмотреть файл

@ -30,7 +30,7 @@ TrainTagger = {
BatchNormalizationLayer {} :
BiRecurrentLSTMLayer {hiddenDim} :
BatchNormalizationLayer {} :
DenseLayer {intentDim}
DenseLayer {intentDim} ##### different dimension
)
# features
@ -55,7 +55,7 @@ TrainTagger = {
SGD = {
maxEpochs = 8 ; epochSize = 36000
minibatchSize = 800
minibatchSize = 70
learningRatesPerSample = 0.003*2:0.0015*12:0.0003
gradUpdateType = "fsAdaGrad"
@ -68,12 +68,13 @@ TrainTagger = {
distributedMBReading = true
dataParallelSGD = { gradientBits = 2 }
}
AutoAdjust = {
autoAdjustMinibatch = true # enable automatic growing of minibatch size
minibatchSizeTuningFrequency = 10 # try to enlarge after this many epochs
numMiniBatch4LRSearch = 200
minibatchSizeTuningMax = 15000 # out of memory above this
}
# for larger configurations, use this:
#AutoAdjust = {
# autoAdjustMinibatch = true # enable automatic growing of minibatch size
# minibatchSizeTuningFrequency = 10 # try to enlarge after this many epochs
# numMiniBatch4LRSearch = 200
# minibatchSizeTuningMax = 15000 # out of memory above this
#}
}
reader = {

Двоичные данные
Tutorials/SLUHandsOn/slu.forward.backward.cmf

Двоичный файл не отображается.

Двоичные данные
Tutorials/SLUHandsOn/slu.forward.cmf

Двоичный файл не отображается.

Двоичные данные
Tutorials/SLUHandsOn/slu.forward.lookahead.cmf

Двоичный файл не отображается.

Двоичные данные
Tutorials/SLUHandsOn/slu.forward.nobn.cmf

Двоичный файл не отображается.