Вы просматриваете старую версию данной страницы. Смотрите текущую версию.

Сравнить с текущим просмотр истории страницы

« Предыдущий Версия 8 Следующий »


Список параметров узла представлен в таблице ниже.

Параметры узла «Нейронная сеть (PyTorch)»

Параметр

Возможные значения и ограничения

Описание

Группа параметров

Название

Ручной ввод
Ограничений на значение нет

Название узла, которое будет отображаться в интерфейсе

Общие параметры

Описание

Ручной ввод
Ограничений на значение нет

Описание узла

Общие параметры

Конфигурация слоев нейросети

Кнопка

Функция активации ReLU

Функция активации CELU

Функция активации Sigmoid

Функция активации Softmax

Линейный слой

Функция активации Logsigmoid

Исключение

Tanh

Общие параметры

Функция потерь

Раскрывающийся список со следующими значениями:

  • MAE
  • MSE
  • Poisson loss
  • Negative log likelihood
  • Cross entropy


Общие параметры

Алгоритм оптимизации

Раскрывающийся список со следующими значениями:

  • SGD
  • Adam (по умолчанию)
  • Adadelta
  • Adamax
  • LBFGS
  • AdamW
  • ASGD
  • Nadam
  • RAdam
  • Rprop
  • RMSPROP


Общие параметры

Скорость обучения

По умолчанию - 0,001


Общие параметры

Количество эпох

По умолчанию - 10


Общие параметры

Размер batch

По умолчанию - 128


Общие параметры

Seed

По умолчанию - 42


Общие параметры

L2 регуляризация

По умолчанию - 0,1


Общие параметры

Доля валидационной выборки

По умолчанию - 0,1


Общие параметры

По умолчанию - 5


Общие параметры


Раскрывающийся список со следующими значениями:

  • rel
  • abs


Общие параметры

По умолчанию - 0,0001


Общие параметры

Beta1

По умолчанию - 0,9



Параметры алгоритма оптимизации

Beta2

По умолчанию - 0,999



Параметры алгоритма оптимизации


Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации Adam.

Epsilon

По умолчанию - 1e-8



Параметры алгоритма оптимизации


Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации Adam.

Использовать алгоритм AMSGrad

Чекбокс




Параметры алгоритма оптимизации


Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации Adam.

Momentum




Параметры алгоритма оптимизации


Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации SGD.

Dampening




Параметры алгоритма оптимизации


Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации SGD.

Момент Нестерова




Параметры алгоритма оптимизации


Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации SGD.

Rho




Параметры алгоритма оптимизации


Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации Adadelta.

Epsilon




Параметры алгоритма оптимизации


Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации Adadelta.








  • Нет меток