Вы просматриваете старую версию данной страницы. Смотрите текущую версию.

Сравнить с текущим просмотр истории страницы

« Предыдущий Версия 10 Следующий »


Список параметров узла представлен в таблице ниже.

Параметры узла «Нейронная сеть (PyTorch)»

Параметр

Возможные значения и ограничения

Описание

Группа параметров

Название

Ручной ввод
Ограничений на значение нет

Название узла, которое будет отображаться в интерфейсе

Общие параметры

Описание

Ручной ввод
Ограничений на значение нет

Описание узла

Общие параметры

Конфигурация слоев нейросети

Кнопка

Функция активации ReLU

Функция активации CELU

Функция активации Sigmoid

Функция активации Softmax

Линейный слой

Функция активации Logsigmoid

Исключение

Tanh

Общие параметры

Функция потерь

Раскрывающийся список со следующими значениями:

  • MAE
  • MSE
  • Poisson loss
  • Negative log likelihood
  • Cross entropy


Общие параметры

Алгоритм оптимизации

Раскрывающийся список со следующими значениями:

  • SGD
  • Adam (по умолчанию)
  • Adadelta
  • Adamax
  • LBFGS
  • AdamW
  • ASGD
  • Nadam
  • RAdam
  • Rprop
  • RMSPROP


Общие параметры

Скорость обучения

По умолчанию - 0,001


Общие параметры

Количество эпох

По умолчанию - 10


Общие параметры

Размер batch

По умолчанию - 128


Общие параметры

Seed

По умолчанию - 42


Общие параметры

L2 регуляризация

По умолчанию - 0,1


Общие параметры

Доля валидационной выборки

По умолчанию - 0,1


Общие параметры

По умолчанию - 5


Общие параметры


Раскрывающийся список со следующими значениями:

  • rel
  • abs


Общие параметры

По умолчанию - 0,0001


Общие параметры

Beta1

По умолчанию - 0,9



Параметры алгоритма оптимизации

Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации Adam, Adamax, AdamW, Nadam, RAdam.

Beta2

По умолчанию - 0,999



Параметры алгоритма оптимизации


Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации Adam, Adamax, AdamW, Nadam, RAdam.

Epsilon

По умолчанию - 1e-8



Параметры алгоритма оптимизации


Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации Adam, Adamax, AdamW, Nadam, RAdam.

Использовать алгоритм AMSGrad

Чекбокс




Параметры алгоритма оптимизации


Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации Adam.

MomentumПо умолчанию - 0


Параметры алгоритма оптимизации


Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации SGD, RMSPROP.

Dampening

По умолчанию - 0



Параметры алгоритма оптимизации


Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации SGD.

Момент НестероваЧекбокс


Параметры алгоритма оптимизации


Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации SGD.

Rho

По умолчанию - 0,9



Параметры алгоритма оптимизации


Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации Adadelta.

Epsilon

По умоланию - 1e-8



Параметры алгоритма оптимизации


Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации Adadelta, RMSPROP.

Максимум итераций за шаг оптимизации

По умолчанию - 20


Параметры алгоритма оптимизации

Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации LBFGS.

Максимум вычислений за шаг оптимизации

По умолчанию - 1


Параметры алгоритма оптимизации

Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации LBFGS.

Tolerance grad

По умолчанию - 0,00001


Параметры алгоритма оптимизации

Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации LBFGS.

Tolerance change

По умолчанию - 1e-9


Параметры алгоритма оптимизации

Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации LBFGS.

Количество запоминаемых шагов оптимизации

По умолчанию - 100


Параметры алгоритма оптимизации

Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации LBFGS.

Line search

Список:

  • no (по умолчанию)
  • strong wolfe


Параметры алгоритма оптимизации

Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации LBFGS.

Lambda

По умолчанию - 0,0001


Параметры алгоритма оптимизации

Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации ASGD.

Alpha

По умолчанию - 0,75


Параметры алгоритма оптимизации

Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации ASGD.

t0

По умолчанию - 100000


Параметры алгоритма оптимизации

Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации ASGD.

TORCH_OPTIMIZER_MOMENTUM_DECAY



По умолчанию - 0,004


Параметры алгоритма оптимизации

Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации Nadam.

По умолчанию - 0,5


Параметры алгоритма оптимизации

Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации Rprop.

eta plus

По умолчанию - 1,2


Параметры алгоритма оптимизации

Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации Rprop.

Минимальный размер шага

По умолчанию - 0,000001


Параметры алгоритма оптимизации

Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации Rprop.

Максимальный размер шага

По умолчанию - 50


Параметры алгоритма оптимизации

Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации Rprop.

Alpha

По умолчанию - 0,99


Параметры алгоритма оптимизации

Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации RMSPROP.

Центрировать

Кнопка


Параметры алгоритма оптимизации

Примечание

Данный параметр можно задать только в случае выбранного Алгоритма оптимизации RMSPROP.




  • Нет меток