优化器。jl
|
该页面正在翻译中。 |
安装:OptimizationOptimisers。jl
要使用此包,请安装OptimizationOptimisers包:
import Pkg;
Pkg.add("OptimizationOptimisers");
除了优化器提供的优化算法。jl包这个子包还提供了索菲亚优化算法.
优化器列表
脧锚脧赂`优化器。下降,下降`:*具有学习率的经典梯度下降优化器
解决(问题,下降(η))
η 是学习率
默认值:
* η = 0.1
脧锚脧赂`优化器。动量`:*经典梯度下降优化与学习率和动量
求解(问题,动量(η,ρ))
η 是学习率
ρ 是动量
默认值:
* η = 0.01
* ρ = 0.9
脧锚脧赂`优化器。内斯特罗夫`:*梯度下降优化与学习率和Nesterov动量
解决(问题,Nesterov(η,ρ))
η 是学习率
ρ 是涅斯捷罗夫势头
默认值:
* η = 0.01
* ρ = 0.9
脧锚脧赂`优化器。RMSProp`:*RMSProp优化器
solve(问题,RMSProp(η,ρ))
η 是学习率
ρ 是动量
默认值:
* η = 0.001
* ρ = 0.9
脧锚脧赂`优化器。亚当`:*亚当优化器
解决(问题,Adam(η,β::Tuple))
η 是学习率
Β::元组 是矩的衰变吗?
默认值:
* η = 0.001
* β::元组=(0.9,0.999)
脧锚脧赂`优化器。拉达姆`:*修正亚当优化器
solve(problem,RAdam(η,β::Tuple))
η 是学习率
Β::元组 是矩的衰变吗?
默认值:
* η = 0.001
* β::元组=(0.9,0.999)
脧锚脧赂`优化器。奥达姆`:*乐观亚当优化器
solve(problem,OAdam(η,β::Tuple))
η 是学习率
Β::元组 是矩的衰变吗?
默认值:
* η = 0.001
* β::元组=(0.5,0.999)
脧锚脧赂`优化器。亚当克斯`:*AdaMax优化器
解决(问题,AdaMax(η,β::Tuple))
η 是学习率
Β::元组 是矩的衰变吗?
默认值:
* η = 0.001
* β::元组=(0.9,0.999)
脧锚脧赂`优化器。阿达格拉德`:*ADAGrad优化器
解决(问题,ADAGrad(η))
η 是学习率
默认值:
* η = 0.1
脧锚脧赂`优化器。阿德尔塔`:*ADADelta优化器
解决(问题,ADADelta(ρ))
ρ 是梯度衰减因子
默认值:
* ρ = 0.9
脧锚脧赂`优化器。医疗辅助队`:*AMSGrad优化器
solve(problem,AMSGrad(η,β::Tuple))
η 是学习率
Β::元组 是矩的衰变吗?
默认值:
* η = 0.001
* β::元组=(0.9,0.999)
脧锚脧赂`优化器。纳达姆`:*亚当优化器的Nesterov变体
solve(problem,NAdam(η,β::Tuple))
η 是学习率
Β::元组 是矩的衰变吗?
默认值:
* η = 0.001
* β::元组=(0.9,0.999)
脧锚脧赂`优化器。亚当`:*AdamW优化器
solve(problem,AdamW(η,β::Tuple))
η 是学习率
Β::元组 是矩的衰变吗?
衰变 是衰变到权重
默认值:
* η = 0.001
* β::元组=(0.9,0.999)
* 衰变=0
脧锚脧赂`优化器。鹿ADABelief`:*亚当的ADABelief变体
solve(problem,ADABelief(η,β::Tuple))
η 是学习率
Β::元组 是矩的衰变吗?
默认值:
* η = 0.001
* β::元组=(0.9,0.999)