AnyMath 文档

优化器。jl

该页面正在翻译中。

安装:OptimizationOptimisers。jl

要使用此包,请安装OptimizationOptimisers包:

import Pkg;
Pkg.add("OptimizationOptimisers");

除了优化器提供的优化算法。jl包这个子包还提供了索菲亚优化算法.

优化器列表

*脧锚脧赂`优化器。下降,下降`:*具有学习率的经典梯度下降优化器* ** 解决(问题,下降(η)) ** η 是学习率 **默认值: *** η = 0.1 *脧锚脧赂`优化器。动量`:*经典梯度下降优化与学习率和动量* ** 求解(问题,动量(η,ρ)) ** η 是学习率 ** ρ 是动量 **默认值: *** η = 0.01 *** ρ = 0.9 *脧锚脧赂`优化器。内斯特罗夫`:*梯度下降优化与学习率和Nesterov动量* ** 解决(问题,Nesterov(η,ρ)) ** η 是学习率 ** ρ 是涅斯捷罗夫势头 **默认值: *** η = 0.01 *** ρ = 0.9 *脧锚脧赂`优化器。RMSProp`:*RMSProp优化器* ** solve(问题,RMSProp(η,ρ)) ** η 是学习率 ** ρ 是动量 **默认值: *** η = 0.001 *** ρ = 0.9 *脧锚脧赂`优化器。亚当`:*亚当优化器* ** 解决(问题,Adam(η,β::Tuple)) ** η 是学习率 ** Β::元组 是矩的衰变吗? **默认值: *** η = 0.001 *** β::元组=(0.9,0.999) *脧锚脧赂`优化器。拉达姆`:*修正亚当优化器* ** solve(problem,RAdam(η,β::Tuple)) ** η 是学习率 ** Β::元组 是矩的衰变吗? **默认值: *** η = 0.001 *** β::元组=(0.9,0.999) *脧锚脧赂`优化器。奥达姆`:*乐观亚当优化器* ** solve(problem,OAdam(η,β::Tuple)) ** η 是学习率 ** Β::元组 是矩的衰变吗? **默认值: *** η = 0.001 *** β::元组=(0.5,0.999) *脧锚脧赂`优化器。亚当克斯`:*AdaMax优化器* ** 解决(问题,AdaMax(η,β::Tuple)) ** η 是学习率 ** Β::元组 是矩的衰变吗? **默认值: *** η = 0.001 *** β::元组=(0.9,0.999) *脧锚脧赂`优化器。阿达格拉德`:*ADAGrad优化器* ** 解决(问题,ADAGrad(η)) ** η 是学习率 **默认值: *** η = 0.1 *脧锚脧赂`优化器。阿德尔塔`:*ADADelta优化器* ** 解决(问题,ADADelta(ρ)) ** ρ 是梯度衰减因子 **默认值: *** ρ = 0.9 *脧锚脧赂`优化器。医疗辅助队`:*AMSGrad优化器* ** solve(problem,AMSGrad(η,β::Tuple)) ** η 是学习率 ** Β::元组 是矩的衰变吗? **默认值: *** η = 0.001 *** β::元组=(0.9,0.999) *脧锚脧赂`优化器。纳达姆`:*亚当优化器的Nesterov变体* ** solve(problem,NAdam(η,β::Tuple)) ** η 是学习率 ** Β::元组 是矩的衰变吗? **默认值: *** η = 0.001 *** β::元组=(0.9,0.999) *脧锚脧赂`优化器。亚当`:*AdamW优化器* ** solve(problem,AdamW(η,β::Tuple)) ** η 是学习率 ** Β::元组 是矩的衰变吗? ** 衰变 是衰变到权重 **默认值: *** η = 0.001 *** β::元组=(0.9,0.999) *** 衰变=0 *脧锚脧赂`优化器。鹿ADABelief`:*亚当的ADABelief变体* ** solve(problem,ADABelief(η,β::Tuple)) ** η 是学习率 ** Β::元组 是矩的衰变吗? **默认值: *** η = 0.001 *** β::元组=(0.9,0.999)