AnyMath 文档

优化器。jl

该页面正在翻译中。

安装:OptimizationOptimisers。jl

要使用此包,请安装OptimizationOptimisers包:

import Pkg;
Pkg.add("OptimizationOptimisers");

除了优化器提供的优化算法。jl包这个子包还提供了索菲亚优化算法.

优化器列表

脧锚脧赂`优化器。下降,下降`:*具有学习率的经典梯度下降优化器 解决(问题,下降(η)) η 是学习率 默认值: * η = 0.1 脧锚脧赂`优化器。动量`:*经典梯度下降优化与学习率和动量 求解(问题,动量(η,ρ)) η 是学习率 ρ 是动量 默认值: * η = 0.01 * ρ = 0.9 脧锚脧赂`优化器。内斯特罗夫`:*梯度下降优化与学习率和Nesterov动量 解决(问题,Nesterov(η,ρ)) η 是学习率 ρ 是涅斯捷罗夫势头 默认值: * η = 0.01 * ρ = 0.9 脧锚脧赂`优化器。RMSProp`:*RMSProp优化器 solve(问题,RMSProp(η,ρ)) η 是学习率 ρ 是动量 默认值: * η = 0.001 * ρ = 0.9 脧锚脧赂`优化器。亚当`:*亚当优化器 解决(问题,Adam(η,β::Tuple)) η 是学习率 Β::元组 是矩的衰变吗? 默认值: * η = 0.001 * β::元组=(0.9,0.999) 脧锚脧赂`优化器。拉达姆`:*修正亚当优化器 solve(problem,RAdam(η,β::Tuple)) η 是学习率 Β::元组 是矩的衰变吗? 默认值: * η = 0.001 * β::元组=(0.9,0.999) 脧锚脧赂`优化器。奥达姆`:*乐观亚当优化器 solve(problem,OAdam(η,β::Tuple)) η 是学习率 Β::元组 是矩的衰变吗? 默认值: * η = 0.001 * β::元组=(0.5,0.999) 脧锚脧赂`优化器。亚当克斯`:*AdaMax优化器 解决(问题,AdaMax(η,β::Tuple)) η 是学习率 Β::元组 是矩的衰变吗? 默认值: * η = 0.001 * β::元组=(0.9,0.999) 脧锚脧赂`优化器。阿达格拉德`:*ADAGrad优化器 解决(问题,ADAGrad(η)) η 是学习率 默认值: * η = 0.1 脧锚脧赂`优化器。阿德尔塔`:*ADADelta优化器 解决(问题,ADADelta(ρ)) ρ 是梯度衰减因子 默认值: * ρ = 0.9 脧锚脧赂`优化器。医疗辅助队`:*AMSGrad优化器 solve(problem,AMSGrad(η,β::Tuple)) η 是学习率 Β::元组 是矩的衰变吗? 默认值: * η = 0.001 * β::元组=(0.9,0.999) 脧锚脧赂`优化器。纳达姆`:*亚当优化器的Nesterov变体 solve(problem,NAdam(η,β::Tuple)) η 是学习率 Β::元组 是矩的衰变吗? 默认值: * η = 0.001 * β::元组=(0.9,0.999) 脧锚脧赂`优化器。亚当`:*AdamW优化器 solve(problem,AdamW(η,β::Tuple)) η 是学习率 Β::元组 是矩的衰变吗? 衰变 是衰变到权重 默认值: * η = 0.001 * β::元组=(0.9,0.999) * 衰变=0 脧锚脧赂`优化器。鹿ADABelief`:*亚当的ADABelief变体 solve(problem,ADABelief(η,β::Tuple)) η 是学习率 Β::元组 是矩的衰变吗? 默认值: * η = 0.001 * β::元组=(0.9,0.999)