多保真门面
smac.facade.multi_fidelity_facade #
MultiFidelityFacade #
MultiFidelityFacade(
scenario: Scenario,
target_function: Callable | str | AbstractRunner,
*,
model: AbstractModel | None = None,
acquisition_function: AbstractAcquisitionFunction
| None = None,
acquisition_maximizer: AbstractAcquisitionMaximizer
| None = None,
initial_design: AbstractInitialDesign | None = None,
random_design: AbstractRandomDesign | None = None,
intensifier: AbstractIntensifier | None = None,
multi_objective_algorithm: AbstractMultiObjectiveAlgorithm
| None = None,
runhistory_encoder: AbstractRunHistoryEncoder
| None = None,
config_selector: ConfigSelector | None = None,
logging_level: int
| Path
| Literal[False]
| None = None,
callbacks: list[Callback] = None,
overwrite: bool = False,
dask_client: Client | None = None
)
基类: HyperparameterOptimizationFacade
这个门面在多保真设置中配置SMAC。
警告
smac.main.config_selector.ConfigSelector
包含 min_trials
参数。此参数确定训练代理模型所需的样本数量。如果涉及预算,会首先检查最高预算。例如,如果 min_trials
是三,但在运行历史中只找到最高预算的两个试验,我们将使用较低预算的试验来代替。
源代码在 smac/facade/abstract_facade.py
中
105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 |
|
get_acquisition_function 静态方法
#
返回一个预期改进采集函数。
#参数
scenario : Scenario xi : float, 默认为 0.0 控制采集函数的探索与利用之间的平衡。
源代码在 smac/facade/hyperparameter_optimization_facade.py
中
get_acquisition_maximizer 静态方法
#
get_acquisition_maximizer(
scenario: Scenario,
*,
challengers: int = 10000,
local_search_iterations: int = 10
) -> LocalAndSortedRandomSearch
返回局部搜索和排序随机搜索作为采集最大化器。
#警告
如果遇到内存问题,请尝试减少挑战者数量。
#参数
challengers : int, 默认为 10000 挑战者数量。 local_search_iterations: int, 默认为 10 局部搜索迭代次数。
源代码在 smac/facade/hyperparameter_optimization_facade.py
中
get_config_selector 静态方法
#
get_config_selector(
scenario: Scenario,
*,
retrain_after: int = 8,
retries: int = 16
) -> ConfigSelector
返回默认配置选择器。
源代码在 smac/facade/abstract_facade.py
中
get_initial_design 静态方法
#
get_initial_design(
scenario: Scenario,
*,
n_configs: int | None = None,
n_configs_per_hyperparamter: int = 10,
max_ratio: float = 0.25,
additional_configs: list[Configuration] = None
) -> RandomInitialDesign
返回一个随机初始设计。
#参数
scenario : Scenario n_configs : int | None, 默认为 None 初始配置数量(禁用参数 n_configs_per_hyperparameter
)。 n_configs_per_hyperparameter: int, 默认为 10 每个超参数的初始配置数量。例如,如果我的配置空间包含五个超参数,并且 n_configs_per_hyperparameter
设置为 10,则将采样 50 个初始配置。 max_ratio: float, 默认为 0.25 初始设计中最多使用 scenario.n_trials
* max_ratio
数量的配置。附加配置不受此参数影响。 additional_configs: list[Configuration], 默认为 [] 向初始设计添加附加配置。
源代码在 smac/facade/multi_fidelity_facade.py
中
get_intensifier 静态方法
#
get_intensifier(
scenario: Scenario,
*,
eta: int = 3,
n_seeds: int = 1,
instance_seed_order: str | None = "shuffle_once",
max_incumbents: int = 10,
incumbent_selection: str = "highest_observed_budget"
) -> Hyperband
返回一个支持预算的 Hyperband 强化器实例。
int, 默认为 3
控制逐次减半每一轮中丢弃配置比例的输入。
n_seeds : int, 默认为 1 每个实例使用的种子数量。 instance_seed_order : str, 默认为 "shuffle_once" 如何排序实例-种子对。可以设置为: * None:完全不打乱,使用用户提供的实例-种子顺序。 * "shuffle_once":一次打乱实例-种子键,并在所有运行中使用相同的顺序。 * "shuffle":为每个括号单独打乱实例-种子键。 incumbent_selection : str, 默认为 "any_budget" 使用预算时如何选择最优配置。可以设置为: * "any_budget":最优配置是在任何预算下表现最好的,即无论预算如何,都是最佳性能。 * "highest_observed_budget":最优配置是迄今为止在最高预算运行中表现最好的。更多详细信息请参阅 runhistory.get_trials
。关键的是,如果为 true,则对于给定的配置-实例-种子,仅使用最高(迄今为止已执行的)预算来与最优配置进行比较。请注意,如果观察到的最高预算小于最优配置的最高预算,该配置将再次排队进行强化。 * "highest_budget":仅基于可用的绝对最高预算来选择最优配置。 max_incumbents : int, 默认为 10 在多目标情况下跟踪的最优配置数量。
源代码在 smac/facade/multi_fidelity_facade.py
中
get_model 静态方法
#
get_model(
scenario: Scenario,
*,
n_trees: int = 10,
ratio_features: float = 1.0,
min_samples_split: int = 2,
min_samples_leaf: int = 1,
max_depth: int = 2**20,
bootstrapping: bool = True
) -> RandomForest
返回一个随机森林作为代理模型。
#参数
n_trees : int, 默认为 10 随机森林中的树数量。 ratio_features : float, 默认为 5.0 / 6.0 考虑用于分割的特征比例。 min_samples_split : int, 默认为 3 进行分割所需的最少数据点数量。 min_samples_leaf : int, 默认为 3 叶节点所需的最少数据点数量。 max_depth : int, 默认为 20 单棵树的最大深度。 bootstrapping : bool, 默认为 True 启用自助法。
源代码在 smac/facade/hyperparameter_optimization_facade.py
中
get_multi_objective_algorithm 静态方法
#
get_multi_objective_algorithm(
scenario: Scenario,
*,
objective_weights: list[float] | None = None
) -> MeanAggregationStrategy
返回多目标算法的均值聚合策略。
#参数
scenario : Scenario objective_weights : list[float] | None, 默认为 None 用于加权平均目标的权重。必须与目标数量长度相同。
源代码在 smac/facade/hyperparameter_optimization_facade.py
中
get_random_design 静态方法
#
get_random_design(
scenario: Scenario, *, probability: float = 0.2
) -> ProbabilityRandomDesign
返回用于交错配置的 ProbabilityRandomDesign
。
#参数
probability : float, 默认为 0.2 随机抽取配置的概率。
源代码在 smac/facade/hyperparameter_optimization_facade.py
中
get_runhistory_encoder 静态方法
#
get_runhistory_encoder(
scenario: Scenario,
) -> RunHistoryLogScaledEncoder
返回一个对数缩放的运行历史编码器。这意味着在训练代理模型之前,成本会进行对数缩放。
源代码在 smac/facade/hyperparameter_optimization_facade.py
中
optimize #
优化算法的配置。
#参数
data_to_scatter: dict[str, Any] | None 我们首先注意到,此参数仅适用于 dask_runner!当用户将数据从其本地进程分散到分布式网络时,这些数据会根据核心数量进行分组并以轮询方式分发。粗略地说,我们可以将这些数据保存在内存中,这样每次想要使用大数据集执行目标函数时,就不必序列化/反序列化数据。例如,当您的目标函数有一个跨所有目标函数共享的大数据集时,此参数非常有用。
#返回值
incumbent : Configuration 找到的最佳配置。
源代码在 smac/facade/abstract_facade.py
中
tell #
tell(
info: TrialInfo, value: TrialValue, save: bool = True
) -> None
将试验结果添加到运行历史并更新强化器。
#参数
info: TrialInfo 描述要处理结果的试验。 value: TrialValue 包含有关试验执行的相关信息。 save : bool, optional 默认为 True 是否应保存运行历史。
源代码在 smac/facade/abstract_facade.py
中
validate #
在与优化过程中使用的种子不同以及最高预算(如果预算类型为实数值)的种子上验证配置。
#参数
config : Configuration 要验证的配置 instances : list[str] | None, 默认为 None 要验证的实例。如果为 None,则使用场景中指定的所有实例。如果预算类型为实数值,则忽略此参数。 seed : int | None, 默认为 None 如果为 None,则使用场景中的种子。
#返回值
cost : float | list[float] 配置的平均成本。在多保真情况下,每个目标的成本都会被平均。