成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

在 Python 中從頭開始迭代本地搜索

開發(fā) 后端
迭代局部搜索是一種隨機(jī)全局優(yōu)化算法。它涉及將本地搜索算法重復(fù)應(yīng)用于先前找到的好的解決方案的修改版本。這樣,它就像是具有隨機(jī)重啟算法的隨機(jī)爬山的巧妙版本。

 [[403805]]

本文轉(zhuǎn)載自微信公眾號「Python中文社區(qū)」,作者沂水寒城。轉(zhuǎn)載本文請聯(lián)系Python中文社區(qū)公眾號。

迭代局部搜索是一種隨機(jī)全局優(yōu)化算法。它涉及將本地搜索算法重復(fù)應(yīng)用于先前找到的好的解決方案的修改版本。這樣,它就像是具有隨機(jī)重啟算法的隨機(jī)爬山的巧妙版本。

該算法背后的直覺是,隨機(jī)重新啟動可以幫助找到問題中的許多局部最優(yōu)值,并且更好的局部最優(yōu)值通常接近于其他局部最優(yōu)值。因此,對現(xiàn)有局部最優(yōu)值的適度擾動可能會為優(yōu)化問題找到更好甚至最好的解決方案。

在本教程中,您將發(fā)現(xiàn)如何從頭開始實現(xiàn)迭代的本地搜索算法。完成本教程后,您將知道:

  • 迭代本地搜索是一種隨機(jī)全局搜索優(yōu)化算法,它是具有隨機(jī)重啟功能的隨機(jī)爬山的更智能版本。
  • 如何從頭開始隨機(jī)重啟隨機(jī)爬山。
  • 如何實現(xiàn)并將迭代的局部搜索算法應(yīng)用于非線性目標(biāo)函數(shù)。

教程概述

本教程分為五個部分。他們是:

  • 什么是迭代本地搜索
  • 客觀目標(biāo)函數(shù)
  • 隨機(jī)爬山算法
  • 隨機(jī)重新開始的隨機(jī)爬山
  • 迭代局部搜索算法

什么是迭代本地搜索

迭代本地搜索(簡稱ILS)是一種隨機(jī)的全局搜索優(yōu)化算法。它與隨機(jī)爬山和隨機(jī)爬山隨機(jī)開始有關(guān)。

隨機(jī)爬山是一種本地搜索算法,它涉及對現(xiàn)有解決方案進(jìn)行隨機(jī)修改,并且僅當(dāng)修改產(chǎn)生比當(dāng)前工作解決方案更好的結(jié)果時,才接受修改。

通常,本地搜索算法會陷入本地最優(yōu)狀態(tài)。解決此問題的一種方法是從新的隨機(jī)選擇的起點重新開始搜索。重新啟動過程可以執(zhí)行多次,也可以在固定數(shù)量的功能評估之后觸發(fā),或者在給定數(shù)量的算法迭代中看不到進(jìn)一步的改善時,可以觸發(fā)重新啟動過程。該算法稱為隨機(jī)重新啟動的隨機(jī)爬山。

迭代的本地搜索類似于具有隨機(jī)重啟的隨機(jī)爬坡,除了不是為每次重啟選擇隨機(jī)的起點,而是根據(jù)迄今為止在更廣泛的搜索中找到的最佳點的修改版本來選擇一個點。到目前為止,最佳解決方案的擾動就像是搜索空間中向新區(qū)域的大幅躍遷,而隨機(jī)爬山算法產(chǎn)生的擾動要小得多,僅限于搜索空間的特定區(qū)域。這允許在兩個級別上執(zhí)行搜索。爬山算法是一種本地搜索,用于從特定的候選解決方案或搜索空間區(qū)域中獲取最大收益,并且重新啟動方法允許探索搜索空間的不同區(qū)域。這樣,迭代局部搜索算法可在搜索空間中探索多個局部最優(yōu),從而增加了定位全局最優(yōu)的可能性。盡管可以通過在搜索空間中使用不同的步長將其應(yīng)用于連續(xù)功能優(yōu)化,但迭代局部搜索是針對組合優(yōu)化問題(如旅行推銷員問題(TSP))提出的:爬坡的步幅較小,爬坡的步幅較大隨機(jī)重啟。既然我們熟悉了迭代本地搜索算法,那么讓我們探索如何從頭開始實現(xiàn)該算法。

客觀目標(biāo)函數(shù)

首先,讓我們定義一個渠道優(yōu)化問題,作為實現(xiàn)“迭代本地搜索”算法的基礎(chǔ)。Ackley函數(shù)是多模式目標(biāo)函數(shù)的一個示例,該函數(shù)具有單個全局最優(yōu)值和多個局部最優(yōu)值,可能會卡住局部搜索。因此,需要全局優(yōu)化技術(shù)。這是一個二維目標(biāo)函數(shù),其全局最佳值為[0,0],其值為0.0。下面的示例實現(xiàn)了Ackley,并創(chuàng)建了一個三維表面圖,顯示了全局最優(yōu)值和多個局部最優(yōu)值。

  1. # ackley multimodal function 
  2. from numpy import arange 
  3. from numpy import exp 
  4. from numpy import sqrt 
  5. from numpy import cos 
  6. from numpy import e 
  7. from numpy import pi 
  8. from numpy import meshgrid 
  9. from matplotlib import pyplot 
  10. from mpl_toolkits.mplot3d import Axes3D 
  11.   
  12. # objective function 
  13. def objective(x, y): 
  14.  return -20.0 * exp(-0.2 * sqrt(0.5 * (x**2 + y**2))) - exp(0.5 * (cos(2 * pi * x) + cos(2 * pi * y))) + e + 20 
  15.   
  16. # define range for input 
  17. r_min, r_max = -5.0, 5.0 
  18. # sample input range uniformly at 0.1 increments 
  19. xaxis = arange(r_min, r_max, 0.1) 
  20. yaxis = arange(r_min, r_max, 0.1) 
  21. create a mesh from the axis 
  22. x, y = meshgrid(xaxis, yaxis) 
  23. # compute targets 
  24. results = objective(x, y) 
  25. create a surface plot with the jet color scheme 
  26. figure = pyplot.figure() 
  27. axis = figure.gca(projection='3d'
  28. axis.plot_surface(x, y, results, cmap='jet'
  29. # show the plot 
  30. pyplot.show() 

運行示例將創(chuàng)建Ackley函數(shù)的表面圖,以顯示大量的局部最優(yōu)值。

我們將以此為基礎(chǔ)來實現(xiàn)和比較簡單的隨機(jī)爬山算法,隨機(jī)重啟的隨機(jī)爬山算法以及最終迭代的本地搜索。我們希望隨機(jī)爬山算法容易陷入局部極小值。我們希望隨機(jī)爬山并重新啟動可以找到許多本地最小值,并且如果配置得當(dāng),我們希望迭代本地搜索比任何一種方法在此問題上的執(zhí)行效果都更好。

隨機(jī)爬山算法

迭代本地搜索算法的核心是本地搜索,在本教程中,我們將為此目的使用隨機(jī)爬山算法。隨機(jī)爬山算法涉及到首先生成一個隨機(jī)的起點和當(dāng)前的工作解決方案,然后生成當(dāng)前工作解決方案的擾動版本,如果它們優(yōu)于當(dāng)前的工作解決方案,則接受它們。假設(shè)我們正在研究連續(xù)優(yōu)化問題,則解決方案是目標(biāo)函數(shù)要評估的值的向量,在這種情況下,該向量是二維空間中以-5和5為邊界的點。我們可以通過以均勻的概率分布對搜索空間進(jìn)行采樣來生成隨機(jī)點。例如:

  1. # generate a random point in the search space 
  2. solution = bounds[:, 0] + rand(len(bounds)) * (bounds[:, 1] - bounds[:, 0]) 

我們可以使用高斯概率分布,當(dāng)前解決方案中當(dāng)前值的平均值以及由超參數(shù)控制的標(biāo)準(zhǔn)偏差來生成當(dāng)前正在工作的解決方案的擾動版本,該超參數(shù)控制允許搜索從當(dāng)前工作解決方案進(jìn)行多遠(yuǎn)的探索。

我們將此超參數(shù)稱為“ step_size”,例如:

  1. # generate a perturbed version of a current working solution 
  2. candidate = solution + randn(len(bounds)) * step_size 

重要的是,我們必須檢查生成的解決方案是否在搜索空間內(nèi)。

這可以通過一個名為in_bounds()的自定義函數(shù)來實現(xiàn),該函數(shù)采用候選解和搜索空間的邊界,如果該點位于搜索空間中,則返回True,否則返回False。

  1. check if a point is within the bounds of the search 
  2. def in_bounds(point, bounds): 
  3.  # enumerate all dimensions of the point 
  4.  for d in range(len(bounds)): 
  5.   # check if out of bounds for this dimension 
  6.   if point[d] < bounds[d, 0] or point[d] > bounds[d, 1]: 
  7.    return False 
  8.  return True 

然后可以在爬坡期間調(diào)用此函數(shù),以確認(rèn)新點在搜索空間的邊界內(nèi),如果沒有,則可以生成新點。

結(jié)合在一起,下面的函數(shù)hillclimbing()實現(xiàn)了隨機(jī)爬山局部搜索算法。它以目標(biāo)函數(shù)的名稱,問題的范圍,迭代次數(shù)和步長為參數(shù),并返回最佳解決方案及其評估。

  1. # hill climbing local search algorithm 
  2. def hillclimbing(objective, bounds, n_iterations, step_size): 
  3.  # generate an initial point 
  4.  solution = None 
  5.  while solution is None or not in_bounds(solution, bounds): 
  6.   solution = bounds[:, 0] + rand(len(bounds)) * (bounds[:, 1] - bounds[:, 0]) 
  7.  # evaluate the initial point 
  8.  solution_eval = objective(solution) 
  9.  # run the hill climb 
  10.  for i in range(n_iterations): 
  11.   # take a step 
  12.   candidate = None 
  13.   while candidate is None or not in_bounds(candidate, bounds): 
  14.    candidate = solution + randn(len(bounds)) * step_size 
  15.   # evaluate candidate point 
  16.   candidte_eval = objective(candidate) 
  17.   # check if we should keep the new point 
  18.   if candidte_eval <= solution_eval: 
  19.    # store the new point 
  20.    solution, solution_eval = candidate, candidte_eval 
  21.    # report progress 
  22.    print('>%d f(%s) = %.5f' % (i, solution, solution_eval)) 
  23.  return [solution, solution_eval] 

我們可以在Ackley函數(shù)上測試該算法。

我們將為偽隨機(jī)數(shù)生成器固定種子,以確保每次運行代碼時都得到相同的結(jié)果。

該算法將運行1,000次迭代,步長為0.05個單位。經(jīng)過一些反復(fù)試驗后,才選擇了這兩個超參數(shù)。

運行結(jié)束時,我們將報告找到的最佳解決方案。

  1. # seed the pseudorandom number generator 
  2. seed(1) 
  3. # define range for input 
  4. bounds = asarray([[-5.0, 5.0], [-5.0, 5.0]]) 
  5. # define the total iterations 
  6. n_iterations = 1000 
  7. # define the maximum step size 
  8. step_size = 0.05 
  9. # perform the hill climbing search 
  10. best, score = hillclimbing(objective, bounds, n_iterations, step_size) 
  11. print('Done!'
  12. print('f(%s) = %f' % (best, score)) 

結(jié)合在一起,下面列出了將隨機(jī)爬山算法應(yīng)用于Ackley目標(biāo)函數(shù)的完整示例。

  1. # hill climbing search of the ackley objective function 
  2. from numpy import asarray 
  3. from numpy import exp 
  4. from numpy import sqrt 
  5. from numpy import cos 
  6. from numpy import e 
  7. from numpy import pi 
  8. from numpy.random import randn 
  9. from numpy.random import rand 
  10. from numpy.random import seed 
  11.   
  12. # objective function 
  13. def objective(v): 
  14.  x, y = v 
  15.  return -20.0 * exp(-0.2 * sqrt(0.5 * (x**2 + y**2))) - exp(0.5 * (cos(2 * pi * x) + cos(2 * pi * y))) + e + 20 
  16.   
  17. check if a point is within the bounds of the search 
  18. def in_bounds(point, bounds): 
  19.  # enumerate all dimensions of the point 
  20.  for d in range(len(bounds)): 
  21.   # check if out of bounds for this dimension 
  22.   if point[d] < bounds[d, 0] or point[d] > bounds[d, 1]: 
  23.    return False 
  24.  return True 
  25.   
  26. # hill climbing local search algorithm 
  27. def hillclimbing(objective, bounds, n_iterations, step_size): 
  28.  # generate an initial point 
  29.  solution = None 
  30.  while solution is None or not in_bounds(solution, bounds): 
  31.   solution = bounds[:, 0] + rand(len(bounds)) * (bounds[:, 1] - bounds[:, 0]) 
  32.  # evaluate the initial point 
  33.  solution_eval = objective(solution) 
  34.  # run the hill climb 
  35.  for i in range(n_iterations): 
  36.   # take a step 
  37.   candidate = None 
  38.   while candidate is None or not in_bounds(candidate, bounds): 
  39.    candidate = solution + randn(len(bounds)) * step_size 
  40.   # evaluate candidate point 
  41.   candidte_eval = objective(candidate) 
  42.   # check if we should keep the new point 
  43.   if candidte_eval <= solution_eval: 
  44.    # store the new point 
  45.    solution, solution_eval = candidate, candidte_eval 
  46.    # report progress 
  47.    print('>%d f(%s) = %.5f' % (i, solution, solution_eval)) 
  48.  return [solution, solution_eval] 
  49.   
  50. # seed the pseudorandom number generator 
  51. seed(1) 
  52. # define range for input 
  53. bounds = asarray([[-5.0, 5.0], [-5.0, 5.0]]) 
  54. # define the total iterations 
  55. n_iterations = 1000 
  56. # define the maximum step size 
  57. step_size = 0.05 
  58. # perform the hill climbing search 
  59. best, score = hillclimbing(objective, bounds, n_iterations, step_size) 
  60. print('Done!'
  61. print('f(%s) = %f' % (best, score)) 

運行示例將對目標(biāo)函數(shù)執(zhí)行隨機(jī)爬山搜索。搜索過程中發(fā)現(xiàn)的每個改進(jìn)都會報告出來,然后在搜索結(jié)束時報告最佳解決方案。

注意:由于算法或評估程序的隨機(jī)性,或者數(shù)值精度的差異,您的結(jié)果可能會有所不同。考慮運行該示例幾次并比較平均結(jié)果。

在這種情況下,我們可以看到搜索過程中約有13處改進(jìn),最終解決方案約為f(-0.981,1.965),得出的評估值為5.381,與f(0.0,0.0)= 0相去甚遠(yuǎn)。

  1. >0 f([-0.85618854 2.1495965 ]) = 6.46986 
  2. >1 f([-0.81291816 2.03451957]) = 6.07149 
  3. >5 f([-0.82903902 2.01531685]) = 5.93526 
  4. >7 f([-0.83766043 1.97142393]) = 5.82047 
  5. >9 f([-0.89269139 2.02866012]) = 5.68283 
  6. >12 f([-0.8988359 1.98187164]) = 5.55899 
  7. >13 f([-0.9122303 2.00838942]) = 5.55566 
  8. >14 f([-0.94681334 1.98855174]) = 5.43024 
  9. >15 f([-0.98117198 1.94629146]) = 5.39010 
  10. >23 f([-0.97516403 1.97715161]) = 5.38735 
  11. >39 f([-0.98628044 1.96711371]) = 5.38241 
  12. >362 f([-0.9808789 1.96858459]) = 5.38233 
  13. >629 f([-0.98102417 1.96555308]) = 5.38194 
  14. Done! 
  15. f([-0.98102417 1.96555308]) = 5.381939 

隨機(jī)重新開始的隨機(jī)爬山

具有隨機(jī)重啟功能的隨機(jī)爬山算法涉及重復(fù)運行隨機(jī)爬山算法并跟蹤找到的最佳解決方案。首先,讓我們修改hillclimbing()函數(shù)以獲取搜索的起點,而不是隨機(jī)生成它。這將在以后實現(xiàn)迭代本地搜索算法時有所幫助。

  1. # hill climbing local search algorithm 
  2. def hillclimbing(objective, bounds, n_iterations, step_size, start_pt): 
  3.  # store the initial point 
  4.  solution = start_pt 
  5.  # evaluate the initial point 
  6.  solution_eval = objective(solution) 
  7.  # run the hill climb 
  8.  for i in range(n_iterations): 
  9.   # take a step 
  10.   candidate = None 
  11.   while candidate is None or not in_bounds(candidate, bounds): 
  12.    candidate = solution + randn(len(bounds)) * step_size 
  13.   # evaluate candidate point 
  14.   candidte_eval = objective(candidate) 
  15.   # check if we should keep the new point 
  16.   if candidte_eval <= solution_eval: 
  17.    # store the new point 
  18.    solution, solution_eval = candidate, candidte_eval 
  19.  return [solution, solution_eval] 

接下來,我們可以通過重復(fù)調(diào)用hillclimbing()函數(shù)一定的次數(shù)來實現(xiàn)隨機(jī)重啟算法。每次通話時,我們都會為爬山搜索生成一個隨機(jī)選擇的新起點。

  1. # generate a random initial point for the search 
  2. start_pt = None 
  3. while start_pt is None or not in_bounds(start_pt, bounds): 
  4.  start_pt = bounds[:, 0] + rand(len(bounds)) * (bounds[:, 1] - bounds[:, 0]) 
  5. # perform a stochastic hill climbing search 
  6. solution, solution_eval = hillclimbing(objective, bounds, n_iter, step_size, start_pt) 

然后,我們可以檢查結(jié)果并將其保留,以使其比我們到目前為止所看到的任何搜索結(jié)果都要好。

  1. check for new best 
  2. if solution_eval < best_eval: 
  3.  best, best_eval = solution, solution_eval 
  4. print('Restart %d, best: f(%s) = %.5f' % (n, best, best_eval)) 

結(jié)合在一起,random_restarts()函數(shù)實現(xiàn)了具有隨機(jī)重啟功能的隨機(jī)爬山算法。

  1. # hill climbing with random restarts algorithm 
  2. def random_restarts(objective, bounds, n_iter, step_size, n_restarts): 
  3.  best, best_eval = None, 1e+10 
  4.  # enumerate restarts 
  5.  for n in range(n_restarts): 
  6.   # generate a random initial point for the search 
  7.   start_pt = None 
  8.   while start_pt is None or not in_bounds(start_pt, bounds): 
  9.    start_pt = bounds[:, 0] + rand(len(bounds)) * (bounds[:, 1] - bounds[:, 0]) 
  10.   # perform a stochastic hill climbing search 
  11.   solution, solution_eval = hillclimbing(objective, bounds, n_iter, step_size, start_pt) 
  12.   # check for new best 
  13.   if solution_eval < best_eval: 
  14.    best, best_eval = solution, solution_eval 
  15.    print('Restart %d, best: f(%s) = %.5f' % (n, best, best_eval)) 
  16.  return [best, best_eval] 

然后,我們可以將此算法應(yīng)用于Ackley目標(biāo)函數(shù)。在這種情況下,我們會將隨機(jī)重啟的數(shù)量限制為任意選擇的30次。

下面列出了完整的示例。

  1. # hill climbing search with random restarts of the ackley objective function 
  2. from numpy import asarray 
  3. from numpy import exp 
  4. from numpy import sqrt 
  5. from numpy import cos 
  6. from numpy import e 
  7. from numpy import pi 
  8. from numpy.random import randn 
  9. from numpy.random import rand 
  10. from numpy.random import seed 
  11.   
  12. # objective function 
  13. def objective(v): 
  14.  x, y = v 
  15.  return -20.0 * exp(-0.2 * sqrt(0.5 * (x**2 + y**2))) - exp(0.5 * (cos(2 * pi * x) + cos(2 * pi * y))) + e + 20 
  16.   
  17. check if a point is within the bounds of the search 
  18. def in_bounds(point, bounds): 
  19.  # enumerate all dimensions of the point 
  20.  for d in range(len(bounds)): 
  21.   # check if out of bounds for this dimension 
  22.   if point[d] < bounds[d, 0] or point[d] > bounds[d, 1]: 
  23.    return False 
  24.  return True 
  25.   
  26. # hill climbing local search algorithm 
  27. def hillclimbing(objective, bounds, n_iterations, step_size, start_pt): 
  28.  # store the initial point 
  29.  solution = start_pt 
  30.  # evaluate the initial point 
  31.  solution_eval = objective(solution) 
  32.  # run the hill climb 
  33.  for i in range(n_iterations): 
  34.   # take a step 
  35.   candidate = None 
  36.   while candidate is None or not in_bounds(candidate, bounds): 
  37.    candidate = solution + randn(len(bounds)) * step_size 
  38.   # evaluate candidate point 
  39.   candidte_eval = objective(candidate) 
  40.   # check if we should keep the new point 
  41.   if candidte_eval <= solution_eval: 
  42.    # store the new point 
  43.    solution, solution_eval = candidate, candidte_eval 
  44.  return [solution, solution_eval] 
  45.   
  46. # hill climbing with random restarts algorithm 
  47. def random_restarts(objective, bounds, n_iter, step_size, n_restarts): 
  48.  best, best_eval = None, 1e+10 
  49.  # enumerate restarts 
  50.  for n in range(n_restarts): 
  51.   # generate a random initial point for the search 
  52.   start_pt = None 
  53.   while start_pt is None or not in_bounds(start_pt, bounds): 
  54.    start_pt = bounds[:, 0] + rand(len(bounds)) * (bounds[:, 1] - bounds[:, 0]) 
  55.   # perform a stochastic hill climbing search 
  56.   solution, solution_eval = hillclimbing(objective, bounds, n_iter, step_size, start_pt) 
  57.   # check for new best 
  58.   if solution_eval < best_eval: 
  59.    best, best_eval = solution, solution_eval 
  60.    print('Restart %d, best: f(%s) = %.5f' % (n, best, best_eval)) 
  61.  return [best, best_eval] 
  62.   
  63. # seed the pseudorandom number generator 
  64. seed(1) 
  65. # define range for input 
  66. bounds = asarray([[-5.0, 5.0], [-5.0, 5.0]]) 
  67. # define the total iterations 
  68. n_iter = 1000 
  69. # define the maximum step size 
  70. step_size = 0.05 
  71. # total number of random restarts 
  72. n_restarts = 30 
  73. # perform the hill climbing search 
  74. best, score = random_restarts(objective, bounds, n_iter, step_size, n_restarts) 
  75. print('Done!'
  76. print('f(%s) = %f' % (best, score)) 

運行該示例將執(zhí)行隨機(jī)爬山,并隨機(jī)重啟以查找Ackley目標(biāo)函數(shù)。每次發(fā)現(xiàn)改進(jìn)的整體解決方案時,都會進(jìn)行報告,并匯總通過搜索找到的最終最佳解決方案。

注意:由于算法或評估程序的隨機(jī)性,或者數(shù)值精度的差異,您的結(jié)果可能會有所不同。考慮運行該示例幾次并比較平均結(jié)果。

在這種情況下,我們可以看到搜索過程中的三處改進(jìn),發(fā)現(xiàn)的最佳解決方案約為f(0.002,0.002),其評估值為大約0.009,這比單次爬山算法要好得多。

  1. Restart 0, best: f([-0.98102417 1.96555308]) = 5.38194 
  2. Restart 2, best: f([1.96522236 0.98120013]) = 5.38191 
  3. Restart 4, best: f([0.00223194 0.00258853]) = 0.00998 
  4. Done! 
  5. f([0.00223194 0.00258853]) = 0.009978 

接下來,讓我們看看如何實現(xiàn)迭代的本地搜索算法。

迭代局部搜索算法

迭代本地搜索算法是具有隨機(jī)重啟算法的隨機(jī)爬坡的改進(jìn)版本。重要的區(qū)別在于,隨機(jī)爬山算法的每種應(yīng)用的起點都是到目前為止找到的最佳點的一種擾動版本。我們可以通過使用random_restarts()函數(shù)作為起點來實現(xiàn)此算法。每次重新啟動迭代時,我們可以生成到目前為止找到的最佳解決方案的修改版本,而不是隨機(jī)的起點。這可以通過使用步長超參數(shù)來實現(xiàn),就像在隨機(jī)爬山者中使用的一樣。在這種情況下,考慮到搜索空間中較大的擾動,將使用較大的步長值。

  1. # generate an initial point as a perturbed version of the last best 
  2. start_pt = None 
  3. while start_pt is None or not in_bounds(start_pt, bounds): 
  4.  start_pt = best + randn(len(bounds)) * p_size 

結(jié)合在一起,下面定義了iterated_local_search()函數(shù)。

  1. # iterated local search algorithm 
  2. def iterated_local_search(objective, bounds, n_iter, step_size, n_restarts, p_size): 
  3.  # define starting point 
  4.  best = None 
  5.  while best is None or not in_bounds(best, bounds): 
  6.   best = bounds[:, 0] + rand(len(bounds)) * (bounds[:, 1] - bounds[:, 0]) 
  7.  # evaluate current best point 
  8.  best_eval = objective(best) 
  9.  # enumerate restarts 
  10.  for n in range(n_restarts): 
  11.   # generate an initial point as a perturbed version of the last best 
  12.   start_pt = None 
  13.   while start_pt is None or not in_bounds(start_pt, bounds): 
  14.    start_pt = best + randn(len(bounds)) * p_size 
  15.   # perform a stochastic hill climbing search 
  16.   solution, solution_eval = hillclimbing(objective, bounds, n_iter, step_size, start_pt) 
  17.   # check for new best 
  18.   if solution_eval < best_eval: 
  19.    best, best_eval = solution, solution_eval 
  20.    print('Restart %d, best: f(%s) = %.5f' % (n, best, best_eval)) 
  21.  return [best, best_eval] 

然后,我們可以將該算法應(yīng)用于Ackley目標(biāo)函數(shù)。在這種情況下,我們將使用較大的步長值1.0進(jìn)行隨機(jī)重啟,這是在經(jīng)過反復(fù)試驗后選擇的。

下面列出了完整的示例。

  1. # iterated local search of the ackley objective function 
  2. from numpy import asarray 
  3. from numpy import exp 
  4. from numpy import sqrt 
  5. from numpy import cos 
  6. from numpy import e 
  7. from numpy import pi 
  8. from numpy.random import randn 
  9. from numpy.random import rand 
  10. from numpy.random import seed 
  11.   
  12. # objective function 
  13. def objective(v): 
  14.  x, y = v 
  15.  return -20.0 * exp(-0.2 * sqrt(0.5 * (x**2 + y**2))) - exp(0.5 * (cos(2 * pi * x) + cos(2 * pi * y))) + e + 20 
  16.   
  17. check if a point is within the bounds of the search 
  18. def in_bounds(point, bounds): 
  19.  # enumerate all dimensions of the point 
  20.  for d in range(len(bounds)): 
  21.   # check if out of bounds for this dimension 
  22.   if point[d] < bounds[d, 0] or point[d] > bounds[d, 1]: 
  23.    return False 
  24.  return True 
  25.   
  26. # hill climbing local search algorithm 
  27. def hillclimbing(objective, bounds, n_iterations, step_size, start_pt): 
  28.  # store the initial point 
  29.  solution = start_pt 
  30.  # evaluate the initial point 
  31.  solution_eval = objective(solution) 
  32.  # run the hill climb 
  33.  for i in range(n_iterations): 
  34.   # take a step 
  35.   candidate = None 
  36.   while candidate is None or not in_bounds(candidate, bounds): 
  37.    candidate = solution + randn(len(bounds)) * step_size 
  38.   # evaluate candidate point 
  39.   candidte_eval = objective(candidate) 
  40.   # check if we should keep the new point 
  41.   if candidte_eval <= solution_eval: 
  42.    # store the new point 
  43.    solution, solution_eval = candidate, candidte_eval 
  44.  return [solution, solution_eval] 
  45.   
  46. # iterated local search algorithm 
  47. def iterated_local_search(objective, bounds, n_iter, step_size, n_restarts, p_size): 
  48.  # define starting point 
  49.  best = None 
  50.  while best is None or not in_bounds(best, bounds): 
  51.   best = bounds[:, 0] + rand(len(bounds)) * (bounds[:, 1] - bounds[:, 0]) 
  52.  # evaluate current best point 
  53.  best_eval = objective(best) 
  54.  # enumerate restarts 
  55.  for n in range(n_restarts): 
  56.   # generate an initial point as a perturbed version of the last best 
  57.   start_pt = None 
  58.   while start_pt is None or not in_bounds(start_pt, bounds): 
  59.    start_pt = best + randn(len(bounds)) * p_size 
  60.   # perform a stochastic hill climbing search 
  61.   solution, solution_eval = hillclimbing(objective, bounds, n_iter, step_size, start_pt) 
  62.   # check for new best 
  63.   if solution_eval < best_eval: 
  64.    best, best_eval = solution, solution_eval 
  65.    print('Restart %d, best: f(%s) = %.5f' % (n, best, best_eval)) 
  66.  return [best, best_eval] 
  67.   
  68. # seed the pseudorandom number generator 
  69. seed(1) 
  70. # define range for input 
  71. bounds = asarray([[-5.0, 5.0], [-5.0, 5.0]]) 
  72. # define the total iterations 
  73. n_iter = 1000 
  74. # define the maximum step size 
  75. s_size = 0.05 
  76. # total number of random restarts 
  77. n_restarts = 30 
  78. # perturbation step size 
  79. p_size = 1.0 
  80. # perform the hill climbing search 
  81. best, score = iterated_local_search(objective, bounds, n_iter, s_size, n_restarts, p_size) 
  82. print('Done!'
  83. print('f(%s) = %f' % (best, score)) 

運行該示例將對Ackley目標(biāo)函數(shù)執(zhí)行“迭代本地搜索”。

每次發(fā)現(xiàn)改進(jìn)的整體解決方案時,都會進(jìn)行報告,并在運行結(jié)束時匯總通過搜索找到的最終最佳解決方案。

注意:由于算法或評估程序的隨機(jī)性,或者數(shù)值精度的差異,您的結(jié)果可能會有所不同。考慮運行該示例幾次并比較平均結(jié)果。

在這種情況下,我們可以在搜索過程中看到四個改進(jìn),發(fā)現(xiàn)的最佳解決方案是兩個非常小的輸入,它們接近于零,其估計值為0.0003,這比單次爬山或爬山都要好。登山者重新啟動。

  1. Restart 0, best: f([-0.96775653 0.96853129]) = 3.57447 
  2. Restart 3, best: f([-4.50618519e-04 9.51020713e-01]) = 2.57996 
  3. Restart 5, best: f([ 0.00137423 -0.00047059]) = 0.00416 
  4. Restart 22, best: f([ 1.16431936e-04 -3.31358206e-06]) = 0.00033 
  5. Done! 
  6. f([ 1.16431936e-04 -3.31358206e-06]) = 0.000330 

 

責(zé)任編輯:武曉燕 來源: Python中文社區(qū)
相關(guān)推薦

2013-01-08 11:02:26

IBMdW

2013-05-23 10:10:53

PHP5.5PHP編譯php

2022-06-01 23:21:34

Python回歸樹數(shù)據(jù)

2009-05-08 09:40:07

網(wǎng)易魔獸暴雪

2017-02-23 08:45:36

Python決策樹數(shù)據(jù)集

2020-06-11 08:32:50

Python遺傳算法代碼

2023-08-11 17:30:54

決策樹機(jī)器學(xué)習(xí)算法

2020-11-17 08:09:01

webpack配置項腳手架

2022-11-23 16:20:12

GPU編程流和事件開發(fā)

2023-05-24 16:20:39

DevOpsCI/CD 管道軟件開發(fā)

2020-10-18 07:15:53

Python異常檢測算法開發(fā)

2021-02-20 21:29:40

GitHub代碼開發(fā)者

2023-02-06 16:01:26

數(shù)據(jù)中心服務(wù)器

2017-08-28 18:41:34

PythonLogistic回歸隨機(jī)梯度下降

2021-07-06 14:21:05

物聯(lián)網(wǎng)智慧城市網(wǎng)絡(luò)安全

2022-11-14 10:49:33

Linux發(fā)行版

2024-03-20 12:44:35

AI訓(xùn)練

2024-09-26 16:51:23

2022-11-13 15:48:19

編程線程GPU

2022-07-22 07:18:53

代碼DeepMind
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 久热9| www..99re | 成人一区二区在线 | 天天躁日日躁狠狠的躁天龙影院 | 人操人人| m豆传媒在线链接观看 | 国产av毛片 | 欧美中文字幕一区二区三区亚洲 | 中文久久 | 久草在线影 | 成人免费观看网站 | 久草在线青青草 | 麻豆av一区二区三区久久 | 欧美一区二区三区四区视频 | 国产一区高清 | 一区二区三区在线 | 超碰超碰 | 天啪 | 国产精品久久久久久吹潮日韩动画 | 久久精品亚洲 | 精品国产成人 | 国产精品99久久久久久久久久久久 | av网站在线播放 | 97色综合| 日韩中文字幕在线视频 | 99久久夜色精品国产亚洲96 | 天堂av免费观看 | 成人亚洲一区 | 91色视频在线观看 | 91看片在线观看 | 国产传媒在线播放 | 黄色大片免费观看 | 久久精品国产一区老色匹 | 日韩在线一区二区三区 | 免费一区二区三区 | 成人性生交大片免费看中文带字幕 | xxxxxx国产 | 成av人电影在线 | 日韩网站免费观看 | 黄色大片毛片 | www.狠狠干|