Suite

Comment évaluer la qualité de l'algorithme TSP ?

Comment évaluer la qualité de l'algorithme TSP ?


J'essaie de développer mon propre algorithme pour résoudre le problème du voyageur de commerce (TSP). Je l'ai testé (dans son état actuel) sur l'instance "att48" du TSPLIB et j'ai obtenu les résultats suivants :

Comme nous pouvons le voir, plus des 3/4 des résultats se situent à moins de 110 % de la longueur optimale de l'itinéraire. Mais dans la littérature scientifique, ils rapportent depuis plus de 20 décennies que leurs algorithmes résolvent comme 99% des instances TSPLIB à 1% des distances optimales (mais où sont leurs implémentations SIG ?!). Je me demande donc s'il existe par exemple un seuil généralement acceptable pour la sortie de l'algorithme afin de déterminer s'il s'agit d'ordures ou s'il peut être utilisé dans la vie réelle ? Ou existe-t-il d'autres moyens d'évaluation du solveur TSP ?


Ok, j'ai trouvé un article récent où ils ont testé et comparé plusieurs algorithmes TSP. Ils ont fait en sorte que des algorithmes testés trouvent leurs solutions dans des délais de 100 secondes pour plusieurs ensembles de données. Pour ma chance, 'att48' était parmi eux. Voici l'un des tableaux de comparaison (les distances sont divisées par 100) :

J'ai donc une bonne nouvelle pour moi - mes solutions ont été trouvées en moins de 100 secondes (85-95) du temps réel (pas de temps CPU), et le seul algorithme de ce tableau qui surpasse le mien pour le "att48" est le recuit simulé.


Implémentation correcte du TSP par force brute

J'ai besoin d'implémenter l'algorithme TSP par force brute à des fins d'apprentissage.

J'ai compris qu'il y a un ensemble de villes, appelons ça V et il est possible d'obtenir une représentation matricielle des coûts pour passer d'un v1 ville à un v2 ville. Je suppose qu'il n'y a pas de cycles, il n'est donc pas possible de passer de v1 retour à v1

Ensuite, je devrais générer une matrice après ces séries de somme :

Cependant, je ne peux vraiment pas voir de manière pratique comment une matrice serait générée à partir de restrictions.

Les coûts du chemin sont donc (et ils ne sont pas obligés d'être les mêmes pour les chemins de retour) :

De Madrid à :

De Berlin à

De Malmö à :

Comment la matrice doit-elle être produite en fonction de la série somme ?

Je suppose que l'algorithme devrait générer une matrice à partir de cet exemple :

Il y a 3 villes x1, x2 et x3 et obtenu la matrice des coûts ci-dessous :

L'exemple suivant montre la matrice suivante :

Ce qui serait le même que :

Ensuite, compte tenu du ser de puissance des trois villes, la matrice a ajouté les lignes suivantes :

Enfin, la matrice entière générée est :


Évaluation de la qualité des algorithmes d'optimisation en ligne par simulation d'événements discrets

Une caractéristique clé des problèmes dynamiques qui offrent des degrés de liberté au décideur est la nécessité d'une routine de prise de décision orientée vers un objectif qui est utilisée chaque fois que la logique du système nécessite une décision. Dans cet article, nous examinons les procédures d'optimisation qui apparaissent comme des sous-routines dans les problèmes dynamiques et montrons comment la simulation à événements discrets peut être utilisée pour évaluer la qualité des algorithmes : après avoir établi un lien général entre l'optimisation en ligne et les systèmes à événements discrets, nous abordons la mesure des performances dans paramètres dynamiques et dériver un kit d'outils correspondant. Nous analysons ensuite plusieurs stratégies de contrôle en utilisant les méthodologies décrites précédemment dans deux exemples réels de modèles de simulation d'événements discrets : un système de préparation de commandes manuel et un service de ramassage et de livraison.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Un algorithme de type débit d'eau pour le problème du voyageur de commerce

L'algorithme de type écoulement d'eau (WFA) est une métaheuristique relativement nouvelle qui fonctionne bien sur le problème de regroupement d'objets rencontré dans l'optimisation combinatoire. Cet article présente une WFA pour résoudre le problème du voyageur de commerce (TSP) en tant que problème basé sur des graphes. Les performances du WFA sur le TSP sont évaluées à l'aide de 23 ensembles de données de référence TSP et en les comparant avec les algorithmes précédents. Les résultats expérimentaux montrent que la WFA proposée a trouvé de meilleures solutions en termes de solution moyenne et de pourcentage d'écart de la solution moyenne par rapport à la solution la plus connue.

1. Introduction

Le problème du voyageur de commerce (TSP) est un problème classique d'optimisation combinatoire (COP), qui a été introduit il y a de nombreuses années en 1985 [1]. Le TSP recherche le chemin le plus court parmi un ensemble de villes avec des distances connues entre des paires de villes pour trouver la solution d'itinéraire. La solution d'itinéraire peut être articulée sous la forme d'un graphe complet avec un ensemble de sommets, qui est un ensemble d'arêtes pondérées par la distance entre deux sommets (villes), pour trouver l'itinéraire le plus court en visitant chaque ville exactement une fois et en revenant à la ville d'origine .

De nombreuses approches ont été proposées et ont obtenu de bonnes solutions. Cependant, ils varient en termes de complexité et d'efficacité et de capacité à résoudre le TSP à différents niveaux de complexité et de taille (petit, moyen et grand). Des études antérieures utilisent la programmation linéaire Dantzig et al. [2], formulation dynamique Held et Karp [3], branch and bound [4], et branch and cut [1], mais leur capacité est limitée aux petits problèmes (moins de 40 villes). Plus tard, les approches intelligentes artificielles se sont avérées capables de résoudre des problèmes plus complexes. L'une de ces approches, le réseau de neurones auto-organisé [5-7], a ensuite été étendue en tant que métaheuristique. Une métaheuristique peut optimiser un problème complexe en recherchant de nombreuses solutions candidates avec peu ou pas d'hypothèses sur le problème à résoudre et sans aucune garantie de trouver la solution optimale. Certaines métaheuristiques utilisent soit une approche basée sur une solution unique (par exemple, la recherche tabou (TS) et le recuit simulé (SA)) soit une approche basée sur la population (par exemple, l'algorithme génétique (GA)) [8-10], tandis que d'autres utilisent l'intelligence en essaim ( par exemple l'optimisation des colonies de fourmis (ACO)) [11], et récemment, des métaheuristiques hybrides ont été proposées [7, 12]. Les résultats montrent que la métaheuristique hybride peut produire le meilleur résultat en utilisant 23 ensembles de données TSP de référence.

Récemment, un nouvel algorithme métaheuristique connu sous le nom d'algorithme de type flux d'eau (WFA) a été proposé [13]. L'algorithme s'inspire de l'eau s'écoulant des hautes vers les basses altitudes. Le flux peut se diviser en sous-flux lorsqu'il traverse des terrains rigides et ces sous-flux fusionnent lorsqu'ils se rencontrent au même endroit. Les écoulements stagnent dans les endroits à basse altitude si leur élan ne peut pas expulser l'eau de l'emplacement actuel. Le flux représente un agent de solution, l'altitude du flux représente la fonction objectif et l'espace de solution d'un problème est représenté par un terrain géographique.

Les algorithmes métaheuristiques précédents ont été conçus pour rechercher l'espace du problème avec un nombre fixe d'agents de solution [8, 11, 14] cependant, certaines approches ont été proposées pour obtenir un réglage approprié du nombre de population de l'algorithme. Ces approches sont classées en approches de réglage de la taille de la population hors ligne ou en ligne. Dans le réglage de la taille de la population hors ligne, l'objectif est de trouver un numéro de population approprié avant que l'algorithme ne démarre le processus d'optimisation et les processus de réglage, qui sont effectués par essais et erreurs par un agent humain, ce qui les rend chronophages et sujets aux erreurs et conduit généralement à un réglage inégal de l'algorithme [15]. D'un autre côté, le réglage de la taille de la population en ligne est beaucoup plus efficace car, comme son nom l'indique, il règle la taille de la population en ligne et cela pendant le processus d'optimisation ou pendant qu'il résout les instances de problème. Le réglage de la taille de la population en ligne présente un avantage potentiel en ce sens qu'il pourrait permettre à l'algorithme de mieux s'adapter aux caractéristiques d'une instance de problème particulière.

Néanmoins, l'utilisation du réglage en ligne pour contrôler la taille de la population d'un algorithme reste un défi [15–19], Gen et Cheng [20]. De nombreuses études de recherche se sont concentrées sur la recherche de méthodes permettant aux métaheuristiques basées sur la population d'ajuster la taille de la population en ligne tout en résolvant une instance de problème, en tenant compte de l'impact des caractéristiques de l'instance et du paysage de fitness. Cependant, ces méthodes reposent sur l'analyse des informations accumulées qui ont été recueillies au cours du processus d'optimisation, qui peuvent se rapporter aux propriétés globales du paysage de fitness telles que la rugosité ou le bruit du paysage, ou peuvent se rapporter aux propriétés locales d'un paysage spécifique. Région. La collecte et l'analyse de ces informations ajoutent plus de complexité à un algorithme ainsi que plus de temps de calcul. De plus, la plupart des méthodes de réglage des paramètres en ligne ont été développées pour gérer les limites des métaheuristiques existantes en étendant ou en modifiant le cadre algorithmique, ce qui est difficile à réaliser dans la plupart des situations, et le succès a été limité aux algorithmes conçus pour rechercher l'espace du problème avec une taille de population fixe.

La WFA [13] utilise le concept de population dynamique comme cadre fondamental pour la conception d'algorithmes. Le concept peut être appliqué pour surmonter de nombreux inconvénients des métaheuristiques basées sur la population et, pour ce faire, les auteurs ont abordé deux problèmes principaux qui affectent l'efficacité de l'optimisation des algorithmes. Le premier est la nécessité de réduire le nombre de recherches redondantes, ce qui augmente le coût de calcul de l'algorithme pendant le processus d'optimisation. Une recherche redondante se produit lors de la combinaison de solutions de population qui partagent la même valeur objective. Le deuxième problème consiste à donner à l'algorithme la capacité de s'adapter à différentes tailles de population au cours du processus d'optimisation. La taille de la population dans les algorithmes ACO et GA est attribuée au stade initial lors de l'exécution de l'algorithme et elle ne peut pas être modifiée au cours du processus d'optimisation.

Le WFA a été adapté et appliqué avec succès à différents COP, y compris les problèmes de bin-packing [13], de fabrication de fraction cellulaire [21] et d'ordonnancement des infirmières [22]. Les résultats de ces études montrent que le WFA a un bon potentiel pour résoudre plusieurs COP. Par conséquent, cet article vise à étudier les performances du WFA lorsqu'il est appliqué à un TSP en termes de précision et de temps. Les recherches antérieures montrent également que WFA a exécuté une solution plus rapide car elle a présenté un comportement de solution dynamique. Le reste de cet article est organisé comme suit. La section 2 traite de la littérature sur le WFA. La section 3 présente la WFA proposée pour résoudre le TSP, tandis que la section 4 présente les expériences et une analyse des résultats, suivies de la discussion dans la section 5. Enfin, la section 6 conclut l'article.

2. Travaux connexes

Le WFA [13] est catégorisé comme un algorithme métaheuristique basé sur la population et s'inspire du comportement naturel de l'eau s'écoulant des altitudes les plus élevées vers les plus basses. Les écoulements d'eau peuvent se diviser ou se confondre selon la topographie de l'espace de recherche. Les principaux avantages de la WFA sont qu'elle est auto-adaptative et dynamique en ce qui concerne la taille de la population. En d'autres termes, la taille de l'agent de solution n'est pas fixe, contrairement aux métaheuristiques traditionnelles basées sur la population. Le nombre de flux peut augmenter ou diminuer au cours du processus d'optimisation et la taille de la population change en fonction de la diminution du problème et de la qualité de la solution trouvée par les agents. Yang et Wang [13] décrivent et cartographient la taille dynamique de la population en fonction du comportement naturel des flux d'eau lorsqu'ils se divisent, se déplacent et fusionnent.

La première version de la WFA a été développée par Yang et Wang [13] pour résoudre un problème de regroupement d'objets appelé problème de bin-packing (BPP), qui est un problème d'optimisation discret et bien connu comme un problème NP-difficile. Le BPP avec sa contrainte de capacité stricte nécessite plusieurs méthodes heuristiques pour dériver des solutions réalisables et optimales. Le BPP traditionnel est le problème de minimiser le nombre de bacs utilisés compte tenu de sa contrainte de capacité de poids. Les auteurs utilisent le BPP comme référence pour mesurer la faisabilité du WFA pour résoudre de tels problèmes d'optimisation. Leur algorithme proposé repose principalement sur des recherches de voisins de solution, où une stratégie de mouvement en une étape est utilisée pour trouver un voisin de solution avec un pas constant vers l'avant pour chaque flux. Les mouvements d'écoulement (changements d'emplacement) sont influencés par la force gravitationnelle et la loi de conservation de l'énergie. Itération par itération, l'eau se déplace constamment vers des altitudes plus basses, ce qui est en corrélation avec les améliorations dans la recherche de solutions. Le WFA commence la recherche dans l'espace du problème en utilisant un agent de solution (flux) avec un élan initial. Par la suite, le flux se divise en plusieurs sous-flux lorsque le flux rencontre des terrains accidentés et si l'élan du flux dépasse la quantité de fractionnement. Un écoulement avec plus d'élan génère plus de flux secondaires qu'un écoulement avec moins d'élan. Un flux avec une quantité de mouvement limitée cède au relief et maintient un flux unique. De nombreux flux fusionnent en un seul flux lorsqu'ils obtiennent les mêmes valeurs objectives. Pour éviter les recherches redondantes, le WFA réduit le nombre d'agents de solution lorsque plusieurs agents se déplacent vers le même emplacement. Les écoulements d'eau sont également sujets à l'évaporation de l'eau dans l'atmosphère. L'eau évaporée retourne au sol sous forme de pluie (précipitations). Dans le WFA, une partie du débit d'eau est supprimée pour imiter l'évaporation de l'eau. Cette opération de précipitation est mise en œuvre dans la WFA pour simuler les précipitations naturelles et explorer une zone plus large.

Dans [13], les performances du WFA sont comparées à celles du GA, de l'optimisation de l'essaim de particules (PSO) et de l'ACO. Les résultats expérimentaux ont montré que le WFA surpasse le GA, le PSO et l'ACO en termes de qualité et de temps d'exécution. Sur la base des résultats expérimentaux, les auteurs ont conclu que le WFA peut avoir la capacité de résoudre des problèmes d'optimisation complexes et ont suggéré qu'il pourrait être utilisé pour résoudre des problèmes de séquençage tels que le TSP.

En 2010, le WFA a été amélioré pour résoudre le problème de la fraction cellulaire de fabrication [21]. Le modèle utilise les méthodes de coefficient de similarité et d'affectation de machine, ainsi que les affectations de pièces, pour générer une solution réalisable initiale dans la première étape, puis, dans la deuxième étape, une étape de division et de déplacement du flux est utilisée pour améliorer la solution en utilisant un voisin. recherche pour obtenir une solution quasi optimale. Les résultats ont montré que le WFA surpasse l'algorithme génétique hybride (HGA) et le SA. Shahrezaei et al. [22] ont utilisé le WFA pour résoudre le problème d'ordonnancement des infirmières, qui est un problème d'optimisation multiobjectif. Les auteurs ont comparé le WFA avec l'algorithme d'évaluation différentielle (DE), et les résultats ont montré qu'une meilleure qualité de solution pouvait être obtenue en utilisant le WFA.

La force de la WFA pour résoudre le TSP réside dans une caractéristique spécifique de la WFA, à savoir, le comportement dynamique de la taille de la population. La WFA utilise des solutions de population, qui sont mappées aux débits d'eau, et les fonctions objectifs sont mappées en tant que terrains. La division du flux se produit lorsque des terrains accidentés sont traversés. A l'inverse, les flux d'eau se confondent lorsqu'ils se rejoignent en un même point. Le WFA proposé pour le TSP (WFA-TSP) est basé sur le WFA de base utilisé par [13].

3. Algorithme de débit d'eau proposé pour le TSP

Cette section présente la DRE proposée pour le PST. L'algorithme proposé adopte les opérations de base d'initialisation, de division et de déplacement de flux, de fusion de flux, d'évaporation de l'eau et de précipitation de l'eau. La figure 2 montre que le flux de WFA-TSP est adopté à partir du TSP de base. Il démarre le processus d'optimisation avec une opération d'initialisation, qui n'est pas une opération répétitive chargée d'attribuer l'état initial de l'algorithme. L'opération d'initialisation comprend le paramétrage et la génération de la solution initiale. En général, l'amélioration des solutions commence après la fin de l'opération d'initialisation. L'algorithme exécute de manière interactive les opérations restantes telles que la division et le déplacement des flux, la fusion des flux, l'évaporation de l'eau et la précipitation de l'eau jusqu'à ce que la condition de fin soit remplie. Les principales différences entre le WFA-TSP et le WFA de base [13] concernent la représentation de la solution, la technique utilisée pour l'initialisation et la procédure de séparation et de déplacement du flux, et l'opération de précipitation, qui dépend toujours de la définition de la structure de voisinage d'un FLIC. Les trois opérations différentes sont représentées sous forme de processus sombres dans la figure 2. Le WFA de base est appliqué au problème d'emballage des bacs où il utilisait un tableau à deux réductions pour stocker un ensemble de bacs et ses objets pour la représentation de la solution, tandis que pour WFA-TSP utilisé la solution est représentée par un tableau à une dimension d'une longueur

, où est le nombre de villes dans l'ensemble de données d'origine. Chaque valeur de cellule du tableau représente le nombre de villes sélectionnées dans un ordre spécifique dans la solution. La figure 1 montre un exemple de représentation d'une solution TSP. Une solution réalisable est représentée comme une séquence de nœuds, où

représente la ville indexée et

représente le numéro de la ville disposé dans la séquence représentant un chemin de visite spécifique.


Rechercher problème d'orientation ou alors TSP de collecte de prix.

Il y a quelques problèmes dans cette catégorie. Ce sont des variantes du problème du voyageur de commerce dans lequel vous n'avez pas besoin de visiter tous les clients, mais pouvez choisir ceux à visiter. Ils tombent sous le nom général de problèmes de voyageur de commerce avec des bénéfices.

  • Le Problème d'orientation (OP) dans lequel vous souhaitez maximiser le profit collecté chez les clients visités, sous une limite supérieure sur la durée du voyage.
  • Le TSP de collecte de prix dans lequel vous souhaitez minimiser la durée du voyage, sous une limite inférieure sur le montant des bénéfices collectés.
  • Le Problème de tournée rentable dans lequel au lieu de considérer le temps de déplacement, vous considérez le déplacement frais. Dans ce cas, vous pouvez exprimer les bénéfices collectés et les frais de déplacement avec la même unité de mesure (disons, €). L'objectif est de maximiser la revenu (= bénéfice encaissé, déduction faite des frais de déplacement).

La plupart de ces problèmes apparaissent également dans la littérature avec des variantes (multi-véhicule, fenêtres temporelles, etc.) qui sont communes à d'autres problèmes de routage "classiques". Par exemple, l'OP multi-véhicule s'appelle le problème d'orientation d'équipe (TOP). L'ajout de fenêtres de temps donne l'OPTW et le TOPTW. L'ajout de capacités de véhicule donne le TOP capacitaire. Certaines versions stochastiques incluent le TSP avec bénéfices et clients stochastiques, l'OP avec des temps de trajet stochastiques et l'OP avec des bénéfices stochastiques.

Selon les méthodes de résolution du problème d'orientation (qui semble la plus adaptée à votre question), pour autant que je sache, l'algorithme exact de pointe est toujours celui de Fischetti, Salazar-Gonzalez et Toth. Au cours des deux dernières années, de nouvelles heuristiques se sont améliorées par rapport aux résultats les plus connus : un algorithme génétique et un ALNS.


MÉTHODES SLS

Holger H. Hoos , Thomas Stützle , dans Recherche locale stochastique , 2005

Recherche locale itérée

Dans les sections précédentes, nous avons discuté de divers mécanismes pour empêcher les techniques d'amélioration itérative de se bloquer dans les optima locaux de la fonction d'évaluation. L'une des idées les plus simples et les plus intuitives pour résoudre ce problème fondamental consiste sans doute à utiliser deux types d'étapes SLS : une pour atteindre les optima locaux aussi efficacement que possible, et l'autre pour échapper efficacement aux optima locaux. C'est l'idée clé sous-jacente Recherche locale itérée (ILS)[ Lourenço et al., 2002 ], une méthode SLS qui utilise essentiellement ces deux types d'étapes de recherche alternativement pour effectuer une marche dans l'espace des optima locaux w.r.t. la fonction d'évaluation donnée.

La figure 2.10 montre un aperçu de l'algorithme pour ILS. Comme d'habitude, le processus de recherche peut être initialisé de différentes manières, par exemple en partant d'un élément choisi au hasard de l'espace de recherche. A partir de la solution candidate initiale, une solution localement optimale est obtenue en appliquant une procédure de recherche locale subsidiaire localRecherche. Ensuite, chaque itération de l'algorithme se compose de trois étapes principales : d'abord, une perturbation est appliquée à la solution candidate actuelle s cela donne une solution candidate modifiée s′ à partir de laquelle dans l'étape suivante une recherche locale subsidiaire est effectuée jusqu'à un optimum local s' Est obtenu. Dans la dernière étape, un critère d'acceptation J'accepte est utilisé pour décider lequel des deux optima locaux, s ou alors s, le processus de recherche se poursuit. Les deux fonctions, perturber et J'accepte, peuvent utiliser des aspects de l'historique de recherche, par exemple, lorsque les mêmes optima locaux sont rencontrés à plusieurs reprises, des étapes de perturbation plus fortes peuvent être appliquées. Comme dans le cas de la plupart des autres algorithmes SLS, une variété de prédicats de terminaison mettre fin peut être utilisé pour décider quand le processus de recherche se termine.

Graphique 2.10 . Aperçu de l'algorithme de recherche locale itérée (ILS) pour les problèmes d'optimisation. (Pour plus de détails, voir le texte.)

Les trois procédures localSearch, perturber et J'accepte constituent le cœur de tout algorithme ILS. Le choix spécifique de ces procédures a un impact crucial sur les performances de l'algorithme résultant. Comme nous le verrons dans ce qui suit, ces composants doivent se compléter pour parvenir à un bon compromis entre l'intensification et la diversification du processus de recherche, ce qui est essentiel pour obtenir de bonnes performances lors de la résolution de problèmes combinatoires difficiles.

Il est assez évident que la procédure subsidiaire de recherche locale, localRecherche , a une influence considérable sur les performances de tout algorithme ILS. En général, des méthodes de recherche locale plus efficaces conduisent à des algorithmes ILS plus performants. Par exemple, lors de l'application d'ILS au problème du voyageur de commerce, l'utilisation de la recherche locale à 3 opts (c'est-à-dire un algorithme d'amélioration itératif basé sur la relation de voisinage à 3 échanges) conduit généralement à de meilleures performances que l'utilisation de la recherche locale à 2 opts, tout en étant encore mieux des résultats qu'avec la recherche locale 3-opt sont obtenus en utilisant l'algorithme de Lin-Kernighan comme procédure de recherche locale subsidiaire. Alors que souvent, des méthodes d'amélioration itératives sont utilisées pour la recherche locale subsidiaire au sein d'ILS, il est parfaitement possible d'utiliser à la place des algorithmes SLS plus sophistiqués, tels que SA, TS ou DLS.

Le rôle de perturber est de modifier la solution candidate actuelle d'une manière qui ne sera pas immédiatement annulée par la phase de recherche locale suivante. Cela aide le processus de recherche à échapper efficacement aux optima locaux, et la phase de recherche locale suivante a une chance de découvrir différents optima locaux. Dans le cas le plus simple, un pas de marche aléatoire dans un quartier plus grand que celui utilisé par localRecherche peut être suffisant pour atteindre cet objectif. Il existe également des algorithmes ILS qui utilisent des perturbations consistant en un certain nombre d'étapes simples (par exemple, des séquences d'étapes de marche aléatoire dans un quartier à 1 échange).

Typiquement, la force de la perturbation a une forte influence sur la durée de la phase de recherche locale suivante. Les perturbations faibles conduisent généralement à des phases de recherche locale plus courtes que les perturbations fortes, car la procédure de recherche locale nécessite moins d'étapes pour atteindre un optimum local. Si la perturbation est trop faible, cependant, la recherche locale retombera souvent dans l'optimum local qui vient d'être visité, ce qui conduit à une stagnation de la recherche. Dans le même temps, si la perturbation est trop forte, son effet peut être similaire à un redémarrage aléatoire du processus de recherche, ce qui entraîne généralement une faible probabilité de trouver de meilleures solutions lors de la phase de recherche locale suivante. Pour résoudre ces problèmes, la force et la nature des étapes de perturbation peuvent être modifiées de manière adaptative pendant la recherche. De plus, il existe des techniques de perturbation assez complexes, telles que celle utilisée dans Lourenço [1995] , qui est basée sur la recherche de solutions optimales pour des parties de l'instance de problème donnée.

Le critère d'acceptation, J'accepte, a également une forte influence sur le comportement et les performances de l'ILS. Une forte intensification de la recherche est obtenue si la meilleure des deux solutions s et sest toujours accepté. Les algorithmes ILS utilisant ce critère d'acceptation effectuent efficacement une amélioration itérative dans l'espace des optima locaux atteints par la procédure de recherche locale subsidiaire. Inversement, si le nouvel optimum local, s′, est toujours accepté quelle que soit la qualité de sa solution, le comportement de l'algorithme ILS résultant correspond à une marche aléatoire dans l'espace des optima locaux de la fonction d'évaluation donnée. Entre ces extrêmes, de nombreux choix intermédiaires existent par exemple, le critère d'acceptation Metropolis connu à partir du recuit simulé a été utilisé dans une première classe d'algorithmes ILS appelés Chaînes de Markov à grand pas [Martin et al., 1991]. Si tous ces critères d'acceptation sont markoviens, c'est-à-dire qu'ils ne dépendent que de s et s′, il a été démontré que les critères d'acceptation qui prennent en compte des aspects de l'historique de recherche, tels que le nombre d'étapes de recherche depuis la dernière amélioration de la solution candidate en place, contribuent souvent à améliorer les performances de l'ILS [ Stützle, 1998c ].

Exemple 2.7 Recherche locale itérée pour le TSP

Dans cet exemple, nous décrivons le Algorithme de Lin-Kernighan (ILK) itéré , un algorithme ILS qui est actuellement parmi les algorithmes incomplets les plus performants pour le problème du voyageur de commerce . ILK est basé sur le même espace de recherche et le même ensemble de solutions que ceux utilisés dans l'exemple 2.3 (page 75) . La procédure de recherche locale subsidiaire localRecherche est l'algorithme de recherche à profondeur variable (LK) de Lin-Kernighan décrit à la Section 2.1 (page 68ff.) .

Comme presque tous les algorithmes ILS pour le problème du voyageur de commerce, ILK utilise une étape particulière de 4 échanges, appelée un mouvement à double pont, en tant qu'étape de perturbation. Ce mouvement à double pont est illustré à la figure 2.11, il a la propriété souhaitable qu'il ne peut pas être directement inversé par une séquence de mouvements à 2 échanges comme effectué par l'algorithme LK. De plus, il a été constaté dans des études empiriques que cette perturbation est efficace indépendamment de la taille du problème. Enfin, un critère d'acceptation est utilisé qui renvoie toujours la meilleure des deux solutions candidates s et s. Il a été démontré qu'une implémentation efficace de cet algorithme structurellement plutôt simple permet d'obtenir d'excellentes performances [ Johnson et McGeoch, 1997 ]. (Des détails à ce sujet et d'autres algorithmes ILS pour le TSP sont présentés dans la section 8.3, page 384ff.)

Figure 2.11 . Représentation schématique du mouvement à double pont utilisé dans ILK. Les quatre bords en pointillés sur la gauche sont supprimés et les chemins restants A, B, C, D sont reconnectés comme indiqué sur le côté droit.

En règle générale, l'ILS peut être considéré comme une technique simple mais puissante pour étendre des algorithmes SLS «simples» tels que l'amélioration itérative. La simplicité conceptuelle de l'idée sous-jacente a conduit à de fréquentes redécouvertes et à de nombreuses variantes, dont la plupart sont connues sous divers noms, tels que Chaînes de Markov à grand pas [Martin et al., 1991], Recherche locale enchaînée [ Martin et Otto, 1996 ], ainsi que, lorsqu'elles sont appliquées à des algorithmes particuliers, à des techniques spécifiques, telles que les algorithmes itérés de Lin-Kernighan [ Johnson et McGeoch, 1997 ]. Malgré le fait que les idées sous-jacentes soient assez différentes, il existe également une relation conceptuelle étroite entre ILS et certaines variantes de la recherche de voisinage variable (VNS), telles que Basic VNS et Skewed VNS [ Hansen et Mladenović, 2002 ].

Les algorithmes ILS sont également intéressants car ils sont généralement faciles à implémenter : dans de nombreux cas, les implémentations SLS existantes peuvent être étendues aux algorithmes ILS en ajoutant seulement quelques lignes de code. Dans le même temps, les algorithmes ILS sont actuellement parmi les méthodes de recherche incomplètes les plus performantes pour de nombreux problèmes combinatoires, l'application la plus importante étant le problème du voyageur de commerce [ Johnson et McGeoch, 1997 Martin et Otto, 1996 ]. Pour un aperçu des diverses questions soulevées dans la conception et la mise en œuvre des algorithmes ILS, nous renvoyons à Lourenço et al. [2002] .


Un cadre complet d'évaluation de la réputation pour les informations géographiques volontaires dans les applications de détection de foule

L'information géographique volontaire (VGI) est le résultat d'activités où des individus, soutenus par des technologies habilitantes, se comportent comme des capteurs physiques en récoltant et en organisant du contenu géoréférencé, généralement dans leur environnement. Les chercheurs et les organisations ont reconnu la valeur du contenu VGI, mais ce contenu est généralement hétérogène en termes de qualité et de couverture spatiale. Par conséquent, pour que les applications en bénéficient, sa qualité et sa fiabilité doivent être préalablement évaluées. Cela peut ne pas être facile car, généralement, on ne sait pas comment le processus de collecte et d'organisation du contenu VGI a été mené et par qui. Dans la littérature, diverses propositions se concentrent sur un processus indirect d'évaluation de la qualité basé sur les scores de réputation. Dans cette perspective, le présent article fournit comme contributions principales : (i) une architecture multicouche pour VGI qui prend en charge un processus d'évaluation de la réputation (ii) un nouveau modèle complet pour le calcul des scores de réputation pour les données VGI et les contributeurs, basé sur et des évaluations indirectes exprimées par les utilisateurs, et incluant le concept de vieillissement des données (iii) une variété d'expériences évaluant la précision du modèle. Enfin, la pertinence d'adopter ce cadre est discutée via un scénario applicatif de recommandation d'itinéraires touristiques.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Comment évaluer la qualité de l'algorithme TSP ? - Systèmes d'information géographique

Informations papier

Informations sur la revue

Ingénierie électrique et électronique

ISSN p : 2162-9455 ISSN électronique : 2162-8459

Reçu : 28 nov. 2020 Accepté : 20 déc. 2020 Publié : 28 déc. 2020

Résoudre le problème du voyageur de commerce à l'aide d'un algorithme génétique

Ripon Sorma 1 , Md Abdul Wadud 1 , S.M. Rezaul Karim 1 , F. A. Sabbir Ahamed 2

1 Département EEE, Université internationale d'agriculture et de technologie des affaires, Uttara Dhaka, Bangladesh

2 Département de physique, Université internationale de commerce, agriculture et technologie, Uttara Dhaka, Bangladesh

Écrire à : Ripon Sorma, Department of EEE, International University of Business Agriculture and Technology, Uttara Dhaka, Bangladesh.

E-mail:

Copyright © 2020 Le(s) auteur(s). Publié par Scientific & Academic Publishing.

Ce travail est sous licence Creative Commons Attribution International License (CC BY).
http://creativecommons.org/licenses/by/4.0/

Cette analyse a étudié l'application de la règle algorithmique génétique capable de trouver l'inconvénient représentatif. Mesure carrée des algorithmes génétiques capable de générer à son tour des tournées possibles plus courtes par l'information de victimisation accumulée parmi le type d'un chemin de sécrétion déposé sur les périmètres du graphe d'inconvénient représentatif. Les simulations pc démontrent que la règle algorithmique génétique est capable de générer des solutions de pâte à chaque instance bilatéralement symétrique et inégale de l'inconvénient représentatif. la tactique est Associate in Nursing par exemple, comme la trempe simulée Associate in Nursing processus organique calcul de l'utilisation productive d'une figure naturelle pour voguer une règle algorithmique d'optimisation. Une étude de la règle algorithmique génétique explique ses performances et montre qu'elle est sur le point d'être vue comme une variante parallèle de la recherche taboue, à mémoire implicite. La règle algorithmique génétique est que le meilleur en temps machine est le moins économique en consommation de mémoire. La règle algorithmique génétique diffère de l'heuristique de voisinage le plus proche en ce qu'elle considère l'itinéraire le plus proche de l'heuristique de voisinage considère le chemin le plus proche. La règle algorithmique génétique a besoin d'un système avec une conception parallèle et sa mise en œuvre optimale. Les activités de chaque règle algorithmique génétique doivent être exécutées comme une méthode de système d'exploitation distincte.

Mots clés: Algorithme génétique, Système flou, Apprentissage automatique, Application de l'algorithme génétique, Travail en laboratoire


Abstrait

Les problèmes de routage utilisent souvent des réseaux expérimentaux pour représenter des scénarios du monde réel. However most ignore the inclusion of triangle inequality violations, a phenomenon resulting from delays or rounding errors within a network. This work evaluates the effect of both frequency – the number of violations – and severity – the degree of intensity of a violation – of triangle inequality and evaluates both solution quality and solution time based on Simulated Annealing, Ant Colony Optimization and Savings Algorithm methods. Findings indicate that while both frequency and severity degrade solution quality, increased levels of frequency and severity together result in significant adverse affects to solution quality. Solution time, however, is not impacted by the presence of triangle inequality violations within the network. This information should encourage practitioners to identify delays and maintain the presence of triangle inequality violations in a network to ensure accuracy of solution quality.

Points forts

► We evaluate the influence of triangle inequality violations on routing networks. ► Violations are introduced systematically by frequency and severity. ► Ant Colony Optimization outperforms Simulated Annealing on violated networks. ► Solutions with no violations are similar to those with networks with few violations. ► Triangle inequality violations affect networks similarly despite of network size.


A solution quality assessment method for swarm intelligence optimization algorithms.

Swarm intelligence (SI) optimization [1] is a class of certain population-based metaheuristics which are inspired by the behavior of swarm of agents (i.e., living beings) interacting locally with each other and with their environment. SI is relatively new subfield of artificial intelligence. The behavior of every agent in SI is simple and does not have intelligence. But a number of simple agents through local rules are able to have the emergence of collective intelligence and come to intelligent solutions for complex problems. In recent years, SI has received widespread attention in research. Typical SI schemes include ant colony optimization (ACO) [2], particle swarm optimization (PSO) [3], artificial bee colony (ABC) [4], and artificial fish swarm algorithm (AFS) [5].

ACO is a class of optimization algorithms modeled on the foraging behavior of an ant colony. In ACO, a colony of artificial ants with the artificial pheromone trails and heuristic information are stochastic constructive heuristics that build better and better solutions by using and updating pheromone trail. New solutions are generated using a parameterized probabilistic model, the parameters of which are updated using previously generated solutions so as to direct the search towards promising areas of the solution space. The first ACO algorithm is ant system (AS) [6]. In the next years, many kinds of ACO algorithms have been developed to improve the performance of AS, such as ant colony system (ACS) [7], max-min ant system (MMAS) [8], and two-stage updating pheromone for invariant ant colony optimization algorithm (TSIACO) [9]. PSO is a metaheuristic search method that simulates the movements of a flock of birds which aim to find food. PSO optimizes a problem by having a population of candidate solutions, called particles, and moving these particles around in the search space according to simple mathematical formulae over the particle's position and velocity. Each particle's movement is influenced by its local best known position and also guided toward the best known positions in the search space, which are updated as better positions founded by other particles. The first PSO algorithm was introduced by Kennedy and Eberhart. ABC is an optimization algorithm based on the intelligent foraging behavior of honey bee swarm, proposed by Karaboga in 2005. In the ABC model, the colony consists of three groups of bees: employed bees, onlookers, and scouts. It is assumed that there is only one artificial employed bee for each food source. Employed bees go to their food source and come back to hive and dance on this area. The employed bee whose food source has been abandoned becomes a scout and starts to search for finding a new food source. Onlookers watch the dances of employed bees and choose food sources depending on dances. The scout bee moves in the solution space to discover new food sources. SI has been applied to many applications problems, such as knapsack problems, scheduling problems, assignment problems, multiobjective optimization problem, and cluster analysis.

Although great progress has been achieved in application, there is also a basic question, which is how to quantify the goodness of the solution obtained in finite time, needed to be answered. We call it solution quality evaluation problem. At present, the existing researches focus on the solution "value performance," namely, the difference between the solution obtained by algorithm and the optimal solution of the problem. The general use of the method is ratio analysis, namely, ratio between solution obtained by algorithm and optimal solution. If the ratio is closer to 1, it means that higher quality is obtained by algorithm and the algorithm is more effective. Competitive analysis [10] of online algorithm also can be employed. The drawback of two methods is that they need optimal solution of problem. There are some approximation methods used to estimate optimal for example, extreme value theory [11] and Lagrange's relaxation method [12], to get the solution value or bound to replace the optimal solution in practical problems. This analysis method generally requires strong theoretical basis of mathematic and strong math skills, and even it is difficult or impossible to give this kind of boundary for most of the problems. In addition to bias in the theoretical study of evaluation methods, some scholars pay more attention to the experimental analysis method. Hoos and Stutzle [13] proposed to analyze the performance and behavior of stochastic local search algorithm by experimental analysis method. The performance of several existing particle swarm optimization algorithms was compared by using this method, and an improved particle swarm optimization algorithm was introduced according to the law in [14].

With development of the ordinal optimization (OO) theory [15], the research changes the angle to solution "ordinal performance" to evaluate solution quality of optimization method. Here the solution "ordinal performance" refers to the judgment about whether the solution is belonging to the good enough solution set. Shen et al. [16] used solution comparison between heuristic methods and uniform sampling to evaluate the solution. The evaluation criterion is alignment probability used in OO. As the extension of this work, author used the knowledge of hypothesis testing to develop it into a theory in [17]. In this paper, we proposed an experimental analysis method based on the analysis of search space and characteristic of algorithm itself to evaluate the solution quality for SI.

The rest of this paper is organized as follows: Section 2 reviews the basic idea of OO and indicates the difficulty of quantifying solution quality by analyzing the existing method. Section 3 describes our experimental analysis method detailed. Some simulation results are presented in Section 4 to show the feasibility of proposed method. Finally, Section 5 concludes the paper.

2. Basics of Ordinal Performance

The ordinal performance is concerned with whether the solution belongs to the good enough set. The evaluation criterion is alignment probability. The definition of good enough set and alignment probability is introduced in OO. So, in this section, we briefly overview OO.

2.1. Brief Overview of OO. OO was first introduced by Ho et al. in 1992 [15], which has become an important tool for optimizing discrete event dynamic system (DEDS). There are two basic ideas in OO. The first idea is ordinal comparison that is, "order" is easier to ascertain than "value." The second idea is goal softening. Instead of only caring about optimal solution, OO is willing to settle for the "good enough" solution.

In OO, [THETA] is the search space and satisfies [absolute value of ([THETA])] = N. The "good enough" set G is defined as the top-g of the search space [THETA] or top p% of the search space [THETA]. It satisfies [absolute value of (G)] = g. Selected set S is selected by rule and satisfies [absolute value of (S)] = s. OO can guarantee that S contains top-g solutions of the search space with a high probability. It is called alignment probability in OO and denoted by [P.sub.AP].

2.2. Ordinal Performance. The research of solution quality evaluation method transfers from the value performance to the ordinal performance, after the definition of the good enough set, selected set, and alignment probability introduced. Based on this knowledge, Shen et al. [17] proposed evaluation method, called ordinal optimization ruler (OO ruler), using the related knowledge of hypothesis testing. So we can use OO ruler to qualify the ordinal performance of solution. One of the intuitive understandings of OO ruler is that uniform samples are taken out from the whole search space and evaluated with a crude but computationally easy model when applying OO. After ordering via the crude performance estimates, the lined-up uniform samples can be seen as an approximate ruler. By comparing the heuristic design with such a ruler, we can quantify the heuristic design, just as we measure the length of an object with a ruler. If the OO ruler gets from all the solutions, it is an accurate ruler. But this is obviously an ideal situation for practical problems. It is proved that approximate OO ruler is also effective.

Theorem 1 (see [17]). If the k solution obtained by optimization algorithm is better than t solution of selected set obtained by uniform sampling, we can judge that the k solution belongs to the top p% of the search space [C] at least. And the type II error probability is not larger than [[beta].sub.0]. The relation between s, [[beta].sub.0], t, and p% is determined by

[MATHEMATICAL EXPRESSION NOT REPRODUCIBLE IN ASCII], (1)

where [MATHEMATICAL EXPRESSION NOT REPRODUCIBLE IN ASCII] represents the number of different choices of s designed out of j distinguished ones.

In the case of given parameters of s and [[beta].sub.0], we can get relation between t and p% through the list method.

For an arbitrary solution obtained by heuristic algorithm, we only need to compare it whether satisfies the conditions of Theorem 1, then we can make the corresponding judgment, so as to realize the evaluation ordinal performance of solution. But OO ruler has a premise. To get OO ruler, uniform sampling for search space is needed. It is also prerequisite for OO. The so-called uniform sampling refers to the same probability of getting arbitrary solution. It is also the reason why the uniform sampling can provide quantitative reference. But, for some problems, it is difficult to achieve uniform sampling, and thus it will not be able to get OO ruler. In addition, the price of getting OO ruler for huge solution space is very high. These two problems limit the application of OO ruler in solution evaluation. However, the introduction of ordinal performance has great inspiration for the research of solution quality evaluation for SI.

3. The Framework of Assessment Method

In this section, we take traveling salesman problem (TSP) as an example to describe experimental analysis method of solution quality evaluation.

3.1. Sample Characteristics of SI. For SI, the feature of the algorithm itself determines that the sampling method in the search space is not uniform. Especially by the partial reinforcement effect, it makes the algorithm more and more concentrated in certain regions. So it is not suitable for evaluating method directly using OO ruler. In addition, the algorithm produces a large number of feasible solutions. The feasible solution contains the search characteristics of some algorithms and the distribution of the solution space. To obtain the hidden information and its rational utilization through some analysis methods, we need to do some research. It plays an important role in the research of quality evaluation and improving the algorithm performance.

3.2. The Framework of Assessment Method. Based on the above analysis, this paper presents a general framework of the quality evaluation method for SI. The framework contains three procedures. First, to get some internal approximate uniform subclass, using cluster method, the solution samples (corresponding to selected subset of OO) were homogeneous processing. Second, discrete probability distribution solution samples of each subclass and the scale relationship of the subclass are estimated in the fitness space. Based on the characteristics of the subclass, the presupposition ratio of the good enough set is distributed to each subclass. Last, alignment probability is calculated according to the model of solution quality evaluation, so as to complete the evaluation of the solution quality.

3.2.1. Uniform Clustering for Nonuniform Samples. According to the characteristics of discrete space, uniform clustering of samples is that obtaining probability of solution is approximating same. Compared with the continuous space, clustering is very different from discrete space. General discrete spatial distance features are defined with the question, and not as the continuous space as a distance to define general way. This makes clustering method based on grid no longer applicable, which is used in continuous space such as density clustering and clustering method based on grid. And the huge solution sample set also limits the use of some special clustering method. Therefore, we need to design a suitable and efficient clustering algorithm based on demand.

Approximate sampling probability is the purpose of clustering. The approximate sampling probability here refers to the neighbor characteristics (including the distance and number of nearest neighbors) consistent approximation. A feasible method for TSP is to calculate the distance between all solution samples. Then clustering is done according to the nearest neighbor statistical feature of each sample distance. But it is only applicable to the small size of the solution sample. Another possible method is that the clustering centers are selected from the best solutions. The distance is calculated between each feasible solution and the cluster center. Then the solution samples are clustered according to the distance. The calculation complexity of this algorithm is low. It is more suitable for clustering large scale solution samples. In the next section, we use this clustering method.

3.2.2. The "Good Enough" Set Decomposition. The solution alignment probability is calculated using a priori ratio of the good enough set (the ration between the good enough set and search space) in OO. The ratio of each kind of the good enough sets is needed to know after clustering. The prior ratio requires decomposing prior ratio of each class. This decomposition has a certain relationship with each class distribution of samples and the class size. Therefore, the distribution characteristics of solution in the fitness value, as well as proportional relation of class size, are needed to estimate.

Estimation of distribution of solution in the fitness value is problem of one-dimensional distribution sequence estimation. The purpose of distribution estimation is to obtain the good enough set distribution. If the fitness value is arranged according to the order from small to large, ordered performance curve (OPC) can be obtained. For the minimization problem, the good enough set is in the first half of the OPC. To obtain a true estimation of the good enough set, you need to consider the types of OPC.

3.2.3. Ordinal Performance Estimation. The original search space after clustering is divided into l approximate uniform partition. Search space [[THETA].sub.k], the good enough set [G.sub.i], and selected set St of each partition and search space 0, good enough set G, and selected set S of the original search space have the following correspondence in the collection and base:

[MATHEMATICAL EXPRESSION NOT REPRODUCIBLE IN ASCII], (2)

where [absolute value of (*)] is the base of set *.

Since the probability of any feasible solution pumped into each subclass is the same, for a sampling result [[theta].sub.i] has

P([[theta].sub.s] = [[theta].sub.i]) = 1/[N.sub.i], [for all][[theta].sub.i], [member of] [[THETA].sub.i]. (3)

In this paper, we only concern the selected set whether has at least one solution in good enough set. So we can draw the following conclusions:

[MATHEMATICAL EXPRESSION NOT REPRODUCIBLE IN ASCII]. (4)

3.2.4. Procedures of Assessment Method. The main steps to get the evaluation method by the above analysis are described in Algorithm 1.

4. Experimental Results and Analysis

In this section, we take the Hopfield 10-city problem, which is also used in [17], as the example to demonstrate our experimental analysis method. The coordinates of the 10 cities are <(0.4000, 0.4439) (0.2439, 0.1463) (0.1707, 0.2293) (0.2293, 0.7610) (0.5171, 0.9414) (0.8732, 0.6536) (0.6878, 0.5219) (0.8488, 0.3609) (0.6683, 0.2536) (0.6195, 0.2634)>. There is (10-1)! = 362880 solutions in the search space. The best path is [1,4, 5, 6,7,8, 9,10,2, 3] or [1, 3,2,10, 9,8,7, 6, 5,4]. Here we define [absolute value of (G)] = 0.005N. We use two groups of experimental simulation to demonstrate effectiveness of proposed method, where [P.sub.AP] is alignment probability. Statistics value represents the alignment probability by our methods. Computational value is the alignment probability, and the error represents the difference of two alignment probabilities.

4.1. Evaluation Index. Alignment probability is a measure of whether optimal solution belongs to the good enough set. It is a probability value. Therefore, studying this value has little significance in one experiment. It is needed to do many experiments to study the statistical laws. So, each kind of experiment independently does K times. If the optimal of i time belongs to the good enough set, let [s.sub.i] = 1 otherwise [s.sub.i] = 0. Let [P.sub.g] be statistical frequency. Then, for K times experiment, we have

[P.sub.g] = [[summation].sup.r.sub.i=1] r = 1, 2, . K. (5)

From (5), the following can be seen, when K tends to infinity:

[MATHEMATICAL EXPRESSION NOT REPRODUCIBLE IN ASCII], (6)

where [P'.sub.g] is the alignment probability value, but it is generally difficult to obtain. In general, we only need to compute the [P.sub.g] value which may be tested experimentally.

Let [[bar.P].sub.A](r) be the alignment probability in an experiment by the evaluation method [P.sub.A] is average value of [[bar.P].sub.A](r). Envisager

[P.sub.A] = [[summation].sup.r.sub.i=1] [[bar.P].sub.A] (r)/r, r = 1, 2, . K. (7)

Let [e.sub.r] be the absolute value of error of [P.sub.g] and [P.sub.A] that is,

[e.sub.r] = [absolute value of ([P.sub.A] - [P.sub.g])]. (8)

In the following experiments, we are using [e.sub.r] as the standard evaluation index.

4.2. Ordinal Performance Evaluation of Nonuniform Sampling. The solution space is sorted according to the fitness values and gets the whole solution space of the sample set, denoted by [OMEGA]. We deliberately partition the search space into the same two parts [[OMEGA].sub.1] and [[OMEGA].sub.2]. Then we sample, respectively, in parts [[OMEGA].sub.1] and [[OMEGA].sub.2], respectively. Times are denoted by [n.sub.1] and [n.sub.2]. Then the total number of samplings is n. Puis

Let K = 5000 and n = 3000. Because the value of ration can be divided into two cases. One is no less than 1, and the other is less than 1. So, the following points are discussed.

4.2.1. Ratio [greater than or equal to] 1. This case illustrates the sampling times in area [[OMEGA].sub.1] more than in area [[OMEGA].sub.2], and the good enough set is in area [[OMEGA].sub.1]. The experiment results can be seen in Figures 1 and 2. The abscissa is value of ratio. The values from left to right, respectively, are 1, 2, 5, 10, and 100. In Figure 1, we can see that, with the increasing value of ratio, the sampling point in area [[OMEGA].sub.1] is increasing. The probability of obtaining the good enough solution increases as the good enough set is in area [[OMEGA].sub.1]. In addition, except for the case of ratio = 1, [P.sub.A] is slightly higher than [P.sub.g]. The rest of [P.sub.A] are lower than [P.sub.g]. The error of two probabilities seen from Figure 2 is lower and no more than 2% generally.

4.2.2. Ratio < 1. This case illustrates the sampling times in area [[OMEGA].sub.2] more than in area [[OMEGA].sub.1]. The experiment results can be seen in Figures 3 and 4. The abscissa is value of ratio. The values from left to right, respectively, are 0.01, 0.1, 0.2, 0.5, and 0.9. In Algorithm 1 and Figure 1, we can see that the error of two probabilities is high. But the error decreases with the ratio increasing.

4.3. Ordinal Performance Evaluation of ACO. Let K = 2000 the computational results can be seen from Figures 5 and 6. From Figure 5 we can see that the alignment probability of [P.sub.A] and [P.sub.g] is close to 1 and the difference is low. The [P.sub.A] is slightly lower than [P.sub.g]. It is showed that the evaluation method is conservative. The error range is less than 0.1%. This shows that the calculation result is credible.

In order to further study the relation between the parameters of ant colony algorithm and evaluation results, we focus on the relationship between the maximum number of iterations changes and ant number changes and evaluation of results. The results can be seen from Tables 1 and 2.

First, we study the ant number. The ant number m belongs to the set <2,4,5,8,10>. From Tablet we can see that the value of [P.sub.A] is increasing with the m increasing. The error of probability is reducing with the m increasing. This shows that the size of solution has some influence on the evaluation method. Second, we study the iteration number [N.sub.max] which is selected from the set <10,20,30, 50,100,200>. From Table 2 we can see that [P.sub.A] is much less than [P.sub.g] when [N.sub.max] is 10. But, with [N.sub.max] increasing, the error is reducing. The reason is that the information of space is accumulated with [N.sub.max] increasing. It is showed that the more the utilization of information of the solution space, the more accurate the result.

4.4. Ordinal Performance Evaluation of PSO and AFS. We also do the same comparison for PSO and AFS. The results can be seen from Tables 3 and 4. m is particle number in Table 3 and m is fish number in Table 4. From Tables 3 and 4 we can see that the value of [P.sub.A] is increasing with the m increasing and the maximum number of iterations [N.sub.max]. The average solution is also improved. It is showed that the solution quality is effect on [P.sub.A].

A solution assessment method of SI is presented in this paper. Based on the analysis of the existing knowledge foundation, combined with the ordinal optimization theory, the ordinal performance is research target to evaluate solution. Then based on the analysis of characteristics of SI algorithms, the framework of evaluation method is given. The detailed steps of the method are presented. Finally, taking the Hopfield 10-city problem as an example, some simulation experiments are done. The experimental results show that the proposed method is feasible.

The authors declare that there is no conflict of interests regarding the publication of this paper.

This work was supported by the National Natural Science Foundation of China (Grant nos. 61305149, 61104222, and 61304175) and the Science Fundamental Research Project of Jiangsu Normal University (Grant no. 12XL063). The authors are also thankful to the anonymous referees.

[1] J. Kennedy, R. C. Eberhart, and Y. H. Shi, Swarm Intelligence, Morgan Kaufmann, San Mateo, Calif, USA, 2001.

[2] M. Dorigo and T. Stutzle, Ant Colony Optimization, MIT Press, Cambridge, Mass, USA, 2004.

[3] J. Kennedy and R. Eberhart, "Particle swarm optimization," in Proceedings of the IEEE International Conference on Neural Networks, pp. 1942-1948, December 1995.

[4] D. Karaboga and B. Akay, "A survey: algorithms simulating bee swarm intelligence," Artificial Intelligence Review, vol. 31, non. 14, pp. 61-85, 2009.

[5] X.-L. Li, Z.-J. Shao, and J.-X. Qian, "An optimizing method based on autonomous animals: fish-swarm algorithm," System Engineering Theory and Practice, vol. 22, no. 11, pp. 32-38, 2002.

[6] M. Dorigo, V. Maniezzo, and A. Colorni, "Ant system: optimization by a colony of cooperating agents," IEEE Transactions on Systems, Man, and Cybernetics, B: Cybernetics, vol. 26, non. 1, pp. 29-41, 1996.

[7] M. Dorigo and L. M. Gambardella, "Ant colony system: a cooperative learning approach to the traveling salesman problem," IEEE Transactions on Evolutionary Computation, vol. 1, non. 1, pp. 53-66, 1997.

[8] T. Stutzle and H. H. Hoos, "MAX-MIN ant system," Future Generation Computer Systems, vol. 16, non. 8, pp. 889-914, 2000.

[9] Z. J. Zhang and Z. R. Feng, "Two-stage updating pheromone for invariant ant colony optimization algorithm," Expert Systems with Applications, vol. 39, non. 1, pp. 706-712, 2012.

[10] J. Aspnes and O. Waarts, "Compositional competitiveness for distributed algorithms," Journal of Algorithms, vol. 54, non. 2, pp. 127-151, 2005.

[11] J. Hsler, P. Cruz, A. Hall, and C. M. Fonseca, "On optimization and extreme value theory," Methodology and Computing in Applied Probability, vol. 5, non. 2, pp. 183-195, 2003.

[12] D. P. Bertsekas, Nonlinear Programming, Athena Scientific Press, Belmont, Mass, USA, 1999.

[13] H. H. Hoos and T. Stutzle, Stochastic Local Search: Foundations and Applications, Morgan Kaufmann Press, San Francisco, Calif, USA, 2005.

[14] M. A. Montes de Oca, T Stutzle, M. Birattari, and M. Dorigo, "Frankenstein's PSO: a composite particle swarm optimization algorithm," IEEE Transactions on Evolutionary Computation, vol. 13, non. 5, pp. 1120-1132, 2009.

[15] Y. C. Ho, R. S. Sreenivas, and P. Vakili, "Ordinal optimization of DEDS," Discrete Event Dynamic Systems, vol. 2, non. 1, pp. 61-88, 1992.

[16] Z. Shen, Y.-C. Ho, and Q.-C. Zhao, "Ordinal optimization and quantification of heuristic designs," Discrete Event Dynamic Systems: Theory and Applications, vol. 19, non. 3, pp. 317-345, 2009.

[17] Z. Shen, Q.-C. Zhao, and Q.-S. Jia, "Quantifying heuristics in the ordinal optimization framework," Discrete Event Dynamic Systems: Theory and Applications, vol. 20, non. 4, pp. 441-471, 2010.

Zhaojun Zhang, (1) Gai-Ge Wang, (2) Kuansheng Zou, (1) and Jianhua Zhang (1)

(1) School of Electrical Engineering and Automation, Jiangsu Normal University, Xuzhou, Jiangsu 221116, China

(2) School of Computer Science and Technology, Jiangsu Normal University, Xuzhou, Jiangsu 221116, China


Voir la vidéo: Méta Heuristique Algorithme Génétique AG Exemple corrigé; Voyageur de Commerce TSP Partie 1